Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 170 reacties

Het is inmiddels geen geheim meer; het wordt steeds lastiger om transistors kleiner te maken. Het aantal transistors in een chip zou, afhankelijk van de interpretatie, elke een tot twee jaar verdubbelen, een principe dat sinds medio jaren zestig bekend staat als de Wet van Moore, of Moore's Law. Die wet is genoemd naar Gordon Moore, een medeoprichter van Intel. Door transistors steeds kleiner te maken, een proces dat bekendstaat als scaling, passen er steeds meer op dezelfde oppervlakte en worden de kosten lager. De wet is uitgegroeid van een observatie tot een richtlijn voor de hele halfgeleiderindustrie. Het blijkt echter steeds moeilijker te worden om die richtlijn te blijven volgen.

De Wet van Moore

Een van de meest sprekende voorbeelden dat scaling steeds lastiger wordt, zien we in de tick-tock-cadans van Intel. Voorheen bracht het bedrijf elke anderhalf jaar een kleinere processorarchitectuur uit, ook wel bekend als een tick. De tock die daarop volgde, bracht een nieuwe microarchitectuur, zodat Intels bekende tick-tock-cyclus ontstond. Sinds de 22nm-generatie is het tempo er een beetje uitgegaan en bij Haswell werd zelfs een Refresh geïntroduceerd, omdat de stap naar 14nm met codenaam Broadwell lastiger bleek dan gedacht. Ook met de stap van Skylake naar CannonLake, van 14 naar 10nm, is een tussenstation aangekondigd, in de vorm van Kaby Lake.

Scaling wordt dus steeds lastiger, met steeds hogere kosten om kleinere transistors te maken. Een hogere dichtheid dankzij kleinere transistors levert in theorie goedkopere chips op, maar als het aantal stappen om ze te maken steeds groter wordt en de benodigde apparatuur duurder, wordt ergens een evenwicht bereikt. Volgens sommigen komen we steeds dichter bij dat punt en wordt het verhogen van de transistordichtheid simpelweg door scaling steeds minder effectief. Dat was het thema van het Imec Technology Forum, een tweedaags symposium waarop halfgeleideronderzoeksinstituut Imec, en partners als ASML en Intel de nieuwste ontwikkelingen op het gebied van de productie van halfgeleiders lieten zien. In dit achtergrondartikel laten we de hoofdpunten van dit symposium de revue passeren. Met andere woorden: is de Wet van Moore in zijn eenenvijftigste verjaardagsjaar eindelijk doodverklaard of gloort er nog hoop voor kleinere, snellere en goedkopere transistors?

Traditionele scaling

In de afgelopen jaren is scaling steeds volgens de Wet van Moore verlopen, met kleinere geometrieën, die meer transistors per wafer opleverden en daarmee de hogere productiekosten van de wafer meer dan compenseerden. De productie van elke kleinere node kost namelijk meer en meer geld; de apparatuur om kleinere transistors mogelijk te maken wordt duurder en het aantal stappen in de productie neemt toe. Dat laatste wordt onder meer veroorzaakt door de noodzaak om steeds lastigere technieken te implementeren om kleinere transistors te maken. Zo werd voor de stap naar 90nm strained silicon toegepast en voor de 45nm-node werd de hkmg-transistor geïntroduceerd. Voor 20/22nm-transistors wordt gebruikgemaakt van double patterning en voor kleinere transistors worden double-patterningtechnieken en finfets ingezet. Met die laatste techniek liep Intel een generatie voor en het paste finfets al in de 20nm-node toe, met de finfet-kostenpost een generatie eerder tot gevolg.

Toenoemende waferkosten

Dat leidt allemaal tot hogere kosten. Tot de 28nm-node waren de kostentoenames steeds ongeveer 15 tot 20 procent per node; bij de stap naar 20nm stegen de extra kosten echter al tot bijna 30 procent en naar 14nm zelfs ruim 40 procent. De hogere transistordichtheid leverde bij de stap naar 28nm nog een kosteneffectieve methode op, maar de stap naar 20nm leidde voor het eerst niet tot goedkopere transistors en dat geldt ook voor de 14nm-node. Overigens zijn het niet alleen de productiekosten die steeds hoger worden, ook de r&d-kosten stijgen dermate dat steeds minder bedrijven zich dat kunnen veroorloven. Het gevolg is een consolidatie van chipfabrikanten, kleinere bedrijven die op grotere nodes blijven produceren en steeds langere termijnen voordat er weer nieuwe, kleinere nodes beschikbaar zijn.

Voor kleinere nodes nemen de kosten voor scaling alleen maar toe. Voor de 10nm-node moeten opnieuw finfets gebruikt worden, in combinatie met double of zelfs triple patterning en self-aligned patterning. De vertraging van euv-lithografie, die minder patterning-stappen mogelijk zou maken, levert ook hogere kosten voor de 10nm- en 7nm-nodes op. Voor nog kleinere transistors, op de 7nm/5nm-node, zouden zelfs vijf patterning-stappen en/of directed self assembly nodig zijn. Al die extra stappen kosten veel tijd en dus geld.

Ter illustratie: de overstap naar het vertraagde euv zou de zogeheten cycle-time, de tijd die een wafer in de fabriek doorbrengt, met twintig dagen kunnen verkorten. Het aantal masking steps, ieder goed voor anderhalve dag, zou van omstreeks 30 voor 193nm-immersielithografie gaan naar minder dan 10 voor euv-lithografie. De levensduur van euv is echter beperkt: we zitten inmiddels op 14nm en voor 10nm zal nog steeds 193nm gebruikt worden. Het 'insertion point' voor euv zou de 7nm-node zijn, maar veel verder dan tot 5nm zou euv niet meegaan.

Euv-insertion

Wat is dan wel de oplossing? De baten van verdere scaling wegen nu al niet meer op tegen de kosten en voor kleinere nodes wordt dat alleen maar erger. Bovendien werken 'platte' transistors op de 14nm-node al niet goed meer en moet worden overgestapt naar complexere finfets. Maar ook die kunnen maar een tijdje mee; voor kleinere transistors zijn weer andere technieken nodig. Is het kleiner maken van transistors eigenlijk de enige oplossing om goedkopere, zuinigere en kleinere chips, sensors en geheugens te maken?

De redding van geheugen?

Er blijft voor de halfgeleiderindustrie hoop gloren om de Wet van Moore intact te laten: geheugen. Niet alleen dram bereikt steeds hogere dichtheden, dankzij nieuwe technieken, maar er worden ook nieuwe typen geheugen ontwikkeld. Zo is nand-geheugen de hoogte ingegaan met 3d-nand van diverse fabrikanten en Intel ontwikkelde met x-point een geheugentype tussen dram en nand in. Vooral nand blijft de curve van de Wet van Moore keurig volgen en aangezien dat het overgrote deel van de transistorproductie is, lijkt de wet veilig.

Aandeel geheugen in transistorproductieIn theorie redt de productie van geheugen, met steeds grotere dichtheden dankzij 3d-nand, tlc-geheugen en nieuwe technieken de Wet van Moore. Voor het overgrote deel van transistors die voor geheugen geproduceerd worden, gaat de wet toch nog op. Voor geheugen kunnen we dus nog even vooruit, dankzij de ontwikkeling van steeds meer lagen geheugencellen in een 3d-structuur. Voor logic-chips als processors is die stapeling echter veel moeilijker te realiseren. Geheugen is namelijk erg simpel van structuur en organisatie, en kan daardoor vrij eenvoudig gestapeld worden. Voor processorcircuits gaat dat niet op; de complexiteit en de geproduceerde warmte door de hoge kloksnelheden maken 3d-structuren lastig.

De package

Natuurlijk kan het stapelen van geheugenstructuren niet oneindig doorgaan. Om toch zuinigere, goedkopere en kleinere processors en apparaten te krijgen, moet er iets fundamentelers gebeuren. Gelukkig is er, voordat we in de sub-10nm-contreien komen, nog een andere quick win mogelijk om het energiegebruik en de footprint van elektronica te verkleinen. In de verpakking van de chip, de zogeheten package, zou gemiddeld zo'n dertig procent van de totale energie van de processor of soc verloren gaan. Dat komt onder meer door de toegenomen complexiteit en integratie van chips; een soc moet in- en outputs hebben voor geheugen, pcie-lanes en usb, en tal van andere i/o. Die schalen minder dan het silicium op de dies en leiden tot een onevenredige belasting op het power- en oppervlaktebudget. Zo zouden siliciumcomponenten drie ordes van grootte zijn geschaald in de tijd waarin de package slechts een factor drie werd geschaald.

InterposersEen methode om de package efficiënter te maken, zou een betere integratie kunnen zijn. In plaats van een relatief groot moederbord met daarop chips gesoldeerd die weer in eigen packages verpakt zijn, zou meer met stapelen of interposers gewerkt kunnen worden. We hebben al een paar voorzichtige stappen in die richting gezien. Geheugen als nand wordt vaak opeengestapeld in een package, maar vaak met de bedrading buiten de dies om. Een geavanceerdere vorm is de verbinding van de dies via tsv's en fabrikanten van nand zijn inmiddels allemaal aangeland bij 3d-integratie op de die. Een andere verbetering die energieverlies tegengaat en compactere hardware mogelijk maakt, is het gebruik van interposers. Onder meer AMD maakt hiervan gebruik bij zijn videokaarten met hbm-geheugen op een interposer met de asic. Dat maakt kortere lijntjes naar het geheugen en daarmee minder energieverlies, kleinere producten en hogere snelheden mogelijk.

We hebben inmiddels twee pijlers van het fundament onder scaling gehad: het productieproces, met onder meer euv, en architecturele veranderingen, met interposers en 3d-structuren. Overigens geldt voor beide pilaren dat dit niet de enige verbeteringen zijn. Zo kan al dan niet plasma enhanced atomic layer deposition of peald gebruikt worden om met grote precisie atoomdikke lagen materiaal op een substraat aan te brengen. En op het gebied van architectuur zullen we nog andere technieken bekijken die de Wet van Moore in stand moeten houden, maar die bekijken we in combinatie met de derde pijler: materialen.

Voorbij finfets

In de bestaansgeschiedenis van geïntegreerde circuits zijn al vele innovaties ontwikkeld om kleinere transistors mogelijk te maken. Zo werden in recente jaren technieken als strained silicium, hafniumoxide en, recentst, finfets ontwikkeld. Het is bijna vanzelfsprekend dat nieuwe architecturele technieken voor bijvoorbeeld interconnects of de opbouw van een transistor gepaard gaan met nieuwe materialen. Zo kunnen materialen niet altijd meeschalen met productienodes; het isolerende vermogen van siliciumoxide bleek onvoldoende voor gates in de 45nm-node, reden om hafniumoxide in te zetten, samen met metallische gates in plaats van siliciumgates. Dit resulteerde in de voor velen bekende hkmg-transistorgeneratie. Een mooi voorbeeld van nieuwe materialen gecombineerd met een nieuwe architectuur.

Van finfet naar nanowire

Zo is scaling steeds een samenspel van manieren om de transistors en andere componenten te bouwen geweest, samen met het ontwikkelen en inzetten van nieuwe materialen, en zo zal het ook voor toekomstige scaling moeten gebeuren. De trend van '3d-transistors' met finfets zal doorzetten, in eerste instantie met steeds hogere vinnen om een groter oppervlak tussen gate en channel te realiseren, maar dat zal tegen grenzen aanlopen. Een tussenoplossing voor waarschijnlijk al de 7nm-node en zeker bij 5nm zal het gebruik van nanodraden voor de channels zijn. Daarbij kan de gate helemaal rondom het channel zitten, wat meer oppervlak en daarmee hogere stuurspanningen en hogere snelheden mogelijk maakt. Die nanodraden kunnen in eerste instantie horizontaal liggen, maar om 3d-integratie makkelijker te maken, zouden ze in de toekomst verticaal, staand dus, gebouwd moeten worden. Dat zou nanodraden waarschijnlijk tot 3nm inzetbaar kunnen maken.

Natuurlijk wordt gewerkt aan meer technieken; silicium nanodraden kunnen ook maar beperkt schalen, en veel verder dan 5 en 3nm is er nog weinig zeker over materialen en architecturen. Wel wordt volop gezocht. Zo wordt bijvoorbeeld steeds duidelijker dat de traditionele interconnect van koper een te hoge weerstand heeft, reden om wellicht naar materialen als kobalt over te stappen. In elk geval moeten de interconnects, de metalen sporen die transistors in een die elektrisch aansluiten, herzien worden. Met steeds meer en kleinere transistors op een chip zijn steeds meer spoortjes nodig om ze aan te sluiten, maar de ruimte op het platte vlak is natuurlijk beperkt. Ook nu moet stapelen van de traces oplossingen bieden, samen met bijvoorbeeld kobalt en andere verbeteringen in de back-end. Ter illustratie: een 14nm-chip heeft dertien lagen voor de bedrading; dat worden er voor elke stap een of twee meer.

3d-socs

Om het gebrek aan oppervlakte te compenseren moeten toekomstige chips waarschijnlijk de hoogte in. Door verschillende dies te stapelen en de afzonderlijke dies ook nog eens verschillende lagen te geven, kan veel logica in een klein oppervlak ondergebracht worden. Zo kunnen een of meer v-nand-dies onder op een substraat aangebracht worden, met een isolerende laag ertussen en daarbovenop een of meer lagen processordies. Dat heeft als extra voordeel dat het geheugen hogere snelheden en lagere latencies kan halen, en bovendien, dankzij de eenvoudige, herhalende structuur, veel makkelijker te scalen is dan processordies. De verschillende dies kunnen ten slotte met tsv's met elkaar verbonden worden. Dat alles zou een reductie van ruim vijftig procent in de bedrading van de soc opleveren en een halvering van de benodigde energie voor de interconnects.

Er zijn tal van andere ontwikkelingen gaande op het gebied van scaling. Zo wordt onderzocht of andere materialen, waarvan zogenaamde III-V-halfgeleiders de bekendste zijn, beter functioneren op kleine schaal. Ook andere manieren om stromen te schakelen, zoals tunnel-fets of spin-fets, worden ontwikkeld en getest. Er wordt zelfs aan dna als opslagmedium gewerkt, maar dat is zo langzaam dat de praktische toepasbaarheid nog ver in de toekomst ligt.

Interposers en scm

Het moge duidelijk zijn dat het tijdperk van 'makkelijke' scaling definitief voorbij is. Sinds twee nodes zijn de productiekosten voor kleinere transistors dermate toegenomen dat deze de lagere prijs per transistor door hogere dichtheid niet meer kunnen compenseren. Dat wordt met de ontwikkeling van kleinere nodes alleen maar erger. De benodigde technieken worden steeds duurder, terwijl het aantal stappen voor de productie groter wordt en dus kost het meer tijd en meer geld om kleinere chips te maken. Het is niet langer voldoende of zelfs haalbaar om de winst wat kosten, prestaties en energiegebruik betreft te zoeken in simpelweg kleinere procedés. Je kunt het een buzzword vinden, maar een holistische aanpak, van materialen, het productieproces en de architectuur of opbouw van chips is nodig. Het is zaak in de komende jaren andere materialen dan silicium te zoeken en de interconnect aan te pakken. Dat moet gepaard gaan met een nieuw type transistor, waarbij gate all around, kortweg gaa, in de vorm van nanodraden in plaats van finfets de eerste grote verandering in architectuur zal vormen.

Vooral in de verpakking van de chips moet nog flink winst te halen zijn, waarbij interposers de klassieke Von Neumann-componenten als processor en geheugen dichter bij elkaar moeten brengen. Interposers zijn letterlijk en figuurlijk maar een tussenoplossing voordat chips 3d-geïntegreerd worden, met niet alleen 3d-nand maar ook 3d-processors in een enkele package, verbonden met tsv's. Dat levert echter weer een ander probleem op: warmte en energiegebruik. Om dat laatste te beperken worden transistors ontwikkeld die met steeds lagere spanningen werken en wordt aan interconnects gewerkt met een lage intrinsieke weerstand. Een lagere weerstand betekent minder verlies in het circuit en lagere spanningen maken zuinigere schakelingen mogelijk. Transistors van InGaAs in gaa-nanowires kunnen bijvoorbeeld met 0,5V aangestuurd worden, in tegenstelling tot silicium finfets die op minimaal 0,8V werken.

Dark Silicon

Dat neemt niet weg dat processors kampen met een fenomeen dat 'dark silicon' heet. Om binnen de warmte- en energiebudgetten te blijven, moeten grote delen van processors uitgeschakeld worden om niet te veel warmte te genereren en stroom te verbruiken. Naarmate circuits complexer worden, neemt het aandeel van dit dark silicon toe. De impact van dark silicon wordt deels het hoofd geboden door finfets, dynamic voltage en frequency scaling, ofwel lagere snelheden met lagere spanningen om het vermogen in te perken, maar rond 7 of 5nm wordt het aandeel dark silicon zo groot, dat deze technieken niet genoeg meer compenseren.

Geheugenhiërarchie met mram en scmOpnieuw is er een aantal methodes om toch betere prestaties uit chips te persen. Zo kan voor meer geheugen gezorgd worden, vooral cache-geheugen dicht bij de cores levert prestatiewinst op, maar met traditionele architecturen is dat een prijzige aangelegenheid, vooral wat oppervlakte betreft. Sram is nog altijd het snelste geheugen dat we kunnen maken, maar voor de grotere caches is dat te duur; er zijn maar liefst zes transistors nodig voor een geheugencel. Voor de grotere caches, als de L3 en L4-caches, zou mram een oplossing kunnen vormen.

Dit magnetische geheugen is eenvoudig van structuur, maar wel snel. Net als dram is slechts één transistor nodig per geheugencel, maar mram is veel sneller doordat het niet afhankelijk is van het opladen van condensators, maar van het veel snellere tunnelmagnetoresistance-effect. Het feit dat mram op een magnetisch principe werkt, net als harde schijven, heeft als bijkomend voordeel dat het niet volatiel is. Bits blijven dus opgeslagen en hoeven niet zoals bij dram steeds ververst te worden.

Datzelfde mram zou dan ook een prima kandidaat zijn om het huidige dram, de tweede laag in de geheugenhiërarchie, te vervangen. Traditioneel bestond de derde laag uit magnetisch geheugen als harde schijven, maar daar is al enige tijd nand, in de vorm van ssd's, tussengekomen. We zijn bezig met nog een tussenlaag, tussen werkgeheugen en snel opslaggeheugen in. Dat zou een storage class memory tussen mram en 3d-nand worden en door phase change-geheugen gevormd moeten worden. Dat is snel, bit-uitleesbaar en niet volatiel. Intels 3d-crosspointgeheugen is daar een mooi voorbeeld van. In toekomstige computers zou daarmee de geheugenhiërarchie uitgebreid worden en sneller worden, zoals in de bovenstaande afbeelding.

Neuraal of Neumann?

Daarmee zitten we nog steeds met bijzonder klassieke architecturen; een inputsysteem levert data aan een databus, een cpu rekent met de data en wisselt data uit met geheugen en uiteindelijk wordt een resultaat naar een output gestuurd. Dat principe staat bekend als een Von Neumann-architectuur en juist dat is waar onderzoekers en ontwikkelaars van toekomstige computersystemen wellicht vanaf willen stappen. Er zijn immers systemen die voor veel taken veel geschikter zijn dan klassieke architecturen, namelijk hersenen. Die zijn extreem goed in patroonherkenning en parallel werken. Juist dat is waar veel workloads steeds meer naartoe gaan en waar een neurale infrastructuur stukken beter zou presteren dan een Von Neumann-architectuur.

Von Neumann-architectuurNatuurlijk zullen klassieke computers gewoon doorontwikkeld worden en blijven bestaan, maar steeds meer computertaken worden visueel. Denk aan de enorme hoeveelheid foto's en video die dagelijks naar YouTube, Facebook en andere diensten verstuurd wordt. Bijna al die visuele informatie moet worden geïndexeerd, gecategoriseerd en geanalyseerd voor het doorzoekbaar maken, maar ook voor het taggen van bekenden op Facebook en om afbeeldingen of video te zoeken via Google. Ook de data van de toenemende hoeveelheid veiligheidscamera's moet geanalyseerd worden. Miljoenen videostreams leveren exabytes aan data op, een hoeveelheid die alleen maar toeneemt. Het geautomatiseerd analyseren en bewaren van alleen relevante beelden is werk voor computers met geavanceerde machine-visioncapaciteiten.

Al die visuele taken kunnen stukken efficiënter worden uitgevoerd door neurale netwerken dan door klassieke computerarchitecturen. Daarbij maakt het weinig uit hoe dat neurale netwerk tot stand komt, maar een architectuur die speciaal daarvoor gebouwd wordt, is altijd efficiënter dan een geëmuleerd systeem. Dat is een reden om computers te ontwikkelen die naar neuronen gemodelleerd zijn, om zo neurale netwerken te bouwen die beter in staat zijn patronen te herkennen en visuele informatie te verwerken. Een groot aantal onderzoeksinstituten is hiermee bezig, niet alleen voor kortetermijntoepassingen zoals hierboven beschreven, maar ook om uiteindelijk menselijke hersenen te simuleren en wellicht om kunstmatige intelligentie te realiseren.

Exaflops, en dan?

Wat moeten we eigenlijk met al die rekenkracht? De desktop, of laptop zo je wil, is al een flink aantal jaar nauwelijks sneller geworden. Afgaande op enkel ons dagelijks gebruik, ook met smartphones en tablets, zou je dus vrij makkelijk kunnen zeggen dat de rek er een beetje uit is en dat sneller ook niet echt nodig is. Scaling is echter niet alleen sneller, maar ook zuiniger en vooral daar is nog veel winst te behalen, met accu's die het momenteel ternauwernood een dag uithouden. Ook op het gebied van rekenkracht worden we veeleisender. Een computer zonder ssd vinden we veelal niet bruikbaar, dus moet er goedkoop nand in, mogelijk gemaakt dankzij scaling, nieuwe 3d-architecturen en nieuwe materialen. Ook nieuwe interfaces, zoals spraak in de vorm van Cortana, Google Voice, Alexa en Siri, worden steeds belangrijker en kosten flink wat rekenkracht. Andere nieuwe interfaces, zoals Microsofts Hololens en virtual reality, hebben niet alleen veel rekenkracht nodig, maar profiteren van hardware die dankzij scaling zuiniger is geworden. Denk maar aan de rugzak met een pc die sommige fabrikanten op de Computex lieten zien om een 'kabelvrije' vr-beleving mogelijk te maken.

Onze verwachtingen maken een ander groot deel van de benodigde rekenkracht onmisbaar; we willen alles snel, direct en zonder wachten. Of dat nu bestellingen zijn, het uploaden van content, het zoeken naar van alles en nog wat of streamen, alles is afhankelijk van de cloud. Volgens velen een buzzword pur sang, maar absoluut noodzakelijk voor zo ongeveer alles wat we met onze gadgets doen en de vraag naar rekenkracht wordt alleen maar groter; denk maar aan de visuele taken van onder meer Google, Facebook en YouTube die rekenkracht vreten.

Auto's of robots?

Sensoren op slimme auto'sEen andere taak die in de komende jaren naar verwachting een grote vlucht zal nemen, is waarneming in het verkeer. Volgens diverse autofabrikanten - niet alleen Tesla, maar zo ongeveer elke fabrikant sleutelt hard aan autonome auto's - wordt de auto volledig vernieuwd. Het zou 'de slimste robot in ons leven' worden, aldus Audi, en slimme auto's hebben vanzelfsprekend rekenkracht nodig. Alle sensoren op een auto moeten zinvolle data opleveren, die geanalyseerd en gedeeld moet worden. De analyse moet bovendien razendsnel gebeuren; je auto kan moeilijk drie seconden nadenken als je met 120km/h over de snelweg rijdt. Ook hier zijn weer volop visual compute-taken weggelegd, van camera's die de omgeving in de gaten houden tot lidar- en radarbeelden die verwerkt moeten worden.

Ter illustratie: hetzelfde Audi dat ons autorobots belooft, huivert bijna van de kosten die daarmee gepaard gaan. Momenteel wordt namelijk al een dikke 30 procent van de productiekosten uitgegeven aan elektronica. Dat wordt rond 2020 35 procent en maar liefst 50 procent in 2025. Dat zijn kosten die het bedrijf niet in de hand heeft. Audi is een autofabrikant, geen radar- of socmaker, dus moet dat ingekocht worden. Dat is gek voor een fabrikant die van oudsher alle productie van een auto in eigen beheer had, maar illustratief voor de veranderingen in de automarkt.

Overigens moeten er een paar dingen veranderen, willen die slimme, rijdende robots het succes worden dat fabrikanten en futurologen voor ogen hebben. Aan de hardwarekant wordt gewerkt en vooruitgang geboekt; radar wordt krachtiger en kleiner, machine vision beter en onder meer Tesla en Google bewijzen dat autonome voertuigen veilig kunnen rijden. Om intelligent verkeer mogelijk te maken, moeten al die auto's echter ook verbonden worden via een snel netwerk met lage latency, zodat snel data kan worden uitgewisseld. Ook dat is met de ontwikkeling van 5g-dataverbindingen ondervangen. Al over twee jaar, bij de Olympische Winterspelen in 2018, zal een 5g-netwerk van 1Gbit/s getest worden.

Dan rest aan de hard- en softwarekant alleen nog veiligheid, zowel verkeers- als dataveiligheid. De grootste uitdaging zal echter in de beleving van mensen zitten; de regelgevers moeten overtuigd worden van de veiligheid en de bestuurder moet de controle uit handen geven. Een ander obstakel is het eigendom; we hebben graag een eigen auto. De investering in slimme auto's komt echter pas echt tot zijn recht als het gros van de auto's bijna continu rondrijdt en als autonome Uber-taxi's mensen vervoeren. Daarvoor moeten auto's worden ontworpen met een levensduur van dik 120.000 uur, voor 22,5 uur per dag gedurende vijftien jaar, in plaats van een levensduur van 8000 uur, goed voor 1,5 uur per dag gedurende vijftien jaar. Zo kan het vervuilende wagenpark enorm verkleind worden en maken auto's optimaal gebruik van wegen: weg files.

Op je gezondheid

Kosten dna-sequencingEen laatste belangrijke grootverbruiker van rekenkracht wordt de gezondheidszorg, als het aan onder meer GSK, Johnson & Johnson, Intel Life Sciences en natuurlijk het Imec zelf ligt. Voor allerlei velden, van het verwerken van data van clinical trials tot het zoeken naar nieuwe antibiotica tegen resistente bacteriën, en de simulatie van cellen om medicijnen te testen en onderzoek te doen: allemaal hebben ze honger naar veel rekenkracht, nieuwe manieren van dataverwerking en methodes om de enorme datastromen te verwerken. En dan hebben we het nog niet over genetische screening, bijvoorbeeld voor gepersonaliseerde behandelmethodes tegen specifieke kankervormen, in plaats van een botte bijl die veel schade aan gezond weefsel toebrengt. Het menselijke genoom is ongeveer 1TB groot en de snelle sequencing en analyse ervan kan levens redden.

Kortom, de Wet van Moore mag dan inmiddels al ruim vijftig jaar oud zijn en al enige keren geherformuleerd zijn, hij is nog steeds de leidraad, of misschien wel self-fulfilling prophecy, die de halfgeleiderindustrie voortstuwt. De jaren van makkelijke scaling, waarbij de geometrie van transistors en chips vrij eenvoudig verkleind kon worden, zijn echter definitief voorbij. Het wordt moeilijker en moeilijker om kleinere transistors te maken en al helemaal om dat tegen dalende kosten te doen. De materialen, het onderzoek, de apparatuur en de tijd die de productie kost: alles wordt duurder en complexer. Toch is de industrie van mening dat scaling niet alleen moet, maar ook kan doorgaan, al is het dan op manieren die veel complexer zijn dan voorheen.

Scaling moet een samenspel worden van alle betrokken elementen en partijen, van de architectuur, tot materialen en productiemethode. Ook chemische bedrijven, zoals BASF, werken samen met fabrikanten om nieuwe materialen te ontwikkelen en nieuwe methodes om die per atoom te beheersen. Want ook al lijkt het dat laptops al vijf jaar nauwelijks sneller zijn geworden, de vraag naar meer rekenkracht, beheersing van energie aan zowel de opwek- als verbruikskant en nieuwe technologie zoals visual computing, machine vision, big data, cloudtechnologie en smart cities zullen in de komende jaren alleen maar toenemen. De Wet van Moore heeft dat allemaal mogelijk gemaakt en zal dat blijven doen.


Door Willem de Moor

- Reviewer

Willem werkt sinds 2008 bij Tweakers en heeft een voorliefde voor wetenschap en een passie voor hardware. Deze combinatie gebruikt hij bij het schrijven van zijn verhelderende achtergrondartikelen, maar komt hem ook goed van pas bij het testen van de nieuwste processors, ssd's en laptops. Zijn informatie haalt Willem het liefst uit de eerste hand bij de fabrikant, ook als dat betekent dat hij daarvoor naar Taiwan moet vliegen.

Moderatie-faq Wijzig weergave

Reacties (170)

Helemaal geen woord over fotonica...?
https://www.tue.nl/en/res...-is-integrated-photonics/

En overigens ook geen woord over het echte problem, de snelheid van het netwerk. Rekenkracht genoeg op die chip, hoe krijgen we het geconverteerd, gemoduleerd en getransporteerd?

[Reactie gewijzigd door Doewap op 15 augustus 2016 09:56]

Dit lijkt me een verslag van het IMEC Technology forum. Als dat niet over NIMBY technologieën ging staat dat ook niet in dit Tweakers artikel.

Zelfde reden dat er niet gesproken wordt over FD-SOI (dat geen FinFET nodig heeft om zuiniger te zijn en dus goedkoper en makkelijker te maken is, vooral geschikt voor IoT) en Quantum-computing.
Het heeft het Tweakers-nieuws helaas niet gehaald, maar begin deze maand toonden MIT en DARPA een lidar zonder bewegende onderdelen die veel kleiner en goedkoper (mogelijk $10 per stuk op 300mm silicon photonics wafers) is dan het ronddraaiende gevaarte van $75k dat je nu ziet op een zelfrijdende auto's van Google.

Het nadeel is dat deze versie een veel kleiner bereik van 2 meter heeft, maar ze verwachten binnen een jaar 10m te halen en dat 100m+ mogelijk is.

[Reactie gewijzigd door Rafe op 15 augustus 2016 14:13]

Exact, daar lijkt me, ligt het probleem!
Het onderwerp architectuur (en technische consequenties: een ingewikkeld moederbord met veel subsystemen en packaging) is toch aangehaald ? Bedoel je een bedrijfs of globaal netwerk ? Daar hangt toch veel van de toepassing af ; ik kan me voorstellen dat een torrent client vooral met de vingers staat te draaien, maar bij een rits photoshop bewerkingen is het weer net andersom
Het ligt er maar net aan welk netwerk je het over hebt. Van waar naar waar je data wilt transporteren. Binnen je rack, binnen het gebouw, tussen gebouwen? Het ligt er ook aan wat voor berekeningen je doet. simpele berekeningen op veel data of zware berekeningen op "weinig" data.

En de snelheid van netwerken is toch ook in ontwikkeling en worden ook steeds hoger?

Geef eens voorbeeld waar het netwerk niet snel goenoeg zou zijn en waar nog geen oplossing voor is of komt?
Beetje laat van mijn kant, maar dit artikel gaat niet over netwerken. Het gaat over wat er op een enkele die geintegreerd kan worden. Elektronen zijn daar binnen nu en tien jaar uitgespeeld, tenminste in de cutting edge markt zullen er dan fotonen over het circuit racen. Is mijn mening. Ik ben geen engineer, overigens, maar een geinteresseerde leek.
Je hebt gelijk, maar heb je wel de post gelezen waarop ik reageerde? Jij had het over " het echte probleem: de snelheid van het netwerk"

[Reactie gewijzigd door gjmi op 3 september 2016 23:12]

Jawel, maar daarmee bedoelde ik dus dat het artikel alleen focust op de 'chip' terwijl we daar op dit moment al zoveel vooruitgang hebben geboekt dat we een probleem hebben bij het off chip transporteren van alle resultaten. Geweldig, die supersnelle chips, maar pas als we de interconnects aanpakken gaan we echt profiteren.
Ik zal wel een semantisch taal****ker zijn, maar het is geen wet, maar een stelling.
Een wet is bewezen en een stelling is een bewering.

De Stelling van Moore (beter bekend als de wet van Moore) is dood - Leve de Stelling van Moore

[Reactie gewijzigd door Nico Klus op 15 augustus 2016 06:11]

Nee, een stelling zou juist in wetenschappelijke zin minder correct. Een stelling is namelijk een bewezen bewering, waarbij een wet juist een empirisch vastgesteld iets is. Wat dat betreft zou de Wet van Moore beter passen den de Stelling van Moore. Immers is er geen manier (bekend in ieder geval?) om de Wet van Moore te bewijzen vanuit een wiskundig perspectief.

Daarnaast is de naam "Wet van Moore" in mijn optiek ook een leuke naam omdat het juist gaat om het ironische tintje dat het met zich meebrengt. Waar mensen vroeger een goede reden hadden om iets een "natuurwet" te noemen (immers was dit een door God opgelegde wet aan de aarde en het heelal), is dit geloof in wetenschappelijke kringen minder tegenwoordig. Men wil nu juist achterhalen uit meer fundamentele concepten waar die "wetten" vandaan komen.

Iets een wet noemen in deze moderne tijd is meer een "beschrijving van onwetendheid", zou je kunnen zeggen.
Aanvullend, "Moore's Law" is de 5e paradigma van "The Law of Accelerating Returns".

http://m.huffpost.com/us/entry/8951550
Steling of wet. In je verhaal heb je het ook over een bewering. In mijn ogen is het geen wet noch een stelling, moore heeft ooit iets beweerd.

Wat men nu een wet noemt is op basis van de kennis uit het verleden en heden. In de toekomst kan die nu bewezen wet wel eens onderuit gehaald worden.

De bewering van moore is eigenlijk niet anders dan de technologische vooruitgang die we de afgelopen 100 jaar in sneltreinvaart hebben zien toenemen. Of je daar voor een cpu nu 2 jaar voor een verdubbeling van maakt of 18 maanden of 3 jaar is niet relevant. Het gaat om de technologische ontwikkeling in zijn algemeen.

Kijk naast cpu n aar andere gebieden, robotica, dna manipulatie, ai. Ik zie eerder een chaos model waar alles verdubbeld, verdubbeld tot het punt van chaos waarbij er geen verdubbeling meer is. Betrek dit op de mensheid en je zal zien dat wij dat punt gaan bereiken. Hierbij doel ik dan op ai, in combinatie met dna manipulatie, computers die samenwerken met biologische systemen en waarbij alles door het gekloot aan de natuurlijk uit de hand loopt, c.q de natuur zich weer hersteld, het punt van chaos.
Het ding heet nu eenmaal zo. De evolutietheorie is inmiddels ook een wetmatigheid en ruim voldoende bewezen, maar blijft (helaas misschien) toch theorie heten.
Het probleem hier mee is hoe het woord "theorie" wordt gebruikt. Binnen de wetenschap heeft dat een hele andere betekenis dan binnen de maatschappij. Een theorie binnen de wetenschap is een bewezen hypothese. Een theorie binnen de maatschappij is een hypothese.
Nouja, als we dan toch bezig zijn doen we het gelijk even goed. Een theorie is een beschrijving van een veronderstelde wetmatigheid in de observeerbare wereld. Zoals: licht wordt afgebogen door zwaartekracht. Een theorie is algemeen en kan op oneindig veel situaties toegepast worden.

Een hypothese is een zeer specifieke, concrete voorspelling die afgeleid wordt uit de theorie. Een goeie theorie is een theorie die veel hypothesen genereert.

Theorie: licht wordt afgebogen door zwaartekracht.
Hypothese: als wij bij een zonsverduistering naar de onderlinge boogafstanden van de nabije sterren kijken, zullen we zien dat deze veranderd zijn omdat het licht door de zon wordt afgebogen.

Een hypothese kan getoetst worden door middel van een experiment oftewel een waarneming of reeks waarnemingen. Een hypothese kan dus niet bewezen worden, zij kan alleen ontkracht of bevestigd worden en daarmee al dan niet steun leveren voor de theorie.

En als hypothesen, stellingen die voortvloeien uit een theorie, keer op keer niet ontkracht kunnen worden of, zoals mijn mentor het uitdrukte, omver gekegeld kunnen worden, dan houdt de theorie stand en wordt zij aannemelijker.

Naarmate een theorie door meer hypothesen / waarnemingen bevestigd wordt geldt zij als nuttig en bruikbaar, hetgeen in de volksmond ook wel 'bewezen' wordt genoemen. Strikt wetenschapsfilosofisch gesproken kan er echter geen sprake zijn van bewijs, noch kan 'juistheid' vastgesteld worden. Jammer he.

[Reactie gewijzigd door Znorkus op 15 augustus 2016 09:49]

Nouja, als we dan toch bezig zijn doen we het gelijk even goed.
Je doet het bijna goed. :p
En als hypothesen, stellingen die voortvloeien uit een theorie, keer op keer niet ontkracht kunnen worden [..] dan houdt de theorie stand en wordt zij aannemelijker.
Ik zou hier graag aan toe willen voegen dat het bij voorkeur onafhankelijke hypothesen zouden moeten zijn.
Je kunt relativiteit wel testen door met verschillende snelheden en op verschillende hoogtes (lees: verschillende afstanden tot de zwaartekrachtput van Aarde) rond te vliegen, maar dan test je elke keer hetzelfde principe (met verschillende parameters, dus het is wel enigszins nuttig).
Het is veel interessanter om een compleet andere voorspelling van dezelfde theorie te testen (zoals het "verschuiven" van sterren vlak naast een zonsverduistering, wat jij ook al aanhaalde). Dat geeft een veel overtuigender bevestiging.
Strikt wetenschapsfilosofisch gesproken kan er echter geen sprake zijn van bewijs, noch kan 'juistheid' vastgesteld worden.
Juistheid vaststellen kan twee dingen betekenen: vaststellen dat een theorie juist is (dit is inderdaad niet mogelijk) of vaststellen dat een theorie onjuist is. Dat laatste is wel degelijk mogelijk en is in feite het belangrijkste uitgangspunt van wetenschap zoals we die vandaag de dag kennen: proberen om theorieën te falsificeren.

Bedankt voor (de rest van) je post!
Een kleine toevoeging hierop zoals mooi uitgelegd door Stephen Hawking in the grand design (als ik het goed heb).

Zoals je zegt, er bestaat geen universele waarheid en een theorie kan dus ook nooit 'bewezen' worden. Een theorie is een interpretatie van observaties en voorspelt toekomstige observaties. Belangrijk is hierbij dat meerdere theoriën over hetzelfde onderwerp correct kunnen zijn (op basis van observaties), alleen wordt dan meestal de meest eenvoudige/simpele theorie gebruikt.

Een voorbeeld: als je in een rechte lijn voor een rond aquarium langsloopt waar een vis in zit, ziet de vis jouw pad niet als recht, maar als een kromme. Hier zou deze super intelligente goudvis een wiskundig model voor op kunnen stellen waarbij de observaties vanuit de vissenkom perfect overeen komen met jouw pad en alle andere bewegende objecten als voorspelt door de theorie. Dit wiskundige model is dan wel een stuk complexer dan de theorie die wij gebruiken voor het rekenen aan bewegende objecten, het maakt de theorie niet minder waar.

In dat opzicht hebben gelovigen gelijk als ze zeggen dat de evolutietheorie nooit bewezen is. Het komt alleen wat beter overeen met onze observaties dan dat het verhaal uit de bijbel doet ;)
Leuke comment. Ik denk dat je het filosofisch principe Ockham's Razor bedoelt. Het stelt dat als er twee verklaringen van een fenomeen zijn (theorieen), dat je dan beter kunt kiezen voor de theorie waarbij de minste niet-ondersteunde aannames voor gedaan hoeven te worden.

In de wetenschap draait het allemaal om aannemelijkheid in het licht van gedane observaties.

Zo kun je bijvoorbeeld zeer goed stellen dat er een superwezen bestaat dat oneindig oud en wijs is, en dat die alle levende wezens heeft 'gemaakt', inclusief de aarde. Het kan best, waarom ook niet, wat weten wij ervan, we waren er niet bij, er lijken een hoop mensen van overtuigd, dus zeker het overwegen waard. In de wetenschap geldt volgens Karl Popper dat je in eerste instantie heus wel met ongeloofwaardige stellingen aan kunt komen, maar dat vervolgens de boel wel getoetst moet worden. Maar laat dit opperwezen nou net onzichtbaar, onhoorbaar, en onaanraakbaar, kortom volledig ontoetsbaar en onaantoonbaar zijn. Dat maakt de theorie moeizamer dan de verklaring van eeuwenlange celdeling met kopieerfouten: een proces dat wij onmiddelijk onder de telescoop kunnen waarnemen en waar elke fokboer je de ins en outs van kan vertellen. Voor creationisme moeten we nogal een exotische en onbewijsbaar element ten tonele voeren: een onaantoonbaar opperwezen. Ockham zegt: niet doen.

Noch het godsbestaan noch de evolutietheorie zijn dus 'bewezen', maar hanteer je Ockham's Razor en ga je voor de theorie met een minimaal aantal al dan niet exotische aannames, dan zou een verstandig wetenschapper voor de evolutietheorie kiezen op basis van de beschikbare waarnemingen.

Het voorbeeld van de vis in de kom is leuk en doet me denken aan een andere stelling uit datzelfde boek van Hawking, namelijk dat de aarde niet in een kromme baan rond de zon cirkelt, maar volmaakt rechtdoor vliegt in een gekromde ruimte-tijd.

Het verklarend gehalte van een theorie zegt niet al te veel over het waarheidsgehalte ervan. Het beste voorbeeld daarvan is religie.

De wet van Moore heet overigens terecht een wet, omdat zij simpelweg een theorieloze beschrijving is van een reeks waarnemingen. Net zoals Newton's zwaartekrachtformule geen enkele verklaring biedt voor het vallen van appels uit bomen. Een theorie daarintegen, dat is heel andere koek, vele male ingewikkelder. En wat betreft een goede verklarende theorie voor de werking van de zwaartekracht: anno 2016 is het antwoord nog steeds goed samen te vatten: 'we don't know'. Misschien stellen we wel de verkeerde vraag, net als de goudvis uit jouw kom.

Het is dus niet zo dat er een gradatie van 'bewezenheid' bestaat die van hypothese naar theorie oploopt naar de hoogste graad van bewezenheid: de wet. Zo klinkt het wel inderdaad. Het dichtst echter bij de waarheid (indien even aangenomen dat die kenbaar is) staan de resultaten van de hypothesen. Dat zijn namelijk geobserveerde feiten.

[Reactie gewijzigd door Znorkus op 15 augustus 2016 13:21]

Ik vind het wel grappig wat je schrijft, maar je gedachte (uitsluiten van Opperwezen) is niet ouder dan de 19e eeuw (dat is op de (aangenomen) leeftijd van de aarde wel een minuscuul tijdsbestek, en eigenlijk wel apart dat zoiets nu de 'normale' gedachte is).

Voor die tijd geloofden veel meer mensen (of beter, pas in de 20e is dat kantelpunt er) en was het alternatief voor een Opperwezen veel logischer. Kortom: tijdsbestek, eigen filosofische overwegingen, uitsluiten van (voor jezelf) ongewenste denkrichtingen, het speelt allemaal een rol. Dit soort overwegingen lijken zelden echter meegenomen te worden.

Ik betwijfel of je Ockham's razor in bovenstaande op de juiste manier gebruikt. In het hele verkleiningsproces van Integrated Circuits (ICs) is het erbij halen van de evolutietheorie ook tamelijk gekunsteld. Het gaat hier over dode zaken. Ik zie niet in hoe je de evolutietheorie zou los moeten laten op bijv. de auto-industrie (waar evolutie=geleidelijke ontwikkeling niet van doen heeft met de evolutietheorie).
De termen 'wet' en 'theorie' worden in wetenschappelijke kringen anders gebruikt dan in regulier taalgebruik. De evolutietheorie is dan ook niet hetgene dat Darwin poneerde, maar is zo gaan heten na het veelvuldig vaststellen van de juistheid van zijn hypothese.

http://www.kritischdenken...betekent-het-iets-anders/
Het bewijs dat het slechts een theorie is. ;) Net als deze 'wet' die duidelijk al jaren niet meer geldt.
Waar haal jij vandaan dat hij "al jaren niet meer geldt"?

Nogsteeds verdubbelen iedere 2 jaar (grofweg) het aantal transistoren op een chip. Dat wet van Moore gaat nog net zo hard op als hij altijd gedaan heeft. Nog sterker; de afgelopen jaren heeft het regelmatig *harder* gelopen dan "verdubbeling iedere twee jaar".

Ziehier de grafiek voor CPUs tot en met 2011:
https://en.wikipedia.org/..._Moore%27s_Law_-_2011.svg
Het punt wat ik maak is dat het slechts een naampje, een woordje is en verder niks. Niet dat sommige mensen niet snappen wanneer iets wel of niet bewezen is. Serieus, als je de evolutietheorie slechts als theorie beschouwt dat moet je dat ook doen met zaken als zwaartekracht en magnetisme want de bewijzen zijn van gelijke orde.
Nou dat ben ik niet met je eens, er zijn namelijk erg veel gaten te schieten in de evolutietheorie. Net zoals elk ander onstaansverhaal van de aarde/het universum. Omdat een grote groep mensen (uit de westerse wereld) deze theorie aanhangt is het nog geen wetmatigheid. Een wetmatigheid bewijst zichzelf en er zijn geen grote gaten aan te wijzen. Als bijvoorbeeld alle stenen zouden vallen, maar sinaasappels niet, dan zou de zwaartekracht ook geen wetmatigheid meer zijn.

In de wet van de zwaartekracht en magnetisme zitten geen grote gaten in bewijslast. Daarom noem je de een nog een theorie en de andere een wet.
"net zoals elk ander onstaansverhaal van de aarde/het universum"

En daaruit blijkt al dat je dus niet begrijpt wat de evolutietheorie is. Er zit een gat in jouw begrip. De evolutietheorie zegt namelijk in de verste verte niks over het ontstaan van de aarde of het universum.

De evolutietheorie gaat alleen over hoe bestaande soorten veranderen. En de theorie is dus dat dit via DNA gaat, en dat er verscheidene redenen zijn waarom bepaalde genen vaker doorgegeven worden dan andere.

Bovendien weten we dat het een feit is dat dit ook inderdaad gebeurd. Het kan alleen zijn dat details anders zijn dan we denken, of dat er nog andere mechanismen zijn waar we nog niks van weten. Dat zijn geen gaten in de theorie, dat zijn beperkingen.
amuse me schiet er eens een paar gaten in.
het is self-fulfilling prophecy. Beetje als bij alle andere industrieen. Het aanhouden van de verdubbeling zorgt voor mooie continuiteit van de productie voor de komende jaren. Intel is toch een beetje boss: zij bepalen het tempo. Als ze zouden willen kan het sneller of langzamer, maar 2x per 2 jaar is gewoon een lekker tempo om zaken mee te doen.

Niks wetmatigheid dus.
je begrijpt niet dat mijn post een reactie is op bed die aangaf dat er veel gaten te schieten waren in de evolutie theorie? en als ik (en anderen) hem uitdagen dit te doen, geeft hij niet thuis :S
Kom maar op met je bewijs. Als je de evolutietheorie kan ontkrachten heb je gegarandeerd een Nobelprijs in handen. :)
Ik ben bang dat we hier op Tweakers in een discussie zullen verzanden van enerzijds atheïsten/agnosten/vulmaarin en theologen/Christenen.

Dat lijkt me niet de bedoeling. Evolutie vs geen evolutie is altijd een gevoelig onderwerp en staat vaak ter discussie, in alle lagen van de maatschappij.

Twee dingen weet ik zeker over de evolutietheorie:

1. Er zijn mensen ('gewone' mensen, leraren, wetenschappers) die geloven dat evolutie waar is.
2. er zijn mensen ('gewone' mensen, leraren, wetenschappers) die geloven dat evolutie niet waar is.

Eén simpel argument van mijn kant zou zijn: er is geen mens bij geweest destijds. Om uitspraken te doen over zaken die (zouden) zijn voorgevallen, miljoenen jaren geleden, is gewaagd. Ja, je kunt deels 'terugkijken' in de tijd, maar absolute zekerheid krijg je alleen door directe waarneming (herhaling). Dat 'evolutie' op kleine schaal plaatsvindt, hoeft niet automatisch te betekenen dat dit ook op grote schaal plaatsvindt. Een fruitvlieg blijft nog steeds een fruitvlieg.

En zo kunnen we wel een tijdje doorgaan. Ik zeg: laten we niet de discussie hier beginnen, daar kom je alleen maar uit als je een tijdmachine uitvindt.
Volgens deze redenatie (directie observatie als enige waarheid) zou ook 99.99% van alle andere wetenschap 'zomaar iets zijn waar mensen in geloven'. Aangezien heel veel er van is gerealiseerd op basis van extrapolatie, interpolatie en aannames op basis van weer andere theorieën.

Laten we heel helder zijn : Het is op z'n minst merkwaardig te noemen dat 'toevallig' alle wetenschappers die de evolutietheorie als onwaar bestempelen gelovig zijn.

In alle andere vlakken van wetenschap is de religie van de wetenschapper namelijk totaal niet relevant voor de uitkomst van z'n onderzoeken en conclusies. Echter opeens bij evolutietheorie is dat anders. Elk logisch nadenkend mens kan zien dat dat komt omdat de evolutiewetenschap indruist tegen enkele principes van monotheïstische geloofsstromen, en deze dus indirect in gevaar brengt door aan hun fundamenten te sleutelen. Dus nogal wiedes dat er tegenstanders zijn. Maar ook nogal ironisch dat die voor 99.999% allemaal geloven in juist datgene wat in gevaar zou komen door evolutionaire processen en concepten.

Een gevalletje "wij van wc eend" dus. Dit staat volledig los van de discussie over evolutie zelf, maar als je als kind van 8 (Toen een goed boek van mijn vader hier over gelezen) de elegantie, logica en toepasbaarheid van de evolutietheorie kunt inzien dan vind ik het bijzonder triest dat er nog volwassenen zijn die de voorkeur geven te geloven in hun denkbeeldige sinterklaas waar geen spaander bewijs voor te produceren is. Behalve stemmetjes in hun hoofd. My $0.01
En dit is precies wat ik bedoelde, laten we nu niet in een eindeloze discussie verzanden, dit is Tweakers en geen nujij.nl

Ik kan op elk van je argumenten wel iets zeggen, maar dat schiet toch niet op. Het enige wat ik je mee wil geven is dat je wat mij betreft anderen wat meer mag respecteren, voornamelijk je laatste alinea is aardig beledigend.
Het probleem van deze maatschappij is juist dat mensen die geen aantoonbaar bewijs hebben voor hun geloof heel veel rechten er aan ontlenen. Er is niets tegen geloof op persoonlijke basis, maar als het georganiseerd gaat worden dan mag je toch op z'n minst verwachten dat er enige overeenstemming is tussen gelovigen onderling én dat er wetenschappelijk bewijs te vinden is over dat geloof. En daar is geen sprake van. Tot die tijd zie ik geen enkele noodzaak om respectvol te doen over mensen met milde symptomen van niet-erkende schizofrenie - dat wil zeggen, niet meer dan dat ik heb voor mijn ex vriendin met MPD (medelijden, en hoop dat ze snel zal genezen van haar stemmen d.m.v. therapie en medicijnen).
Ik kan mijn vorige reactie op jou bijna kopiëren.

Laat mensen toch in hun waarde, al denk je dingen beter te weten.
Jij bent wel raar bezig.

Je probeert de evolutietheorie eerst onderuit te halen door een paar "argumenten" er tegenaan te gooien.

En daarna wil je de discussie stoppen door te zeggen dat je anderen in hun waarde moet laten.

Wat ik dan niet begrijp is dat de wetenschappelijke basis voor de evolutietheorie hetzelfde is als de wetenschappelijke basis voor computers of auto's.

Je zegt toch ook niet "ik geloof niet in computers of auto's" ?

Bovendien begrijp ik niet wat het te maken heeft met "anderen in hun waarde laten" we zitten hier op een forum waar de discusie toevallig te kant op gaat van religie.

Het zou juist dom zijn om niet door te gaan net als hoe honderden jaren geleden wetenschappers op de brandstapel werden gegooid omdat ze iets beweerden.
De grootste voorstanders van evolutietheorie zijn juist vaak christelijke wetenschappers. Ze zien wetenschao als een manier om gods werk beter te begrijpen.

Wat een wetenschapper namelijk wel begrijpt en de gemiddelde leek niet is dat evolutietheorie met geen woord rept over het ontstaan van leven en dus op geen enkele manier ingaat tegen het idee van een god. Het enige wat evolutietheorie zou zeggen als het iets over een god zij was: dit is het mechanisme dat god gebruikt heeft.

Want het enige waar evolutietheorie tegen ingaat is tegen het idee van een bepaald soort god die alles perse op een specifieke manier aangepakt moet hebben omdat het nu eenmaal letterlijk zo in de bijbel staat en je de bijbel letterlijk moet interpreteren.
Ik ben anders gelovig en geloof deels wel degelijk in de evolutietheorie.
Dat 'evolutie' op kleine schaal plaatsvindt, hoeft niet automatisch te betekenen dat dit ook op grote schaal plaatsvindt. Een fruitvlieg blijft nog steeds een fruitvlieg.

Supergoed geschreven. Heel simpel, heel duidelijk.
Het lijkt mij ook logisch dat zaken/projecten/wezens evolueren, maar dat wil idd niet zeggen dat de zaken/projecten/wezens zomaar zijn ontstaan.
Het ontstaan van leven (abiogenese) is een andere tak van wetenschap dan de evolutietheorie. Het staat inmiddels vast dat al het bekende leven één gemeenschappelijke voorouder heeft gehad. Hoe die is ontstaan zijn verschillende hypotheses voor, maar het is waarschijnlijk onmogelijk om aan te tonen welke manier daadwerkelijk heeft plaats gevonden. Dit komt doordat de omstandigheden en overblijfselen daarvan zijn vernietigd door het latere leven.

Het verschil tussen zogenaamde micro-, en macro-evolutie is bedacht door creationisten die prat gaan op het argument dat je niets kan zeggen over prehistorie.
Wetenschap is geen filosofie, het is een strak omlijnde methode zonder rituelen. Het is dus geen alternatief voor geloof.

Dus je mist nog:

3. Er zijn mensen ('gewone' mensen, leraren, wetenschappers) die testen of evolutie waar is
Evolutie vs geen evolutie is altijd een gevoelig onderwerp en staat vaak ter discussie, in alle lagen van de maatschappij.
Niet echt eigenlijk. Alleen fundamentalistische gelovigen hebben er echt problemen mee. Helaas is er wel heel veel onwetendheid waardoor mensen de theorie verkeerd begrijpen.
1. Er zijn mensen ('gewone' mensen, leraren, wetenschappers) die geloven dat evolutie waar is.
2. er zijn mensen ('gewone' mensen, leraren, wetenschappers) die geloven dat evolutie niet waar is.
Het maakt niet uit wat sommige mensen geloven. Het gaat in wetenschap om bewijs. @bed76 beweert dat je gaten kunt schieten in de evolutietheorie, dus ik ben ben gewoon erg benieuwd naar het bewijs waar hij dat mee doet. Vooruitgang in de wetenschap wordt namelijk gemaakt door mensen die kunnen laten zien dat de huidige inzichten niet kloppen.
Eén simpel argument van mijn kant zou zijn: er is geen mens bij geweest destijds. Om uitspraken te doen over zaken die (zouden) zijn voorgevallen, miljoenen jaren geleden, is gewaagd. Ja, je kunt deels 'terugkijken' in de tijd, maar absolute zekerheid krijg je alleen door directe waarneming (herhaling).
Onzin. De evolutietheorie geeft een verklaring voor waarnemingen die je nog steeds kan doen op een heleboel verschillende gebieden. Denk aan de steeds complexere vorm van fossielen in de loop van de tijd, genetische stambomen, de overeenkomst in anatomie. Geologie, astronomie en kernfysica maken de context van de tijdschaal duidelijk. En in de wetenschap zal een theorie als niet correct worden beschouwd als er één enkel feit niet overeenkomt met die theorie. Na 150 jaar verwoede pogingen is de evolutietheorie regelmatig verfijnd, maar het basisidee staat nog steeds als een huis.

Wetenschap probeert ook geen absolute zekerheden te geven, maar probeert de wereld om ons heen zo goed mogelijk te verklaren. Wetenschappers zijn (idealiter) niet bang om hun denken aan te passen als het bewijs dat vereist. En dat is juist een sterk punt tov religie waar alles draait om autoriteit en emotie.
En zo kunnen we wel een tijdje doorgaan. Ik zeg: laten we niet de discussie hier beginnen, daar kom je alleen maar uit als je een tijdmachine uitvindt.
Leuke manier om de discussie te stoppen, maar het is juist mijn doel om te laten zien dat wetenschap en religie niet gelijkwaardig zijn als het je bedoeling is om de wereld te begrijpen. En natuurlijk mag iedereen geloven wat hij/zij wil, maar het probleem is vaak dat religieuze mensen ook hun mening willen opleggen aan niet-, of andersgelovigen. Laat ik je een vraag stellen: het is heel goed dat je kritisch bent over een wetenschappelijk inzicht. Ben je net zo kritisch over wat je zelf gelooft?
Niet echt eigenlijk. Alleen fundamentalistische gelovigen hebben er echt problemen mee. Helaas is er wel heel veel onwetendheid waardoor mensen de theorie verkeerd begrijpen.
Ik zie mijzelf niet als fundamentalist, maar wel als criticus. Onwetendheid kan ik ook aandragen als argument voor mensen die wel achter de evolutietheorie staan ;)
Het maakt niet uit wat sommige mensen geloven. Het gaat in wetenschap om bewijs. @bed76 beweert dat je gaten kunt schieten in de evolutietheorie, dus ik ben ben gewoon erg benieuwd naar het bewijs waar hij dat mee doet. Vooruitgang in de wetenschap wordt namelijk gemaakt door mensen die kunnen laten zien dat de huidige inzichten niet kloppen.
Dit boek wordt, als ik het goed heb begrepen, continu aangepast en gaat in op de evolutietheorie - van big bang tot micro-evolutie. Daaruit blijkt overigens ook dat niet alleen Christenen (of fundamentalisten...) niet achter de theorie staan.
Onzin. De evolutietheorie geeft een verklaring voor waarnemingen die je nog steeds kan doen op een heleboel verschillende gebieden. Denk aan de steeds complexere vorm van fossielen in de loop van de tijd, genetische stambomen, de overeenkomst in anatomie. Geologie, astronomie en kernfysica maken de context van de tijdschaal duidelijk. En in de wetenschap zal een theorie als niet correct worden beschouwd als er één enkel feit niet overeenkomt met die theorie. Na 150 jaar verwoede pogingen is de evolutietheorie regelmatig verfijnd, maar het basisidee staat nog steeds als een huis.
Als je het anders bekijkt: genetische stambomen, overeenkomsten in anatomie, er is dus één ontwerper die dezelfde bouwstenen gebruikt om verschillende dingen te 'bouwen'?

Dat de aarde ouder is (kan zijn) dan 6000 jaar, daar durf ik geen uitspraken over te doen, maar dat de mens pas 6000 jaar geleden zijn intrede heeft gedaan, dat denk ik wel.
Wetenschap probeert ook geen absolute zekerheden te geven, maar probeert de wereld om ons heen zo goed mogelijk te verklaren. Wetenschappers zijn (idealiter) niet bang om hun denken aan te passen als het bewijs dat vereist. En dat is juist een sterk punt tov religie waar alles draait om autoriteit en emotie.
Wat mij betreft zit er verschil tussen wetenschap en historische wetenschap. Hoe verder je teruggaat in de tijd, hoe onzekerder het wordt. Wetenschap is specifiek, meetbaar, herhaalbaar. Historische wetenschap is proberen te laten zien wat er vroeger is gebeurd, op basis van aanwijzingen. Een geschreven verslag van een veldslag in de Romeinse tijd is aardig betrouwbaar, maar kan ook overdreven zijn. Een fossiel vinden en zeggen dat het miljoenen jaren oud is... Daar heb je wat mij betreft ook een groot geloof voor nodig ;)
Leuke manier om de discussie te stoppen, maar het is juist mijn doel om te laten zien dat wetenschap en religie niet gelijkwaardig zijn als het je bedoeling is om de wereld te begrijpen. En natuurlijk mag iedereen geloven wat hij/zij wil, maar het probleem is vaak dat religieuze mensen ook hun mening willen opleggen aan niet-, of andersgelovigen. Laat ik je een vraag stellen: het is heel goed dat je kritisch bent over een wetenschappelijk inzicht. Ben je net zo kritisch over wat je zelf gelooft?
(Historische) Wetenschap en religie zijn inderdaad niet gelijkwaardig, maar hebben wel overlap, juist als het om het ontstaan van het leven gaat. Zeker moeten mensen hun geloof niet opleggen aan anderen, net zoals evolutie-gelovigen (als ik dat zo mag zeggen) dat niet aan anderen moeten doen.

Ik ben zeker kritisch over wat ik zelf geloof, net als ieder mens ben ik vaak ook een echte twijfelaar. Juist omdat ik probeer te zoeken naar antwoorden, wordt wat mij betreft echter continu het bestaan van God bevestigd.

Overigens, religie draait misschien om autoriteit en emotie, maar ieder persoon gelooft op zijn eigen manier. Ik probeer mijn geloof rationeel te ondersteunen, zonder mijn ogen te sluiten voor wetenschap. Ik hoor, vind ik, niet bij een religie. Ja, ik kom minimaal eens per twee weken in een kerk samen met anderen, maar dat hoeft niet te betekenen dat we het allemaal eens zijn over alles. Net zoals wetenschappers ;)
Je noemt jezelf misschien geen fundamentalist, maar praat bijna woord voor woord types als Ken Ham na. Ik kan overigens ook linkjes droppen: http://www.talkorigins.org/indexcc/
Als je het anders bekijkt: genetische stambomen, overeenkomsten in anatomie, er is dus één ontwerper die dezelfde bouwstenen gebruikt om verschillende dingen te 'bouwen'?
Als er een ontwerper zou zijn is die in elk geval niet zo intelligent. Denk aan het geijkte voorbeeld van de slokdarm en luchtpijp die naast elkaar zitten, met het gevaar van verstikking tot gevolg. Goed genoeg om via kleine stapjes tot stand te zijn gekomen, maar erg knullig als er een ontwerper achter zit. Bovendien is het opvallend dat het resultaat van de schepper precies hetzelfde is als wanneer er een naturalistisch proces achter zit. Het zou dus betekenen dat die schepper ons voor het lapje wil houden.
Wat mij betreft zit er verschil tussen wetenschap en historische wetenschap. Hoe verder je teruggaat in de tijd, hoe onzekerder het wordt. Wetenschap is specifiek, meetbaar, herhaalbaar. Historische wetenschap is proberen te laten zien wat er vroeger is gebeurd, op basis van aanwijzingen. Een geschreven verslag van een veldslag in de Romeinse tijd is aardig betrouwbaar, maar kan ook overdreven zijn. Een fossiel vinden en zeggen dat het miljoenen jaren oud is...
Je bent nu excuses aan het bedenken waarom een conclusie die jou niet bevalt misschien niet zou kunnen kloppen. 'Historische wetenschap' is weer typisch zo'n onderscheid dat door de Ken Hams van deze wereld is bedacht. Gelukkig kan je voor je fossiel bijvoorbeeld aardlagen en radioisotopen gebruiken. En dan ga je vast beweren dat het verval van isotopen niet altijd constant hoeft te zijn geweest, maar dat gaat in tegen alle kennis die we gebruiken om bijvoorbeeld kernreacties aan de gang te houden. Onthoudt: één feit dat niet klopt met een theorie, maakt die theorie onjuist. Toon aan dat een fundament van een theorie niet klopt en je Nobelprijs is gegarandeerd.

Historische documenten zijn notoir onbetrouwbaar omdat de schrijver waarschijnlijk een agenda heeft gehad en sowieso in een bepaalde context leefde. Een meetbaar verschijnsel heeft geen agenda. En nu we het over de betrouwbaarheid van oude teksten hebben: heb je je ooit eens verdiept in de oorsprong van de bijbel? Dit is een serie colleges op Youtube waar een bijbelkenner van Yale uitleg geeft over het nieuwe testament: https://www.youtube.com/playlist?list=PL279CFA55C51E75E0
Wetenschap en religie zijn inderdaad niet gelijkwaardig, maar hebben wel overlap, juist als het om het ontstaan van het leven gaat. Zeker moeten mensen hun geloof niet opleggen aan anderen, net zoals evolutie-gelovigen (als ik dat zo mag zeggen) dat niet aan anderen moeten doen.
Beweringen van wetenschap en religie hebben inderdaad overlap. Het grote verschil is dat wetenschap er daadwerkelijk bewijs voor heeft en de flexibiliteit om het denken aan te passen. Ook als de conclusie niet naar je zin is.
Sterke, inhoudelijke reactie!

Ik heb nu helaas geen tijd om dit allemaal te bekijken en door te lezen (anders wordt de baas boos), maar dat ben ik zeker van plan om nog te gaan doen. Verwacht dus geen inhoudelijke reactie.

Lees je 'mijn' boek ook door?
Dat de aarde ouder is (kan zijn) dan 6000 jaar, daar durf ik geen uitspraken over te doen, maar dat de mens pas 6000 jaar geleden zijn intrede heeft gedaan, dat denk ik wel.
Ja, leuk maar kan je dat bewijzen? Of ook maar een beetje staven?
Als de mens slechts 6000 jaar oud is dan heeft iets of iemand verdomd hard zn best gedaan om het te laten lijken alsof dat niet zo is. Want wat we in de grond vinden spreekt jou in boekdelen tegen.

En dat is dus gelijk het probleem met anti-evolutionisten enzo. Grote mond, grote bizarre uitspraken, maar geen bewijzen.
Dat terwijl de wereld vol ligt met bewijzen, alleen duiden die op evolutie en dus worden ze met duizenden tegelijk genegeerd door gelovigen.

Ook jij bent gelovig. Hoe weet ik dat? Door je slecht onderbouwde kritiek die je alleen bij gelovigen terug ziet komen.
Als je werkelijk had gekeken naar welke bewijzen we hebben voor evolutie dan kon je die hele post niet maken. Je wilt het dus eigenlijk niet weten.
Gelukkig trekt de wetenschap zich niks aan van wat we willen weten. Het kijkt naar wat er is.

Je kunt wel geloven maar je kan ook gewoon weten. Feiten checken enzo. Wat is het bewijs dat mensen 6000 jaar geleden spontaan op het toneel verschenen? Je kunt namelijk zelf checken dat dat niet zo is. Moet je wel een beetje je best voor doen, maar de bewijzen zijn legio.

Darwin werdt uitgedaagd in de tijd. Hij kwam met het verhaal dat mensen uit apen zijn geevolueerd.
De tegenstanders zeiden (terecht) dat als dat waar is dat er tussenvormen moeten zijn geweest die lijken op zowel mensen als op apen. En aangezien die (toen) niet gevonden waren was evolutie niet waar.
Vervolgens ging men zoeken en wat vindt men? Botten van tussenvormen. Van heel veel tussenvormen.
En ondertussen hebben we een hele lange rits van tussenvormen van mens en aap.
En zo is dat al meer dan honderd jaat gaande. We hebben al meer dan honderd jaar aan bewijs dat evolutie gaande is en dat de mens (en het leven in zn algemeenheid) veel ouder is dan 6000 jaar.

Gezien wat we weten (en wat je zelf kunt checken) is het dus best wel een belachelijke uitspraak dat mensen slechts 6000 jaar oud zouden zijn. Het getuigt ook niet echt van enig inzicht.
Jij noemt een boek, maar er zijn werkelijk miljoenen boeken die niet eens als doel hebben religies te beschadigen ofzo maar die alsnog bordevol staan met bewijzen dat evolutie heeft plaatsgevonden (en nog steeds plaatsvindt).
Dat boek van jou kan dat allemaal niet op een zinnige manier tegenspreken.

Begin dus met kijken wat we wel weten over evolutie (en geologie, en natuurkunde) want volgens mij ben je daar nooit echt aan begonnen. Anders had je namelijk nooit zo'n domme uitspraak kunnen doen als dat van die mensen die maar 6k jaar oud zijn...
Voor mij zijn jullie beide even erg. Ik heb niets met religie, vooral de patriarchale, hiërarchische varianten. Ik heb nog wel iets met wetenschap, maar verlies me niet in een denkwijze die zich manifesteert als religie met onderliggende paradigma's die al net zo erg uitpakken als dogma.
Het punt wat ik maak is dat het slechts een naampje, een woordje is en verder niks.
Wat is dan het probleem om na 60 jaar de naam wel te willen veranderen? :?
Maar jaren de jaren hiervoor hij toch bewezen? De wet van Moore was altijd een feit geweest.

Het punt is juist ineens dat hij niet meer bewezen word wat hij jaren hiervoor wel heeft gedaan waardoor je nu kan zeggen dat deze wet nu een stelling is.

[Reactie gewijzigd door rickboy333 op 15 augustus 2016 20:33]

Goed punt. Natuurwetten gelden nooit volledig universeel (en zijn nooit volledig universeel bewezen). De wet van de zwaartekracht bijvoorbeeld is zeer nauwkeurig enerzijds (zolang het relatief kleine objecten ten opzichte van een planeet betreft), maar later heeft men ontdekt dat het op een andere schaal slechts een grove benadering is (de aantrekkingskracht tussen twee lichamen).

Idem dito voor kwantummechanische wetten: op kwantumschaal blijken veel natuurwetten niet meer te kloppen. Dat is geen probleem - voor het domein waarin ze wel gelden (op een grotere schaal) staat de oorspronkelijke wet nog steeds.
Het woord "wet" word hier wel heel snel gebruikt vind ik. De orginele, Engelse, naam is beter, maar ook die behoeft enige uitleg.

Het woord "law" is, gok ik (na wat interviews gezien te hebben op oa YouTube) een beetje gekscherend gekozen, iets waar IT'ers goed in zijn. "Lost in translation", dus.

Offtopic: Het is "idem", of "ditto". Niet beide, aangezien ze allebei hetzelfde betekenen is "idem dito" dubbelop, net als "BSN nummer".
Idem en ditto hebben niet dezelfde betekenis; idem "hetzelfde", ditto "precies". Samen vormen ze het Latijnse woord "idem ditto".

[Reactie gewijzigd door Nathuran op 17 augustus 2016 09:59]

Sorry, ik bedoelde "dito" (met één t) (zoals vstrien het ook schreef). Dat betekent, volgens van Dale, beide "hetzelfde":

http://vandale.nl/opzoeken?pattern=dito&lang=nn
http://vandale.nl/opzoeken?pattern=idem&lang=nn
Dit betekend toch gewoon dat we als mensheid het nog niet helemaal snappen.

Ik bedoel er waren ook oude benaderingen van PI ( en wie zegt dat PI nu helemaal goed is ).
Klopt, je bent inderdaad wat semantisch.
Er is namelijk ook een Wet van Murphy, nooit bewezen maar voor mij een grootheid waar ik toch met enige regelmaat rekening moet houden.
En dan is er de Stelling van Pythagoras, die beweert zowaar dat a2+b2=c2 , hoe krijgen we dat ooit bewezen......
En dan is er de Stelling van Pythagoras, die beweert zowaar dat a2+b2=c2 , hoe krijgen we dat ooit bewezen......
Is dit een slechte grap of zeg je dat erg geen bewijs is voor de stelling van Pythagoras?
Nee, ik was sarcastisch... De openingspost begon met een wet is bewezen en een stelling is een bewering. Ik geef twee voorbeelden die net het tegenovergestelde zijn, een wet die nooit bezwezen is en een stelling die iedere dag gebruikt wordt.
Volgens mij is het woord 'wet' ironisch bedoeld. Het is het geen fysische wet maar destijds een voorspelling in 1965 gedaan door Moore voor de komende tientallen jaren. Gezien het exponentiële karakter van de voorspelde groei weet elke ingenieur dat deze wetmatigheid niet vol te houden is op de lange termijn.
Iets wat al 60 jaar opgaat, acht je niet bewezen?
60 jaar "bewezen" maakt nog geen waarheid. Dat is het mooie van wetenschap. Als er vandaag een bewijs wordt gevonden dat bijv de evolutie theorie onder druk zet dan zal dat worden meegenomen. Overigens heet het niet voor niets een "evolutie theorie" - al vinden we continu stavende bewijzen al langer dan De wet.. Ehm. Theorie van Moore. (Of stelling).
"Observatie van Moore" was beter geweest, dan was het duidelijk dat het iets was wat hij in de jaren '60 zag, slechts een waarneming die op dat moment waar was.

Bij een theorie ga je er sneller vanuit dat die altijd juist zal zijn en blijven, zoals de evolutie theorie, of dat deze nooit juist zal blijken, ook niet vroeger, zoals de foute flogistron-theorie.
Iets wat al 60 jaar opgaat, acht je niet bewezen?
Er wordt met het woord 'bewijs' iets anders bedoelt, namelijk dat je het wiskundig volledig kunt onderbouwen. Het is een technische term uit de wiskunde.
En aangezien die wet van moore zn oorsprong niet in wiskundige verhoudingen heeft valt het ook niet wiskundig te bewijzen.
Tot en met het eind van de middeleeuwen was het wet dat de aarde Plat was, en wie anders dacht was gek en werd genegeerd. Vooral rond de middeleeuwen kon je hier hard voor gestraft worden. (ondanks dat enkele wetenschappers al met dit idee naar voren zijn gekomen in de geschiedenis).

En toch hebben we we stelling dat de aarde plat is van tafel geschoven, omdat het niet waar is. Het is duizenden jaren opgegaan, en is sinds een relatief korte tijd ontdaan.

Dit is een voorbeeld waarom ik vind dat we alle bevindingen uit onderzoeken niet als wet moeten beschouwen maar als stelling. een stelling kan makkelijk aangepast worden, terwijl het bij een wet voor een lange tijd als "feit" gezien word, zelfs als het onjuist is.
Tot en met het eind van de middeleeuwen was het wet dat de aarde Plat was, en wie anders dacht was gek en werd genegeerd. Vooral rond de middeleeuwen kon je hier hard voor gestraft worden. (ondanks dat enkele wetenschappers al met dit idee naar voren zijn gekomen in de geschiedenis).
Je centrale argument (dat alles aan verandering onderhevig is, ook dingen die al sinds jaar en dag opgaan) staat als een huis, maar je voorbeeld is ongelukkig gekozen.

Ten eerste was het nooit een "wet" dat de aarde plat was, ten tweede wisten alle geleerden al sinds Aristoteles dat de aarde rond was (al waren er zeker wel een paar die dat in twijfel trekten, om over de kennis van het gewone volk nog te zwijgen), en ten derde is er nooit iemand "hard gestraft" voor de bewering dat de aarde rond was (of plat, for that matter). Er zijn mensen voor veel rare dingen verketterd, maar niet, dat ik kan vinden, voor de vorm van de aarde. De notie van antipoden (mensen die aan de andere kant van die ronde aarde leefden) deed veel meer stof opwaaien. Zie het wiki-artikel voor meer info.

Een beter voorbeeld zou heliocentrisme zijn: de notie dat de zon in het middelpunt van het stelsel staat, en niet de aarde. Daar is heel wat meer om te schaften geweest, en daar zijn er wel degelijk mensen gestraft (met als beroemdste voorbeeld Galileo). Ironisch genoeg is vanuit een modern standpunt het hele idee van een "middelpunt" van het zonnestelsel betekenisloos, al is het wel een stuk makkelijker rekenen als je de zon centraal stelt. Ook dat had echter weinig met "wetten" van doen.
Een wet is niet iets dat onveranderlijk is in de wetenschap, het is een omschrijving van iets dat als onveranderlijk word gezien. Als blijkt dat de wet niet klopt word deze gewoon aangepast.

Nu is de wet van Moore natuurlijk niet echt een wetenschappelijke wet, dus daar heb je wel een punt.

[Reactie gewijzigd door StefanDingenout op 15 augustus 2016 11:06]

Heel veel dachten juist niet dat de aarde plat was vroeger, HEEL veel dachten gewoon dat de aardoppervlak gekromd moest zijn, dat zijn leugens die ze tegenwoordig op school leren aan kleine kinderen, je hebt het toch echt fout ard1998.
Vrijwel alle middeleeuwse wetenschappers wisten dat het aardoppervlak gekromd moest zijn. Anders was het moeilijk te verklaren waarom je vanaf de top van een heuvel verder kon kijken dan vanaf de grond; of waarom een scheepsmatroos in het kraaiennest verder kon kijken dan zijn kapitein op het dek.
https://www.scientias.nl/platte-aarde-wisten-wel-beter-middeleeuwen/

[Reactie gewijzigd door AmigaWolf op 15 augustus 2016 17:12]

offtopic:
Leuk voorbeeld, maar het is een mythe dat het platte-wereld concept populair geloof was in de middeleeuwen. Dat is nooit het bredere geloof geweest namelijk. kleine splintergroepjes geloofden het.


oh wacht, ik had je bericht niet helemaal gelezen en linkje niet gezien. Ik heb nog koffie nodig zo te zien.

[Reactie gewijzigd door six-shooter op 15 augustus 2016 08:53]

Dan is het defacto wet. Als de hele wereld het wet noemt, dan is het alleen maar verwarrend.

En waarom moet een wet bewezen zijn? Er kan morgen weer een wet ingevoerd worden. Die wet is niet bewezen hoor, maar toch een wet.
Je verwart nu een natuurwet met een ingevoerde wet. Een natuurwet wordt niet ingevoerd, maar vastgesteld - feitelijk is het dus meer een "wetmatigheid" dan een "wet" zoals die vanaf een overheid wordt ingevoerd.

Anders gezegd: Een steen valt niet omdat hij zich moet houden aan de ingevoerde wet van de zwaartekracht (door wie? ;-)), maar omdat alle stenen altijd volgens een bepaalde wetmatigheid lijken te vallen, stellen we de wet van de zwaartekracht vast.

Hetzelfde voor de wet van Moore: hij stelde een wetmatigheid vast in de ontwikkeling van transistors.
Prima dat je een taal****ker wil zijn maar doen het dan goed. Een wet is niets anders dan een (bindende) regel of voorschrift. Net als dat je de verkeerswet kan overtreden en kan herschrijven kan je dat ook met een andere wet. Ook een natuurwet zou je kunnen herdefiniëren als blijkt dat het niet meer helemaal opgaat.

Daarbij is dit natuurlijk net zo min een echte wet als de wet van Murphy....
Komt een beetje over als of iemand een heel huis heeft gerenoveerd en dat je op bezoek bij hem komt en zegt: Zonde dat die plint los zit....
I quote Gates' law “Software efficiency halves every 18 months, compensating Moore's law.”
Als software nu eens slimmer geschreven wordt dan hadden we niet meer dan 640 kb nodig gehad ;) All jokes aside -en nee Bill gates had dat niet gezegd, maar dat is het punt niet- Met slimmere software kan 'meer' bereikt worden dan het verdubbelen met de transistor aantallen of geheugen. Volgens mij stagneren we ook op basis van de 'lack of' software efficiency verbetering.
Mijn tekstverwerker is al zo snel als ik hem wil hebben, en de wetenschappers die aan number crunching doen steken echt wel moeite in het optimaliseren van hun algoritmes. Voor de doeleinden waar mensen nu bijzonder veel processorkracht nodig hebben is het euvel niet dat de programmeurs niet hard genoeg hun best zouden doen. Voor "gewone" software is het wel zo dat de snelheidsverbetering van de processor gebruikt wordt om goedkoper ("luier", zo je wilt) software te ontwikkelen door meer high level te doen, maar dat is vanuit economisch oogpunt ook logisch. Het is vaak een stuk interessanter om iets in 1 dag te kunnen ontwikkelen in plaats van 2, dan dat een request in 1 microseconde afgehandeld is in plaats van 10.

Wel is het terecht om bij iedere seconde die je op de desktop aan het wachten bent de vraag te stellen "waarom ben ik aan het wachten", want de processorsnelheid kan het niet zijn. Maar de programmeur komt er nog mee weg als het I/O is, bijvoorbeeld. :P
Wellicht wil je tegelijk aan je tekstverwerker zitten en number crunching doen op de achtergrond? Er is namelijk idd wel ruimte voor verbetering, vetraagd door economisch oogpunt.
Ruimte wel, maar de stelling dat er meer mee bereikt kan worden is op zijn minst aanvechtbaar te noemen. Snellere hardware versnelt namelijk alle software die op die hardware draait, snellere software alleen maar die software. Vond je een of andere algemene supertechniek waarmee ineens alle software plotseling sneller werd, dan was het wat anders, en zulk onderzoek is er natuurlijk ook gewoon (het voorbeeld van neurale netwerken wordt genoemd in het artikel). Maar als je echt bedoelt dat Doortje Developer haar tekstverwerker beter moet optimaliseren omdat we daar voordeel van gaan hebben ben ik het daar in ieder geval mee oneens.
Je haalt elke keer de tekstverwerker aan, maar daar gaat de hele Moore's Law en Wirth's Law niet over, het gaat over de algemene tendens. "The hope is that the progress in hardware will cure all software ills. However, a critical observer may observe that software manages to outgrow hardware in size and sluggishness."
Maar met de stelling dat hardware niet alle softwareproblemen kan oplossen ben ik het dan ook volledig eens. Ik denk dat we langs elkaar heen aan het praten zijn en dat het meer een kwestie van gradatie is :P
Wat ik altijd een treffend voorbeeld vindt van efficiency is een game console. Als je kijkt wat ze op dag 1 er uit halen qua features en graphics en na 5 jaar, dan is dat een behoorlijk verschil.
Ik denk "Oh nee, niet weer hetzelfde clickbait wat al jaren en jaren iedere keer opnieuw voorbij komt". Maar jawel, ook Tweakers moet weer eens een keer gillen "WHAA DE WET VAN MOORE IS DOOD". En ja hoor, ook Tweakers gaat in de eerste paragraaf alweer de mist in.....
De dichtheid van transistors in een chip zou, afhankelijk van de interpretatie, elke een tot twee jaar verdubbelen, een principe dat sinds medio jaren zestig bekend staat als de Wet van Moore, of Moore's Law
Nee dus.
De Wet van Moore zegt HELEMAAL NIETS over dichtheid. En dat is de belangrijkste reden dat de Wet van Moore ook nu nog gewoon stand houdt. De Wet van Moore stelt slechts dat het aantal transistors in een geïntegreerd circuit grofweg iedere twee jaar verdubbelt.

Als alle bedrijven nú zouden stoppen met het verkleinen van het proces en zouden gaan werken aan het stapelen van transistoren of simpelweg het formaat van de chip vergroten, zou Moore's Law gewoon net zo hard stand houden als hij altijd gedaan heeft.

Dus nogmaals:
Moore's law (/mɔərz.ˈlɔː/) is the observation that the number of transistors in a dense integrated circuit doubles approximately every two years.
Er wordt met geen woord gerept over dichtheid en het formaat van de transistor is dan ook niet de enige invloedsfactor op het blijven bestaan van deze wettelijkheid.

[Reactie gewijzigd door Croga op 15 augustus 2016 13:15]

Voor de formulering heb je gelijk. Echter een onvermijdelijk gevolg van het toenemen van het aantal transistoren is dat de kosten per transistor moeten dalen. Miniaturisatie is historisch de enige techniek geweest die over een langere periode de kosten per transistor kon doen dalen.

Moore en miniaturisatie zijn daarom wel degelijk twee zijden van dezelfde munt. Stopt miniaturisatie, of levert het geen kostenvoordeel op, dan zijn er nog een paar kunstgrepen te bedenken om de transistorkosten te verlagen, maar dan is Moore ook afgelopen.

En Moore houdt zeker geen stand. Enkel de rijkste chipproducenten (Intel, Samsung) zijn de afgelopen jaren in staat geweest op tijd fabrieken gereed te hebben voor de volgende Moore-stap. Het is een snel krimpend groepje. Voor minder rijke fabrikanten, zoals Nvidia, AMD, Qualcomm en ga zo maar door kwamen produktieprocessen veel te laat beschikbaar en voor hen is Moore feitelijk al overleden.

Ik sprak laatst iemand van Micron, over hun nieuwe 3D NAND-fabriek, de tweede ter wereld en die de concurrentie met Samsung moet aangaan. Volgens hem was het een bewuste keuze geweest om Samsung de eer te geven de eerste te zijn met 3D-NAND. De fabriek anderhalf jaar eerder gereed hebben zou de kosten minstens verdrievoudigd hebben.
Vziw gaat Qualcomm volgend jaat server SoCs maken op een proces dat in naam 10nm is, dan kan je toch moeilijk beweren dat Moore voor hen dood is en productieprocessen te laat komen? Het 10nm van Samsung komt in de buurt van het 14nm proces van Intel, maar heeft waarschijnlijk minder strenge ontwerp-regels dan bij Intel, dus is flexibler. Het ziet er dus naar uit (ik weet het optimistische glazen bol en zo) dat Qualcomm "voor selecte toepassingen" kan concurreren met Intel's Xeon. Vooral omdat Qualcomm veel en veel beter is in het (3D?) integreren van onderdelen dan Intel.
Ik moet zeggen toen ik de wet van Moore moest leren (die was niet zo moeilijk het ezelsbruggetje was makkelijk gelegd). Dat ik niet meekreeg dat de transistors dichter op elkaar gingen staan, enkel dat deze verdubbelden. Dus jou punt exact.

[Reactie gewijzigd door Gopher op 15 augustus 2016 09:00]

Snelheid is wat anders dan aantal. ;) Moore's Law gaat over het aantal transistors, niet de snelheid ervan.
De wet is een observatie. Strict genomen was het inderdaad iedere 18 maanden dubbele hoeveelheid. Maar gezien de complexiteit die grotere chips (en de afstanden die daarbij horen), wil ik wel zeggen dat er ook een correlatie is met dichtheid.
In de letterlijke betekenis heb je gelijk, alleen zit er volgens mij een practisch probleempje aan een grotere chip. Bij een grotere chip wordt de kans op productie fouten is groter en dus zullen de chips duurder worden. Ik gok dat daarom bedrijven daarom de chips niet veel groter wil hebben.
Maar dat heeft weinig met de wet van Moore te maken, maar meer in een verkeerd beeld over de wet van Moore door de jaren heen en dus ook als zodanig uitgevoerd met het idee dat dat de manier is. Productiefouten halveren bij ervaring en als men zich meteen verdiept had in stapelen haalden wij allemaal het einde van deze zogenaamde wet niet.

En ja, nu begint het weer kostbaar te worden omdat er maar een kant op gevaren is.
Nee, het gaat mij om de yield die je kunt krijgen van een wafer, niet de menselijke fouten in een ontwerp: https://en.wikipedia.org/...ductor_device_fabrication stapelen kan helpen, maar weet niet zeker of dat dit effect te niet doet.
Inderdaad, het aantal componenten, het staat zelfs letterlijk in dat eerste grafiekje. Of heeft de wet van Moore in de loop der tijd een andere betekenis gekregen?
Ik denk dat ze de fout met "dense=<dichtheid" hebben gemaakt.
Schaamteloos gejat van een Tweakblog een tijdje geleden:
"Het aantal mensen dat beweert dat de wet van Moore niet meer geldt verdubbeld elk jaar"
Ik denk dat juist de groep mensen die er nog in geloven die wet overeind houden. Maar naar mijn idee worden de vraag en het aanbod in de computermarkt al jaren vervalst door alles monolitisch te houden en parallelisering (wat de prijzen kan vloeren) bewust niet te doen.

Als consument koop je nog steeds 1 PC of laptop, maar zou die niet goedkoper kunnen door de verschillende activiteiten te verdelen over meerdere relatief goedkope rekenkernen ipv 1 CPU die over een 2 jaar, waarschijnlijk icm een groot deel van de bijbehorende hardware is afgeschreven?

[Reactie gewijzigd door blorf op 15 augustus 2016 09:49]

Begrijp ik je goed dat je doelt op de modularisering van rekenkernen? Op zich vind ik dat wel een interessante gedachte, al staat ze wel haaks op de integratietrend die in dit verhaal naar boven komt.

Als ik erover nadenk heb je wel een punt. Hoe verder die integratie doorgevoerd raakt, hoe minder schaalbaar de oplossingen kunnen worden. Schiet een module die CPU, GPU, Cache en RAM vertegenwoordigd te kort dan rest je niets anders dan om het complete ding te vervangen. Parallel computing wordt al gedaan om goedkope xxx-core super computers te bouwen, er is zelfs al een Kickstarter project (parallella) die een 64 core exemplaar gemeengoed wil laten worden. Het laten interface van al die CPU-s loopt altijd wel tegen wat hobbels aan en lijkt me met wat ik opvang uit de media de grootste uitdaging. Niet geoptimaliseerd als huidige CPU's zijn voor samenwerking is die samenwerking dus ook het moeilijkst.

Naast dat je die architectuur in stukken moet gaan knippen is onderzoek naar een optimale samenwerking tussen cores nodig en hoe je een dergelijke interface uitbreidbaar kan maken. Maar zoals je al stelt, beweegt de industrie niet deze kant op, de wil lijkt er niet te zijn. Misschien, zoals Kickstarter ook bewijst, uit de open source hoek. De vraag blijft natuurlijk ook hoe toekomst zeker (...duurzaam...) een dergelijke interface is.
Eigenlijk ironisch dat het hele cloud-gebeuren nu de grond uit knalt. Dan kan het ineens wel, alleen niet individueel, thuis.
Er zitten al meerdere rekenkernen in je CPU, en die is al vervangbaar. Die weer gaan uitsplitsen in fysieke doosjes is juist veel duurder qua productiekosten. Enige klacht die je dan nog kan hebben is dat je soms het moederbord moet vervangen, maar ook dat is niet altijd waar (AMD heeft heel lang met een socket gedaan, bijvoorbeeld). De rest van de hardware hoef je al helemaal niet te vervangen als je daar geen behoefte aan hebt. Dus nee, het is geen groot complot om de prijzen kunstmatig hoog te houden.

Je koopt nu overigens ook al meerdere CPU's die onafhankelijk werken: die van je smartphone, smart TV, tablet, magnetron, DSL modem, auto, and so on and so forth... Het is nu al goed mogelijk dat je helemaal geen PC meer hoeft te kopen.
Je bedoeld dus van die processor kaarten die je in een pci expresslot kan plaatsen? Ik denk dat dat duurder is dan het huidige systeem.
Nee. Grof gezegd bedoel ik dat de industrie min of meer de hoeveelheid resources die nodig zijn voor een enkele activiteit beter kan beschouwen als het minimaal noodzakelijke waar een "computer-deel" in moet kunnen voorzien. Moeten er daarnaast nog meer dingen gedaan kunnen worden, dan kan dat met meer van hetzelfde ipv van die computer een enorme, nog meer geavanceerde, complexe en dure toren te maken die alles tegelijk aan kan. Dat is ongetwijfeld economisch interessanter maar als je het mij vraagt een enorme rem op de vooruitgang, en een duidelijke aanleiding om het "natuurlijk zijn" van die Wet van Moore in twijfel te trekken.

[Reactie gewijzigd door blorf op 15 augustus 2016 14:11]

"Het menselijke genoom is ongeveer 1TB groot en de snelle sequencing en analyse ervan kan levens redden." eh eh... Ligt er aan in wat voor een formaat je het opslaat, maar dan nog kom ik niet aan 1TB. Tenzij de context van de tekst anders had moeten zijn? Menselijk genoom is ~3 gigabasepairs (A,C,T,G). In tekst formaat zouden we ongeveer op 700 Mb komen. Sequencers poepen meestal in FASTQ formaat uit wat voor een menselijk genoom niet groter is dan 200 Gb formaat. Het is wel zo dat de sequencers veel meer dan dat generen en waar de rekenkracht dus wel voor nodig is. Met name ingewikkelde (en vele mater groter) genomen van bijv. planten hebben baat bij meer rekenkracht.
Het klopt dat de sequencer output tegenwoordig nog in FASTQ gebeurt (helaas), al wordt er gelukkig wel gebruik gemaakt van gzip. Desalniettemin is het opslaan van genome-wide FASTQs een ramp als je grote sample size hebt. Gelukkig wordt er gewerkt aan binaire opslagformaten voor sequence reads, dus hopelijk gaat die beperking binnenkort de deur uit.

Wat betreft rekenkracht: ik denk niet dat dit met name van belang is voor planten. Ondanks dat je ziet dat de aligners ook steeds sneller en efficienter worden (CLUSTAL->BLAST->BWT), ligt de toekomst ligt denk ik echter in graph-based alignment, waar je met een graph bepaalt wat de kans is dat een sequenceread ergens aligned. Dit is vooral van belang voor repeat-regio's en regio's met meerdere haplotypes (zoals het MHC/HLA in de mens). Daarnaast wil je in de mens (omdat het een outbred populatie is), zoveel mogelijk mensen sequencen om te kijken of de variant die je observeert niet gewoon 'achtergrondvariatie' is (al kom je met families ook al een heel eind).

Echter, misschien wordt het met toekomstige sequencing technieken (zoals technieken met reads > 1,000bp) helemaal geen probleem meer om veel individuen genoom-wijd te sequencen. Misschien kun je tegen die tijd wel met minder opslag en rekenkracht toe. De huidige techniek voelt voor mij toch een beetje als een onnodige verspilling van computeropslag en tijd.
Ik ben het niet zo eens met het anti-FASTQ sentiment dat hier klinkt. FASTQ files zijn over het algemeen behoorlijk goed te comprimeren met bijvoorbeeld gzip. Het kan zeker efficiënter met een binary formaat, maar een text-based formaat is voor velen makkelijker tegenaan te scripten en gzip is er altijd - je hebt geen bio-informaticatoolbox nodig om die bestanden te openen. En sowieso zijn de kosten van storage peanuts vergeleken met de kosten van het inrichten van het laboratorium dat je nodig hebt om die FASTQ files te maken. Voor long-term storage (ook wel de data graveyard genoemd, want iedereen weet dat je de data op de long-term storage eigenlijk toch nooit meer bekijkt) is omzetten naar een efficiënt binair formaat wellicht nog een te verdedigen strategie. Voor data die vers uit de sequencer komt en dus nog door allerlei tooltjes geanalyseerd moet worden is het alleen maar onhandig IMHO.
Echter, misschien wordt het met toekomstige sequencing technieken (zoals technieken met reads > 1,000bp)
Toekomstige technieken? The future is now, we hebben al een aantal jaren de SMRT Sequencing technologie van PacBio als je écht lange sequenties nodig hebt (makkelijk meer dan >10kbp). Nadeel van dat spul is wel dat het wat foutgevoeliger is en dat het dure en grote apparaten zijn (al wordt dat wel wat beter).

Het is nog even wachten op de heilige graal om foutloos absurd lange reads te genereren. Volgens het 'Cost per human genome' plaatje in het artikel zitten we inmiddels al een aantal jaar weer op "Moore's Law-niveau" waar de ontwikkeling de jaren daarvoor toch echt bizar snel ging. Voorlopig is het qua technieken nog kiezen tussen veel lange reads met relatief veel fouten, of heel veel korte reads die met een hoop gepuzzel aan elkaar geplakt moeten worden.

[Reactie gewijzigd door Jerrythafast op 15 augustus 2016 23:05]

Ik zie niet waarom het makkelijker is om tegen een gzipped text-based format te scripten dan tegen een binair formaat. Zo is de output van aligners vaak in een binair formaat, en kun je met bijvoorbeeld samtools (of CRAM) prima dingen doen met de resulterende alignments.

Bedankt voor de nuance omtrent de long-read technieken. Ik ben me wel bewust van technieken als PacBio en nanopore, maar ik zie niet dat die technieken tegenwoordig op grote schaal worden gebruikt om hele genomen te sequencen, om de redenen die jij noemt. Waar ik het wel toegepast zie worden is voor specifieke moeilijk mapbare regios zoals HLA-sequencing of het sequencen van andere gebieden met veel SNPs of repeats. Mogelijk/hopelijk verandert dat in de toekomst.

Een van de redenen dat de 'Cost per human genome' op het moment niet meer snel naar beneden gaat is overigens dat Illumina bijna de volledige markt in handen heeft. Ze kunnen de prijs in stand houden omdat er eigenlijk geen redelijk alternatief is voor whole genome sequencing op het moment.
Hier zat ik laatst aan te denken, hoe groot is mijn dna fingerprint eigenlijk?
Als het maar 700 MB is, is het wel interessant om dat op een usb op te slaan, zodat over 1000 jaar ik gekloond kan worden.
En als je alle gelijke DNA tussen mensen onderling efficient kan dedupliceren dan is de opslag misschien nog kleiner?
"fingerprint" is net bepaalde stukjes uitzoeken die in combinatie vaak uniek zijn, maar niet 100%. Een fingerprint kan 50 stukjes zijn die genoeg zijn om het verschil tussen jouw en je broer te bewijzen.

Overigens is DNA nooit voldoende om "jouw" te klonen, daar is veel meer voor nodig die we niet zomaar kunnen uitlezen. (omgevingsfactoren)
Wil de rest van de wereld ook dat jij gekloond wordt :P? Konden we maar zo goed het DNA van iemand aflezen, helaas zijn de technieken van vandaag nog niet goed genoeg. Er zitten nog een hoop onopgeloste gaten in ons (referentie) genoom en het in elkaar puzzelen van een individu (zonder referentie) is verre van perfect. Maar we komen er wel, de sequencers, rekenkracht en algoritmes worden steeds beter.
geven jullie elkaar nu een plus een voor deze reacties ~?!

los daarvan, leuk artikel, al vraag ik me als asml'er af of de bewering omtrent het insertionpoint voor euv wel helemaal in het juiste verband staat.
euv is dan technisch wellicht later nodig dan eerder aangenomen, daar zitten echter de nodige economische drijvende krachten achter die hier onderbelicht zijn en wel degelijk ook met Moore van doen hebben.
EUV... onderbelicht... _/-\o_
yep, plus veel als ik mocht plussen. Die is leuk ;)
Mijn complimenten over dit stukje. :) Geweldig.
idd, veel negatieve reacties, maar ik ben blij met een goed samengevatte en actuale blik op een interessant onderwerp. dank
kom op man, om de zo veel jaar wordt weer een vraagteken gezet bij de Wet van Moore

krijg ieder keer weer een dejavu . kom met iets nieuws
Het is juist interessant om af en toe de wet tegen de praktijk te testen. Dit doe je dus meerdere keren door de tijd heen aangezien tijd is wat de juistheid v/d wet wel of niet bewijst.
Lekker op tijd opstaan: Check, Koffie: Check, Fijn stuk leesvoer in de ochtend: Check. ;)
Vakantie afgelopen: Check. ;(

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True