Wat is een supercomputer eigenlijk, hoe wordt zo’n ding gebouwd, waarom heb je tienduizenden processors, terabytes geheugen en exabytes dataopslag nodig, waarom kan het IBM, Cray of Fujitsu iets schelen wie de snelste heeft, en wat kun je met zo'n ding, behalve met een miljoen spelers patience spelen?
Twee keer per jaar brengt het Top500-project zijn lijst met krachtigste supercomputers uit, gerangschikt naar hun Linpack-score. In het begin van de zomer valt de publicatie van de lijst samen met de International Supercomputing Conference, en in het najaar wordt een bijgewerkte lijst gepubliceerd tijdens de Supercomputing of SC Conference. De meeste supercomputers staan op die lijst, niet in de laatste plaats omdat het een prestigieuze prestatie is om de lijst aan te voeren, aangezien de Top500 al sinds 1993 wordt bijgehouden.
Toch staan niet alle krachtige computersystemen op de lijst, omdat sommige organisaties menen dat de gebruikte benchmark om de positie op de lijst vast te stellen geen goede reflectie van de daadwerkelijke prestaties is. Wat dan wel een goede graadmeter is, wordt in het midden gelaten. Gelukkig wordt de lijst al 25 jaar gevuld met de imposantste systemen, die we supercomputers noemen.
In dit achtergrondverhaal duiken we in de wereld van systemen met duizenden processors, rijen acceleratorkaarten, terabytes geheugen en kilometers glasvezel om dat allemaal met elkaar te verbinden.
De Top500-lijst wordt al vijfentwintig jaar bijgehouden, waarbij de supercomputers worden gerangschikt op hun Linpack-score. Wat is Linpack en waarom wordt het al zo lang gebruikt, terwijl andere benchmarks vaak een veel korter leven is beschoren?
Linpack werd in 1979 ontwikkeld om te rekenen aan lineaire algebra, waarbij het programma gebruikmaakt van BLAS-libraries, de standaard bouwstenen voor Basis Linear Algebra Subprograms. Het laat zich uitstekend schalen van oude en kleine systemen naar grote, moderne supercomputers. Linpack is geschreven in Fortran, een programmeertaal die door IBM in 1957 werd ontwikkeld. De naam Fortran is een samentrekking van Formula Translation en de programmeertaal wordt nog altijd veel gebruikt voor supercomputers.
Voor de Top500-benchmark wordt Linpack nog steeds gebruikt, omdat het enerzijds goed schaalt, getuige het jarenlange gebruik van de benchmark, en anderzijds een simpel getal oplevert waarmee de rekenkracht kan worden beoordeeld. Er zijn echter ook tegenstanders van Linpack als supercomputerbenchmark. Het zou niet representatief zijn voor het soort berekeningen dat supercomputers daadwerkelijk uitvoeren en daarom een slechte indicatie zijn voor de praktische rekenkracht. Desalniettemin zal Linpack ongetwijfeld nog een tijdje de benchmark voor supercomputers blijven, maar bedenk dat lang niet elke supercomputer aan de benchmark wordt onderworpen en de resultaten slechts een indicatie zijn.
Supercomputers in de Top500-lijst worden op hun Linpack-score gerangschikt met behulp van een Rmax-score; dat is de maximale Linpack-score die het systeem heeft gehaald. Daarnaast wordt een theoretische maximumscore, de Rpeak-score, gegeven. Beide scores worden gegeven in flops, ofwel floating point operations per seconde, voorafgegaan door een voorvoegsel om het getal werkbaar te houden. De eerste supercomputers scoorden in de ordegrootte van megaflops, maar dat groeide via gigaflops en teraflops tot de huidige petaflops. Bij elke stap, van mega naar giga, tera, peta en voor toekomstige supercomputers exa, zetta en yotta, komen er drie nullen voor de flops bij. Een petaflopscomputer is dus duizend keer zo krachtig als een teraflopscomputer. Moderne desktopprocessors leveren eerder zo'n 50 Gflops per core in double precision en, om de vergelijking met de GPU kloppend te maken, zo'n 100 Gflops per core in single precision.
Een korte geschiedenis
We kunnen natuurlijk niets over supercomputers schrijven zonder de grootvader van supercomputers te noemen: Cray. In 1964 ontwikkelde Cray de CDC 6600. Dit was een van de eerste computers met een snellere silicium- in plaats van germanium-cpu, en aparte subprocessors om het geheugen aan te spreken. Dat betekende dat de cpu geen tijdrovende taken als geheugentoegang hoefde te regelen, waardoor deze zich kon concentreren op de rekeninstructies, die daardoor veel sneller dan bij concurrenten werden uitgevoerd. Omdat de enkele Cray een keer of tien keer zo snel was als vergelijkbare systemen uit die tijd, werd het systeem een supercomputer genoemd.
Cray maakte enkele jaren jaren later, in 1972, de iconische Cray 1, een supercomputer in de vorm van een centrale paal met rondom banken met daarin de onderdelen. De Cray 1 groeide uit tot een van ’s werelds succesvolste supercomputers; er werden er zo'n tachtig verkocht. Cray had concurrentie van de Illiac IV, een supercomputer van de universiteit van Illinois. Oorspronkelijk was die supercomputer ontworpen om vier keer zo groot te zijn, maar alsnog bleken de 64 fpu's en enkele cpu in plaats van vier kwadranten goed voor 200 megaflops aan rekenkracht. De Cray 1 daarentegen had een rekenkracht van ongeveer 160 megaflops. Hoewel de Illiac nooit werd afgebouwd en een beetje als mislukt project werd beschouwd, baande hij de weg voor supercomputers met veel parallelle rekenkracht, met veel processors die tegelijk aan kleine subtaken werken in plaats van de oude vectormethode, waarbij een snelle processor aan een monolithisch probleem werkt.
Weer enkele jaren later, in 1985, maakte Cray de Cray 2, een supercomputer met acht processors en vloeistofkoeling. De Cray 2 beschikte over een rekenkracht van 1,9 gigaflops, terwijl de snelste supercomputer van die periode 2,4 gigaflops haalde. Rond die tijd, al in 1982, werd ook een supercomputer met een groot aantal processors gebouwd: de Japanse Links 1 beschikte over maar liefst 514 processors en in 1984 werd dit 's werelds krachtigste supercomputer. Dat luidde een jarenlange Japanse dominantie in de supercomputerwereld in en een trend naar de parallelle supercomputers zoals we die nu kennen.
Sinds de jaren negentig groeit het aantal processors, maar groeien ook de hoeveelheid geheugen en opslag gestaag. De bekende Blue Gene-supercomputers van IBM konden met tienduizenden processors overweg. Traditioneel wedijverden de Verenigde Staten en Japan met elkaar om de krachtigste supercomputer in de Top500-lijst te krijgen, maar sinds halverwege de jaren 2000 maakten Chinese supercomputers een snelle opmars.
Wat is een supercomputer?
Supercomputers zijn in de loop van de jaren geëvolueerd van snelle vectorcomputers tot enorm complexe, parallelle systemen. Waar eerst een enkele processor voldeed, zijn dat inmiddels complete gebouwen vol serverracks. Inmiddels worden supercomputers namelijk met vele duizenden processors gebouwd, vaak ook nog met een groot aantal accelleratorkaarten, terabytes aan geheugen en petabytes aan opslag.
Tegenwoordig worden supercomputers meestal opgebouwd uit nodes, ofwel kleine subeenheden, waarvan vaak duizenden identieke exemplaren worden gebruikt. Een node kan bijvoorbeeld een klein moederbord met twee Xeon-processors zijn, met 512 gigabyte aan lokaal werkgeheugen en wat lokale opslag. Die nodes kunnen dan worden georganiseerd in clusters, die op hun beurt kunnen worden onderverdeeld in cpu-clusters en clusters met accelleratorkaarten. Steeds vaker bestaan supercomputers namelijk niet alleen meer uit processors, maar ook uit rekken vol accelleratorkaarten, zoals videokaarten of speciale asics voor machinelearning. Er zijn ook storageclusters, waar data wordt opgeslagen op bijvoorbeeld ssd's.
Hoeveel processors en videokaarten of andere accellerators je ook in een supercomputer gebruikt, je hebt er weinig aan als al die rekenkracht op data zit te wachten. Dat was al in de jaren zeventig een van de grootste uitdagingen bij de bouw van supercomputers en is dat nu nog steeds: de onderlinge communicatie tussen de bouwstenen. Data komt voornamelijk van de terabytes aan werkgeheugen waarover elk stukje van een supercomputer beschikt, en natuurlijk moet ook data tussen processors worden uitgewisseld.
De prestaties van supercomputers staan of vallen daarom met de interconnects tussen de nodes en clusters. Bits moeten snel genoeg aan de processors of andere onderdelen worden aangeleverd, zodat de rekenkracht optimaal kan worden benut. Dat is de taak van de interconnect, waarbij InfiniBand de meestgebruikte is, maar ook Intels Omni-Path- en Nvidia's NVLink-technologie, en natuurlijk standaarden als ethernet en Fibre Channel worden ingezet.
Om een indruk te geven van de complexiteit van supercomputers, vergelijken we de snelste computer uit de Top500 van 25 jaar geleden met de nieuwste aanvoerder van de lijst. Bij de eerste versie van de Top500 in 1993 was de Numerical Wind Tunnel-supercomputer van Fujitsu de snelste, met een rekencapaciteit van 124,5 gigaflops. De vectorsupercomputer bestond uit 140 vectorprocessors met elk 256MB geheugen. Een latere versie kreeg 166 vectorprocessors en verhoogde de rekenkracht tot 170 gigaflops.
Zetten we daar de snelste supercomputer van de nieuwste Top500-lijst uit juli 2018 tegenover, de Summit van het Amerikaanse Oak Ridge National Laboratory, dan is de rekenkracht ruim een miljoen keer zo groot als die van de NWT, namelijk 200 petaflops. Het knapste is dat de Summit dat doet met 'slechts' 4608 nodes, ieder met twee IBM Power9-processors, zes Nvidia V100-grafische kaarten en 512 gigabyte geheugen. Alle nodes zijn met InfiniBand met elkaar verbonden, terwijl de processors en gpu's binnen de node via NVLink met elkaar zijn verbonden. Summit verstookt in zijn huidige configuratie ongeveer 9 megawatt, maar heeft een piekvermogen van 15 megawatt.
Zuiniger
Dat vermogen lijkt extreem veel, en vergeleken met een desktop-pc is dat ook zo, maar toch is de laatste jaren een trend zichtbaar waarin supercomputers steeds zuiniger worden. Zo verstookte de vorige nummer één, de Chinese TaihuLight, ook 15 megawatt, maar haalde hij 'slechts' een snelheid van 93 petaflops, minder dan de helft van Summit dus. En de snelste daarvoor, Tianhe-2, vroeg 24 megawatt voor een rekenkracht van 34 petaflops.
Oudere supercomputers waren over het algemeen wat zuiniger, maar ook een stuk minder krachtig. Daarom wordt sinds 2013, zo'n vijf jaar dus, de Green500 bijgehouden. In die lijst worden supercomputers niet gerangschikt naar absolute rekenkracht, maar naar rekenkracht per watt. Op het moment van schrijven scoren de zuinigste supercomputers in de orde van 10 tot 20 gigaflops per watt, een flinke verbetering ten opzichte van slechts vijf jaar geleden, toen de toptiensupercomputers nog 2 à 3 gigaflops per watt haalden.
Een groot deel van het verschil in prestaties, en daarmee de prestaties per watt, is te danken aan de opmars van accelleratorkaarten in supercomputers. Gpu's bijvoorbeeld kunnen extreem veel rekenkracht in een insteekkaart kwijt. Een moderne Xeon-processor biedt in de orde van maximaal 1 teraflops rekenkracht, terwijl een accelleratorkaart als Nvidia's Tesla-kaarten richting 15 teraflops gaat. Xeons en gpu's schelen wat tdp's betreft ongeveer een factor twee, van ongeveer 100 naar 200 watt, maar de gpu's bieden wel ruim tien keer de prestaties van cpu's.
Zo'n vergelijking tussen cpu's en gpu's is niet heel eerlijk, want de inzetbaarheid van gpu's is, pogingen rond general purpose gpu-computing ten spijt, een stuk beperkter dan die van cpu's. Bij bepaalde workloads, waaronder Linpack, komen systemen met een vracht gpu's goed uit de verf, maar het is maar de vraag of ze bij daadwerkelijk nuttige workloads altijd evenveel kunnen bijdragen. Dat is ook een reden voor sommige instanties om hun supercomputer niet in de Top500-lijst te laten meedingen, naast de wens van dergelijke organisaties om de details rond hun systemen geheim te houden.
Zelfs vroege supercomputers konden hun warmte maar moeilijk kwijt. De eerder genoemde Cray-2 uit 1985 moest al niet zoals de Cray-1 simpelweg met vloeistof worden gekoeld, maar werd ondergedompeld in Fluorinert, een niet-geleidende vloeistof die de acht processors en overige componenten tegen oververhitting beschermde. Met steeds meer compacte elementen in een behuizing is de warmteproductie van supercomputers een flinke uitdaging. Een van de weinige methodes om veel warmte snel weg te voeren uit een beperkte ruimte is dan ook waterkoeling; luchtkoeling is voor de meeste supercomputers niet toereikend.
De warmteproductie beperkt in de praktijk de theoretische rekenkracht van een supercomputer. Er kan immers veel sneller energie in het systeem worden gebracht via elektriciteit over koper dan dat water of een andere vorm van koeling die energie weer kan afvoeren. Daarbij komt nog een ander aspect om de hoek kijken: de kosten. Hoe groter een supercomputer is, hoe uitgebreider de secundaire systemen ervoor moeten worden gedimensioneerd. De koeling en energievoorziening nemen een flink deel in beslag van de ruimte die voor een supercomputer moet worden gereserveerd, en de koeling zelf vergt ook weer stroom, gemiddeld zo’n tien procent van het totale opgenomen vermogen.
De aanschaf is dus lang niet de enige kostenpost van een supercomputer. Naast mensen die het systeem moeten onderhouden en bedienen, zijn ook de stroomkosten niet triviaal. Een supercomputer als Summit, met een vermogen van 9 tot 15 megawatt, vergt alleen al miljoenen dollars aan stroomkosten. Zelfs als we met een sterk gereduceerd tarief van tien eurocent per kilowattuur en een vermogen van 10 megawatt rekenen, kost een uurtje rekenen met Summit al gauw duizend euro. Op jaarbasis zou dat bijna negen miljoen zijn.
Het nut van een supercomputer
We hebben het inmiddels over de geschiedenis, de opbouw en het verbruik van supercomputers gehad, maar de hamvraag hebben we tot dusver nog niet beantwoord: wat moet je met een supercomputer? Wat is er mis met een gewone computer en een beetje geduld?
Om die vraag te beantwoorden moeten we eerst weer een stukje de geschiedenis in. De eerste supercomputers werden namelijk niet voor mooie doeleinden als medicijnonderzoek ontwikkeld, maar zoals zoveel technologische vooruitgang werden ook supercomputers voor militaire doeleinden ontwikkeld. Voor de jaren zestig werden supercomputers namelijk vooral gebruikt om nucleaire explosies te modelleren en om de baan van ballistische raketten te berekenen. De eerste computer, de Eniac uit 1945, werd bijvoorbeeld gebruikt voor ballistische berekeningen en berekeningen aan nucleaire bommen.
In de jaren vijftig werden diverse computers, zoals de SEAC, Maniac en Oracle, gebouwd voor kernwapenfabrikanten. Ook werden in die tijd supercomputers ontwikkeld voor cryptografie, zoals de IBM 701 en de ERA 1103. De Amerikaanse inlichtingendienst NSA en het Department of Defense droegen de meeste kosten voor de ontwikkeling van supercomputers in Amerika tot de jaren zestig. Behalve voor ballistische berekeningen werden militaire supercomputers onder meer gebruikt voor fast fouriertransformaties om radar- en geluidssignalen te verwerken. Ook rekenen aan weermodellen was, en is nog steeds, een belangrijk toepassingsgebied van supercomputers.
Pas met de komst van geïntegreerde microprocessors werd het voor een breder publiek aantrekkelijk en haalbaar om te investeren in supercomputers. Samen met een overstap van gespecialiseerde software en besturingssystemen naar Unix en standaarden, werden supercomputers steeds meer commercieel gebruikt en groeide parallellisme in de supercomputerwereld. Daarmee werden gespecialiseerde vectorsupercomputers langzaam vervangen door parallelle, op standaard microprocessors gebaseerde systemen.
Tegenwoordig worden supercomputers, dankzij hun brede inzetbaarheid door de veelzijdigheid van Linux, en de beschikbare software en tools, voor diverse doeleinden ingezet. Nog steeds is een belangrijk deel van het werkgebied het domein van defensie, bijvoorbeeld voor simulaties voor nucleair onderzoek, maar ook voor het weer en andere berekeningen aan grote datasets worden supercomputers ingezet. Voor commerciële doeleinden worden ze gebruikt om marktontwikkelingen op aandelenbeurzen te voorspellen, en de olie- en gasindustrie maakt gebruik van supercomputers om bodemmetingen te analyseren en de beste plaatsen voor winning te bepalen.
In de wetenschap zijn supercomputers inmiddels onmisbaar geworden. Ze worden gebruikt om complexe simulaties uit te voeren, voor disciplines van materiaalwetenschap tot geneeskunde en astronomie. Zo kan bijvoorbeeld gezocht worden naar materialen met specifieke eigenschappen, waarbij een simulatie kan helpen om het effect van legeringen vooraf te bepalen zonder dat het materiaal daadwerkelijk eerst moet worden gesynthetiseerd. Dat bespaart geld en tijd, want zo kunnen de meestbelovende materialen uit een simulatie direct worden gemaakt.
Een van de meest complexe systemen om te simuleren is het weer of het klimaat, en ook daarvoor worden dus supercomputers ingezet. En voor simulaties van het vroege universum, of voor botsingen van sterrenstelsels of asteroïden die op hemellichamen inslaan, zoeken wetenschappers altijd naar krachtigere supercomputers om in meer detail simulaties te maken. Ook in de geneeskunde kunnen supercomputers worden ingezet, bijvoorbeeld om interacties van complexe moleculen te simuleren en zo te zoeken naar een geneesmiddel. Vooral eiwitten vormen zeer complexe structuren en hun gedrag en interacties zijn vooraf lastig te voorspellen. Met supercomputers kunnen dergelijke moleculen worden gesimuleerd en kan hun effect op bijvoorbeeld kankercellen worden getest.
De simulatie van hersenen, of meer algemeen, hersenweefsel, is misschien een van de aansprekendste voorbeelden. Vooralsnog zijn dergelijke neurowetenschappelijke simulaties beperkt gebleven tot kleine gebieden van hersenen of de neuronen van eenvoudigere modeldieren. Onlangs hebben onderzoekers echter een algoritme ontwikkeld waarmee de simulatie van een volledig menselijk brein realistisch wordt. De huidige supercomputers zijn nog altijd niet krachtig genoeg, maar met het nieuwe algoritme en de komende exascale-supercomputers moet het mogelijk worden een brein te simuleren.
Tot slot: waar gaan we heen?
We haalden het net al even aan: het buzzword voor supercomputers van de jaren twintig wordt: ‘exascale’. We zitten nu nog in de petascaleperiode; de snelste supercomputers hebben een rekenkracht van enkele honderden petaflops, maar de groei in rekenkracht gaat gestaag door. Met exascale-supercomputers, met een rekenkracht van een miljard maal een miljard berekeningen per seconde, oftewel 10^18 flops, zouden hersenen gesimuleerd kunnen worden, en zouden we nog beter het weer en het klimaat kunnen voorspellen.
De groei in rekenkracht van de Top500-supercomputers is echter in de laatste jaren wat aan het afvlakken. Dat is niet omdat computers niet krachtiger kunnen worden, maar vooral een gevolg van de honger naar energie en de daarmee gepaard gaande koelingseisen. We kunnen nodes blijven toevoegen aan een systeem, maar als de energiebehoefte de koelcapaciteit van een gebouw overschrijdt, heeft dat weinig zin. Daarom wordt gezocht naar manieren om supercomputers zuiniger te maken en tegelijk de capaciteit minstens gelijk te houden of te vergroten. Dat heeft geleid tot de Green500, de lijst met de zuinigste supercomputers op basis van rekenkracht per watt.
Als we de Top500-lijst erbij pakken, zitten supercomputers sinds 2016 op een plateaucapaciteit van ongeveer 100 petaflops, maar als de geschiedenis zich herhaalt, wordt dat weer doorbroken. De lijst laat namelijk steeds periodes van weinig groei zien, met elke twee jaar sprongen in rekencapaciteit, die waarschijnlijk deels aan architecturele verbeteringen van processors zijn te danken. Volgens die redenatie zijn exascale-supercomputers rond 2022 pas te verwachten, terwijl de industrie eerder had gerekend op 2020.
Desalniettemin heeft China plannen om in 2020 een exascalesysteem online te krijgen en in het Europese Human Brain Project werken onderzoekers samen om een brein te simuleren. Ook de Verenigde Staten, Japan en Taiwan werken aan exascalecomputers. De stap na exascale, waarbij computers over zettaflops kunnen beschikken, zou het mogelijk maken om het weer wereldwijd accuraat te voorspellen, tot twee weken van tevoren. Weer een factor duizend, op de yottascale, zou nodig zijn om de hersenen van alle mensen te simuleren.
Voorlopig moet echter eerst de exascalebarrière worden doorbroken en wordt gezocht naar manieren om computers efficiënter te laten werken. Dat kan enerzijds met conventionele supercomputertechnieken als grote clusters processors en videokaarten, maar we zien ook steeds meer zuinige architecturen als ARM gebruikt worden. In de toekomst zouden wellicht andere computersystemen, die niet van de Von Neumann-architectuur gebruikmaken, zoals quantumcomputers of neuromorfe computers, de Top500-lijsten kunnen aanvoeren. Of die computers zinnige Linpack-resultaten kunnen neerzetten, is echter twijfelachtig. Misschien hebben we dan na decennia een nieuwe benchmark voor de grootste en meest complexe computers die we hebben.
De uitdagingen voor exascale supercomputers zitten niet alleen aan de hardware kant, maar misschien nog wel meer aan de software kant.
Niet alleen krijg je al snel te maken met Amdahl's law (kort uitgelegd: als je code 95% van de tijd perfect paralel schaalt, is de maximale versnelling nog steeds maar 20x, ongeacht hoeveel hardware je er tegenaan gooit, doordat het seriele deel overblijft), maar een andere grote horde is "fault tolerance". Hierbij moet je software rekening houden met het feit dat hardware een probleem tegen kan komen en daardoor uitvalt, zonder dat dit de berekening (die soms wel dagen tot weken kan duren) stopt of beïnvloed. De kans op uitval is simpel uit te drukken als "tijd" x "hoeveelheid hardware in gebruik" x "betrouwbaarheid vd hardware", en hierdoor krijgt een berekening van een aantal dagen op duizenden nodes (met meerdere CPUs en GPUs per node)
dus al snel met hardware failure te maken. Dit is een complex probleem (met een aantal oplossingen), wat er voor zorgt dat veel software vanaf de kern anders opgezet moet worden.
Een andere uitdaging is dat software tegenwoordig veel meer hardware moet ondersteunen. Vroeger werd software vaak speciaal geschreven voor één specifiek wetenschappelijk vraagstuk op één specifieke supercomputer, terwijl we tegenwoordig verwachten dat software portable is. "Waarom draait jullie software alleen op CPUs met NVidia Tesla, en niet op Geforce of AMD kaarten? En waarom niet op Xeon Phi?" zijn veel gestelde vragen. De realiteit is helaas dat voor elk type hardware nog steeds redelijk apart geoptimalizeerd moet worden, en de code die hiervoor geschreven wordt vaak niet te recyclen is.
[Reactie gewijzigd door rlKoekie op 22 juli 2024 20:25]
De Wet van Amdahl zie ik niet als een groot obstakel, omdat de programmeerproblemen die op supercomputers berekend worden, vaak inherent parallel zijn: Als je chemische simulaties doet, kun je de moleculen rustig over de beschikbare processoren verdelen, alles kan in beginsel parallel, alleen voor de interacties heb je communicatie nodig. Zelfde effect als je een botsproef simuleert: In eindige elementenanalyse kun je elementen rustig over je processoren verdelen, er zit geen volgorde in. Simuleer je een sterrenstelsel, zelfde effect: Reken aan alle sterren parallel.
DIt is een heel andere situaties dan bij wat we doen op onze desktops: Compileer je bijvoorbeeld een Linuxkernel dan kun je verschillende bestanden tegelijk compileren, maar omdat er afhankelijkheden zitten, moet het één toch op het ander wachten: Amdahl eist zijn tol.
Min of meer is het zo, dat op het moment dat je kunt schalen naar 2000 processoren, alle algoritmen die last hebben van Amdahl er grotendeels al zijn uitgevallen en wat dan nog over is, vaak ook wel in beginsel doorgeschaald kan worden naar 20000 processoren. Dat geeft nog grote uitdagingen, maar vaak eerder op het gebied van voldoende snelle communicatie tussen de processoren dan dat Amdahl een limiet aan parallelisering geeft.
[Reactie gewijzigd door dmantione op 22 juli 2024 20:25]
Wat jij stelt over het gebruik van supercomputers is niet juist. Veel toepassingen waarmee gewerkt wordt vereisen dat een groot lineair stelsel algebraische vergelijkingen impliciet moeten worden opgelost op een zeer groot rekenrooster. (Dit volgt ook uit bijvoorbeeld een eindige elementen discretisatie voor de airbag fabrics. Wat je zegt dat deze “embarrassingly parallel” kunnen worden opgelost is niet correct.) Hiervoor zijn paralllelle solvers voor nodig, zoals gebruikelijk Krylov-Schwarz (geconjugeerde gradienten) met een of andere multi-level preconditioning. Niet schaalbare componenten als communicatie overhead door load imbalance, of coarse-grid oplossingen, spelen hierin een belangrijke rol.
Je bevestigt min of meer wat ik zeg: Communicatieoverhead en imbalans zijn inderdaad factoren die de schaalbaarheid beïnvloeden. Hoe groter je cluster, hoe meer die componenten je schaalbaarheid gaan bepalen. Maar dat is wat anders dan de Wet van Amdahl. De Wet van Amdahl zegt dat er in een programma zaken zitten die na elkaar uitgevoerd moeten worden en dat er daarmee een grens in de mate waarin je kunt paralleliseren.
Even goed opletten: Ik zeg dus niet dat een programma dat op een supercomputer draait noodzakelijk "embarassingly" parallel is, maar wel dat het een algoritme is waarin weinig seriële componenten zitten die na elkaar moeten uitgevoerd worden. Programma's waarbij dat wel het geval is, die lukt het vaak al niet om de 2000 processoren te halen. Gegeven dat de 2000 processoren gehaald worden, dan is het algoritme op zich vaak geschikt om veel verder te paralleliseren, zij het dat dat kunstje op zichzelf nog best wel wat zweetdruppels kan vereisen om het klaar te spelen.
In geval van de Wet van Amdahl bereik je op een bepaald moment een theoretische bovengrens. Dat is net iets anders dan dat het moeite kost.
Linpack op zich is een lineair stelsel en schaalt na meerdere decennia nog altijd, zij het dat er steeds gevanceerdere hogesnelheidsnetwerken voor nodig zijn.
Ik denk niet dat er zoveel waarde gehecht moet worden aan Ahmdahl. In de praktijk is het (althans voor impliciete numerieke codes) niet zo zwart/wit. Dominant zijn doorgaans stukken code die slecht (vanuit algoritmisch oogpunt) parallelliseerbaar zijn bij toenemende aantal (MPI) processen, door toenemende load of communicatie. Meestal spelen ook meer praktische zaken een rol zoals I/O (bandbreedtes), cache gebruik (bijvb. super lineaire schaling omdat op een gegeven moment het probleem lekker in de cache past), of niet-schaalbare lineare solver iteraties.
Qua numerieke solvers is HPCG van linpack niet echt de standaard hoor, omdat dit een stand alone (test)programma betreft, maar wordt er naast native code vaak libraries gebruikt zoals PetSc (https://www.mcs.anl.gov/petsc/) of Hypre (https://computation.llnl....solvers-multigrid-methods). Natuurlijk heb je voor deze solvers een snelle switch nodig met een lage latency en hoge bandbreedte (Infiniband, Myrinet), maar daarmee ben je er nog niet. Zaken als convergentie voor een groot aantal cores en een geschikte matrix preconditionering (die zo goed en goedkoop mogelijk de inverse van A benadert) zijn zeker net zo belangrijk voor speedups.
Het zal inderdaad en ik kan het me best goed indenken dat een wiskundige hier met deze soort computers een leuk hobby heeft.
Maar ik wist niet dat die dingen zo duur zouden zijn, en je kan net zoals in de tekst staat niet zomaar meer racks plaatsen zodat je meer rekenkracht hebt, het vreet allemaal geheugen en stroom dat moet inderdaad ook betaald worden, het zijn allemaal dingen waar je niet zo snel bij stilstaat maar wel reëel aanwezig is. Ik ben zelf nog nooit in contact geweest met een supercomputer, maar weet tevens ook niet dat dat ding zo reten duur is om hem te gebruiken. Het zal wel heel erge complexe berekeningen zijn als dat ding zolang doet om een grote som uit te rekenen, wat dus de hoofdtaak is van de processor
en sommige duren videokaarten.Al met al een best leuk artikel.
Wiskundigen rekenen ook, maar de meeste CPU cycles worden opgegeten door natuurkundigen en scheikundigen (toegepaste wiskunde). Hierbij moet je in het geval van scheikunde (computational chemistry / quantum chemistry) denken aan zaken als medicijn ontwikkeling (eiwit vouwen / en de interactie tussen mogelijke medicijnen en de actieve zones in een eiwit in kaart brengen), nieuwe materialen ontwikkelen en optimalizeren (denk aan OLEDs die stabieler zijn / hogere efficientie hebben, of aan zonnecellen en halfgeleider materialen), of energieproblemen oplossen (waterstof opslag, accutechnieken verbeteren). Er zijn nog vele andere voorbeelden te verzinnen natuurlijk. Wat bijna al dit soort problemen gemeen hebben is dat ze niet lineair schalen (een 2x groter molecuul uitrekenen kost niet 2x zoveel rekenkracht, maar heel veel meer). Het zelfde probleem zit hem in de genoemde simulatie van een brein.
Wetenschappelijk werk lijkt soms op een hobby, maar het is toch echt niet alleen maar voor de leuk
Wat bijna al dit soort problemen gemeen hebben is dat ze niet lineair schalen (een 2x groter molecuul uitrekenen kost niet 2x zoveel rekenkracht, maar heel veel meer).
Klopt, omdat er niet alleen tweevoudige interacties zijn (tussen 2 atomen) op iedere tijdstap, maar ook tussen 3, 4, etc.. Iedere orde die je erbij wilt pakken kost dus inderdaad veel meer rekenkracht, je kan er echter voor kiezen om bij benadering die hogere orden gewoon te negeren, dat werkt prima voor relatief 'langzame' fysische processen zoals bijvoorbeeld eiwitvouwing.
En dan heb ik het nog niet over moleculaire orbitalen, electron-electron interactie via Density Functional Theory, zie hieronder
Leuk om te weten is dat wanneer je een molecuul als een keten harde balletjes modelleert, verbonden met veren, je er heel prima aan kunt rekenen, ook gewoon op je eigen desktop, ook al is het een zeer grove benadering van de werkelijkheid. (Zoek maar eens op "namd simulation"). Dit heet Molecular Mechanics en is puur Newtonian fysica.
Medicijnen krijgen echter heel vaak hun werkzaamheid door specifieke eiwitten te blokkeren (letterlijk door vast te gaan zitten in het chemische actieve ('katalytische') centrum). Om nieuwe medicijnen te kunnen verbeteren / hun activiteit beter te kunnen begrijpen, moet je echter vaak ook alle/zoveel mogelijk electronen-electronen interacties meenemen en dat op een femtoseconde tijdschaal. En dat is waar deze supercomputers pas echt in beeld komen. (Zie Car-Parrinello, QM/MM simulations als je hier meer van wilt weten)
Wetenschappelijk werk lijkt soms op een hobby, maar het is toch echt niet alleen maar voor de leuk
Understatement van de eeuw haha
Het is echt alleen leuk en vol te houden als je echt passie hebt voor jouw specialisme. En dan nog is de werk en publicatiedruk enorm. Blij dat ik er even van weg ben, promoveren kan later ook nog wel (en zo niet, dan niet).
[Reactie gewijzigd door Wilglide op 22 juli 2024 20:25]
Als toegepast wiskundige moet ik hier nog een paar voorbeelden aan toevoegen: klimaatmodellen (dat mooie weerkaartje tijdens het journaal wordt bij het KNMI op een Bull supercomputer uitgerekend met het HARMONY model), grond- en oppervlaktewater voor het voorspellen van droogte, bodemdaling, mondiale voedseltekorten, zout-water indringing, etc. Zo kan ik nog wel even doorgaan
Een andere uitdaging is hoe je terabytes aan gegevens makkelijk en snel toegankelijk maakt op zo'n systeem.
HP is daar met 'the Machine' leuk aan het experimenteren met een nieuwe geheugengerichte architectuur.
Gedeeld en snel toegankelijk geheugen met processors eromheen. Ik kan niet inschatten of het de toekomst is, maar een interessante architectuur is het zeker. https://youtu.be/1BVtChDQVyQ
Bedankt voor de link 😀
Erg interessant. Het is een heel andere manier van denken. Maar als je de software om kan bouwen naar dit ben ik wel benieuwd of het echt verbeterd met vermogen/watt.
Energie per flop zal niet veel verschil maken denk ik. Ik vind het een zeer verfrissende kijk op de architectuur van grote systemen en ik denk dat er zeker toepassingen zijn die hier baat bij hebben.
HPE heeft werkende prototypes maar daarin zijn nog niet alle technieken volledig geïmplementeerd dus een echt vergelijk met conventionele super- en cloudcomputers is voor zover ik weet niet gemaakt.
Een aantal wetenschappers denkt van wel. Het argument is dan meestal dat ze denken dat bewustzijn een bijverschijnsel is van een combinatie van bepaalde hersenfuncties.
Echter, waarom ben ik mijzelf en waarom ben ik niet een ander? Als wij als mens zelf in een simulatie leven op dit moment (wordt door veel wetenschappers gezien als mogelijkheid met hoge kans), dan zou ons bewustzijn voortkomen uit de link met onze originele levensvorm in de 'echte wereld'. Denk aan de film avatar. Of het spelen van een spel: je bestuurt een wezen in een wereld, maar het echte bewuste denken komt gewoon voort uit ons brein buiten het spel. Als je een spel speelt wat niet van echt te onderscheiden is, dan voel je alle input van het spelkarakter, voel je ook alle beperkingen in het spel, maar denk je nog na met je eigen bewustzijn buiten het spel.
Iets anders, hoe zou je vast kunnen stellen of iets een echt bewustzijn heeft? Bij mensen en sommige dieren gaan we er van uit, omdat het zo lijkt te zijn. En jij of ik van onszelf zeker weten dat we een bewustzijn hebben (of de illusie daarvan).
Een hersensimulatie zal waarschijnlijk na het aanleren van menselijke denkwijzen terug communiceren dat het niet dood wil, dat het kan denken en dus bestaat, dat het beseft dat het een computerbrein is, enz. Maar is het dan echt bewust? Of heeft het aangeleerd om te denken dat het bewust is? En hoe zit het dan eerlijk gezegd met onszelf?
Ik zou zeggen: zoek eens het boek "When HARLIE was one". Oud boek dat onderzoek doet naar bovenstaande vragen.
Om een persoon te worden is tijd nodig. Laten we zo'n simulatie tientallen jaren draaien? Hoe krijgt de simulatie zijn ervaringen? Meer vragen dan antwoorden.
Om een persoon te worden is tijd nodig. Laten we zo'n simulatie tientallen jaren draaien? Hoe krijgt de simulatie zijn ervaringen?
Er vanuit gaande dat in ons brein het bewustzijn huist, zou je een kunstmatig brein een kickstart kunnen geven door deze te vullen met de inhoud van een menselijk brein, als dat technisch mogelijk zou zijn (zie ook het NRC-artikel hierover).
Dan neem je alle ervaringen, herinneringen, persoonlijkheden en kennis mee. Ik vraag me af of de psyche van de kunstmatige persoon het wel aankan als deze zich beseft dat hij een kopie is. Hoe zou je de visuele cortex en het gehoor van deze gekopieerde persoonlijkheid eigenlijk aansturen? Zou hij of zij nog wel kunnen zien en horen zoals een mens dat kan?
Kan hij nog wel bang worden, trouwens? Of verliefd? Diverse emoties worden meestal bepaald (of versterkt) door aan- of afwezigheid van bepaalde hormonen en neuropeptiden. Wordt dit ook gesimuleerd? En hoe zit het met het spier- en weefselgeheugen van het oorspronkelijke lichaam van de gekopieerde persoonlijkheid? Een deel van het menselijk gedrag wordt ook hierdoor bepaald.
Meer vragen dan antwoorden.
Inderdaad.
[Reactie gewijzigd door lekorque op 22 juli 2024 20:25]
Je geeft het zelf al met verschillende argumenten aan, die menselijke hersenen zijn lastig los te zien van het bijbehorende lichaam en de specifieke ervaringen die erbij horen. Als je alleen al kijkt wat een impact iets eenvoudigs als lichaamslengte heeft op in welke richting een brein zich ontwikkeld. Een mens simuleren in een machinebrein komt op mij over als het zoeken naar een heilige graal. Tegelijk moedig ik het onderzoek er naar aan, omdat we door naast onszelf te gaan staan zo ontzettend veel over het mens-zijn kunnen leren.
Het begrip bewustzijn relativeer ik trouwens wat. Onze zintuigen nemen maar een heel beperkte bandbreedte van de werkelijkheid om ons heen waar. En ons tijdsbesef (op mijzelf afgaande) is op zijn zachtst gezegd rekbaar te noemen. Mogelijk hebben we hier en daar een bewust moment, maar vindt een groot deel van ons leven best onwillekeurig plaats. Mijn vermoeden dat het begrip bewustzijn de komende tijd aan inflatie onderhevig zal zijn. Dit is niet erg, zolang we maar in staat zijn om naast onszelf te gaan staan, dan kunnen we daarmee omgaan.
Echter, waarom ben ik mijzelf en waarom ben ik niet een ander? Als wij als mens zelf in een simulatie leven op dit moment (wordt door veel wetenschappers gezien als mogelijkheid met hoge kans), dan zou ons bewustzijn voortkomen uit de link met onze originele levensvorm in de 'echte wereld'. Denk aan de film avatar. Of het spelen van een spel: je bestuurt een wezen in een wereld, maar het echte bewuste denken komt gewoon voort uit ons brein buiten het spel. Als je een spel speelt wat niet van echt te onderscheiden is, dan voel je alle input van het spelkarakter, voel je ook alle beperkingen in het spel, maar denk je nog na met je eigen bewustzijn buiten het spel.
De kans is zeer reëel en kan goed onderbouwd worden. Of het zo is, dat kan niemand natuurlijk zeggen en het is 1 van de vele mogelijke opties die duiding geeft aan ons bestaan. Maar het concept zelf te ver gezocht vinden zoals @blackSP, betekent simpelweg dat je het principe nog niet helemaal duidelijk ziet. Ik kan een video van Kurzgesagt erg aanraden: https://www.youtube.com/watch?v=tlTKTTt47WE.
Echter denk ik niet dat onze 'avatar' een bestuurder heeft in een base reality, in het geval dat we in een simulatie zouden zitten. Ik denk dan eerder dat er in een realiteit een levensvorm een simulatie wilde laten draaien om tot een bepaald inzicht te komen en dus alles simuleert, ook het bewustzijn van iedereen.
Lijkt erg op de "Hitchhikers Guide to the Galaxy": de wereld als een soort computer gebouwd in opdracht om het antwoord op de allesomvattende vraag te berekenen. De vorige poging was gestrand mket als antwoord 42
Offtopic maar ik toch: de vorige poging was niet gestrand, het ultieme antwoord was gewoon 42. Alleen was de ultieme vraag niet bekend, en daar was de computer Aarde voor gebouwd. H2g2 is love, h2g2 is life.
Dat lijkt er inderdaad op. Ik kan mij de film nog redelijk herinneren (het is alweer eventjes geleden) en speelt heel erg met dit fenomeen.. Daarom is denk ik het principe ook zo lastig te omarmen, het klinkt nog veel te scifi allemaal. En dat snap ik heel goed.
Als je niet zeker weet of je jezelf bent mag je worden uitgeschakeld!
Klinkt bot, maar er zijn al te veel mensen. Voor het milieu is een behoorlijke reductie toch al noodzakelijk.
[/sarcasme]
Ons brein is nog complexer dan we denken aangezien er allerlei chemische processen zijn die wij nog niet begrijpen.
Apart voorbeeld, keek laatst programma over vrouwelijk orgasme dat men in mri aan het bestuderen was. Waarom krijgt de ene vrouw er geen, de andere 1 en weer een ander een superorgamse 20-30 achter elkaar. Het antwoord waarom weet men nog steeds niet, men kan raden maar hoe of wat.
Waarom krijgt de ene men ptst of andere psychische aandoening en de ander minder. Krijgen we straks dan ook ai systemen met ptst of abnormaal gedrag ?
Als je het brein echt wil simuleren voor 100% komt er dus heel veel bij kijken en dus ook de kan dan externe invloeden psychische schade kunnen veroorzaken.
Stel je eens een jaloers, wraakzuchtig ai systeem voor, ook dat hoort bij een simulatie. zet het dan niet in een robot die weet wat die met zijn kracht kan doen want dan heb je echt een probleem.
In principe wil geen enkel wezen dood, want die soorten die wel dood wilden zijn al uitgestorven (daarom is geen kinderen willen ook prinicipieel iets dat evolutionair gezien niet erfelijk is) (echter-Het gebeurt wel dat de 1 geen kids wil en de partner wel, en dat men dan toegeeft, of door druk van de omgeving/ouders, of bij seksueel geweld of gewoon drang tot seks de keuze om geen kinderen te hebben men deze "geen-kinderen-willen" toch doorgeeft aan de volgende generatie.
Ik heb zelf natuurkunde gestudeerd...
Bekende wetenschappers die de simulatietheorie een redelijke tot zeer hoge kans geven, zijn Neil deGrasse Tyson, Ray Kurzweil en Elon Musk.
Droom gehalte is wel hoog, echter dat is niet per definitie fout.
De eerste twee namen kan je zeker gebruiken om je verhaal geloofwaardiger te maken. Maar om Elon Musk een wetenschapper te noemen, gaat mij wel wat te ver... Briljant zakenman okee, maar een wetenschapper?
Mwoah, ik ga eerder voor het holografisch heelal, wordt ook als een serieuze optie gezien door veel wetenschappers, waaronder Eric Verlinde, Juan Maldacena etc.
Mwoah, ik ga eerder voor het holografisch heelal, wordt ook als een serieuze optie gezien door veel wetenschappers, waaronder Eric Verlinde, Juan Maldacena etc.
Haha, mooi verhaal, je bent zeker ook een flat earther.
Het is niet eens zo lang geleden dat een flat earther zo'n zelfde opmerking tegen een "round earther" maakte. De wetenschap sluit nooit iets zomaar uit zonder onomkeerbaar bewijs. Dat is bij zaken zoals het bestaan van god en ons leven als simulatie onmogelijk waardoor je maximaal tot een 'aan zekerheid grenzende waarschijnlijkheid komt' dat god niet bestaat en we niet leven in een simulatie. Maar we zullen het nooit 100% zeker weten totdat God zich openbaart of de mogelijke simulatie zichtbaar wordt (zoals in de Matrix). Het bewijzen dat iets niet bestaat is dus een stukje lastiger dan dat iets wel bestaat.
Dat is natuurlijk een heel interest onderwerp, dat zou nl inhouden dat zodra de simulation gestart is je hem niet meer mag eindigen onder de huidige regels. Dat zou nl moord zijn. Een bewust zijn met de capaciteit van een mens is nl een intelligent wezen.
Dit zelfde probleem heb je met AI wat als AI zo goed en slim wordt dat het zelf bewust wordt (Red Queen ). Waar leg je het onderscheid tussen deze objecten, puur het feit dat de ene biologische is en de ander mechanische. ?
Ook hier zie je weer dat overheden achter beginnen te lopen. IPV dan men er nog steeds niet uit is hoe hard je nu mag reiden etc, zouden overheden de regels voor de toekomst moeten gaan voorbereiden. er komen in de komende 10-20 jaar zoveel technieken die het huidige wetboek overstijgen dat dit een groot probleem gaat worden.
Je hebt het dan puur over het wetboek en de huidige interpretatie daarvan.
Ik denk dat vrijwel iedereen, inusief rechters, het niet wil en zal bestraffen als een AI-wetenschapper een supercomputer uitzet nadat er een uur lang een bewust brein op is gesimuleerd.
Blijft alsnog interessant zoals je het schetst en de mensheid zal inderdaad nog flink moeten nadenken en aanpassen.
Er is op dit moment een robot met degelijke AI die door een land als officiële inwoner wordt gerekend. https://www.google.nl/url...Vaw2RlXOMZNFvb408FVcoSQfa
[Reactie gewijzigd door Playa del C. op 22 juli 2024 20:25]
Stel dat men dit kan. Dan zal men vooraf een business case moeten opstellen want de sim kan niet worden uitgezet. Dit is dan moord.
Om de sim te laten draaien heb je energie nodig, ook heb je afschrijving van de hardware.
Zie daar de business case. Zou men dan vooraf met de rechter de business case opstellen? De sim mag 72 uur draaien en mag daarna worden uitgezet?
Stel dat het draaien van de sim 700.000 per uur kost, en het geld is op? Mag je het dan uitzetten?
Stel je eens voor dat wij misschien dat stukje AI van een ander intelligent wezen zijn.. Kosten wij dan ook geld? Of verdienen wij juist geld voor hen???
Misschien moeten wij, als wij echt bewuste intelligentie kunnen maken het zo prepareren dat het geld voor zichzelf verdient.. (Zomaar even een gedachte uit een notendop)
Op basis van die redenatie mag men jouw dus ook uitzetten,
Jij kost de wereld ook X amount of energy en water om jouw primaire levens behoefte in stand te houden, laten we nog niet eens beginnen over de secundaire (plezier, vermaakt etc)
Je denkt nu nog te veel in energie. Ja we hebben nu heel veel energie nodig maar is dan over 20-50 jaar nog steeds zo. Hoeveel energie heeft een quantum computer nodig en opzichte van een systeem nu.
Denk ook een verder in de zin van combinatie tussen nu gebakken hardware en genetisch gemodificeerde natuurlijke hersenen die geprogrammeerd of zaken aangeleerd zouden kunnen krijgen.
Het kan alle kanten of en zal ook alle kanten op gaan.
Terechte vraag. Enige wat men wel kan doen met die bewust zijn en niet (zo makkelijk) met de onze is de status opslaan, dan stoppen en dan later als het goedkoper, handzamer ed kan weer vervolgen. Moet je die bewustzijn alleen de verstreken tijd verklaren.
Och, hoeveel mensen worden er uit naam van de overheid wel niet vermoord, zie alle oorlogen in de wereld.
Daarnaast, hoeveel bewustzijn kan een computerbrein opbouwen in een uur, dag, maand of jaar. Een foetus van 20 weken oud heeft ook weldegelijk een brein, en daar worden ook bij bosjes de stekker uit getrokken
Gezien het feit dat een programma runnen niets anders is dan het stapsgewijs logische bewerkingen doen op statische data lijkt het me erg onwaarschijnlijk dat het een bewustzijn krijgt. Wat gebeurt er als je op pause drukt?
Je kunt je afvragen in hoeverre ons denken afwijkt van de stappen in een programma, laat staan als je daar machine learning bij betrekt. Wanneer ik een keuze maak, maak ik die keuze aan de hand van wat ik weet. Wat ik weet is een resultaat van alles wat ik voor die keuze heb meegemaakt. Dingen die mij ingeprent zijn in mijn jeugd, dingen die ik op school geleerd heb, ervaringen die ik heb opgedaan etc. Ik maak mijn keuzes aan de hand van afwegingen die ik maak met de informatie die ik ken. In hoeverre verschilt dit van de informatie die een programma heeft? Het grootste gedeelte van de keuzes die ik in een dag maak zijn rationeel. Keuzes die ik maak zijn afgeleid van de informatie die ik heb. Af en toe komt daar gevoel bij, en dat zal het verschil zijn tussen een programma en mijzelf.
Wanneer je het hebt over Machine learning dan praat je over een systeem dat keuzes maakt aan de hand van de informatie die het heeft. Wanneer deze machine een verkeerde keuze maakt wordt het bijgestuurd. Een mooi voorbeeld zijn die algoritmes die een moedervlek kunnen beoordelen op kanker, of een onschuldige ophoping van pigment. Een grote stapel foto's is gevoed aan dat systeem. Een groot deel is onschuldig en een deel is kwaadaardig. Het systeem gaat op zoek naar verbanden en weet vervolgens nieuwe foto's te beoordelen. het maakt een keuze aan de hand van de informatie die beschikbaar is. Dit lijkt me helemaal niet zo ver af te wijken van onze denkwijze.
Nu de vraag wanneer het een bewustzijn krijgt kan ik je niet beantwoorden, maar wanneer een systeem dusdanig goed keuzes kan maken dat het weet dat een verkeerd antwoord kan betekenen dat het uitgezet gaat worden lijkt het me dat dit systeem je in ieder geval voor de gek kan houden....Ik zet me aluhoedje weer af:)
Niet iedereen maakt keuze aan de hand van wat je geleerd hebt. soms maak je bewust een andere keuze om iets nieuws te ontdekken.
Waarom spring je de eerste keer met parachute uit een vliegtuig terwijl je gevoel en inprenting zegt dat moet je niet doen.
Als mens ben je ook bezig juist die grenzen te verleggen en niet alleen keuzes te maken op basis van dat wat je weet. Maar goed dat zal niet voor iedereen zo zijn want tja in Spanje op vakantie eet je dan vertrouwd bij Piet Friet, of ga je toch voor het onbekende en eet je spaans.
Dat met die parachute is niet een goed voorbeeld want je weet dat het goed komt, het feit dat je het weet is informatie die je eerder kreeg. Als je niet weet of het goed komt spring je ook niet...
Klein verschil je denkt te weten dat het goed komt maar 100% garantie heb je niet, jem aakt jezelf wijs dat het goed komt maar de ervaring heb je niet. Bij een eerste keer zal er altijd een twijfel zijn.
Die laatste opmerking is dus waar het ook om kan gaan, instincten. Daar zijn overeenkomsten bij mensen maar ook grote verschillen.
Kijk heel eenvoudig in tijden van oorlog worden mensen ineens weer beesten en vertonen dus heel ander gedrag dan in een georganiseerde wereld.
Het is dus allemaal vrij complex, zoals eerder gezegd wij begrijpen nog maar een deel van ons zelf dus laat staan dat we een simulatie kunnen maken.
Voor een goede simulatie is dus alleen exorbitant veel rekenkracht nodig. Of je moet een grove benadering maken. En ik denk dus zelf dat dat prima mogelijk is. Uiteindelijk zijn we puur reactief op onszelf en onze omgeving en dat gaat dus prima met onze hersenen alleen (die lang niet zoveel energie en rekenkracht vragen). Non-Von Neumann is the way to go.
We denken het beter te kunnen begrijpen maar waarom krijgt iemand ptst ?
Waarom kan iemand ineens van gedrag veranderen.
Zo denken we dat bepaalde delen van de hersenen bepaalde functies hebben maar dat bij hersenbeschadiging functies door andere delen ineens worden overgenomen.
Tijdje terug test gezien kregen mensen 1/2 uur lang magneet op hun hoofd. Bepaalde testen schatten van bijv aantal rode puntjes op scherm was toen veel beter.
Waarom is de ene linkshandig de ander rechtshandig, waar komt creativiteit vandaan. Hoog iq hoe komt dat.
Je zesde zintuig iets dat niet vatbaar is maar toch vele hebben of denken te hebben.
We kunnen proberen hersenen te simuleren probleem blijft echter, stop je er code in, ai in dit geval dan zal zich dat net als een baby, peuter, kleuter, pubertijd tot volwassenen moeten ontwikkelen, veel invloeden en de vraag is dan nog steeds wat komt er uit.
Al de voorgaande vragen is allang onderzoek naar gedaan.
Jij benadert deze vragen echter vanuit een psychologisch/sociaal/gedragsniveau, terwijl ik dat doe vanuit een moleculair / systeem biologisch niveau. De tweede lijkt mij veel relevanter voor mijn gemaakte punt en de vraag of dit 'connectome' in de computer te simuleren is en of dat genoeg is om een mens bij benadering te simuleren. Ik zie geen reden in jouw argumenten waarom zit niet het geval zou zijn. En wel in die van mijzelf.
We kunnen proberen hersenen te simuleren probleem blijft echter, stop je er code in, ai in dit geval dan zal zich dat net als een baby, peuter, kleuter, pubertijd tot volwassenen moeten ontwikkelen, veel invloeden en de vraag is dan nog steeds wat komt er uit.
Hier zit de kern, 'stop je er code in'. DNA is code, signaaltransductie (ook via eiwitten) is code, neurale netwerken zijn code. En naar mijn idee ook: omgevingsimpulsen, opvoedingzijn code! Wij zijn puur reactief t.o.v. onze omgeving. Lever je deze omgeving aan, dan zal ook de ontwikkeling naar mijn idee menselijk blijken. Maar ik geef toe, dat is nog een onbeantwoorde vraag, 'wat er dan uit komt'. Maar het lijkt er wel op dat die vraag steeds beter te beantwoorden word, i.i.g. bottom-up.
Je zal dus naar mijn idee wel een goede benadering van de werkelijkheid krijgen door dit alles na te bouwen. Zeker wanneer je de onderlinge netwerken ook goed begrijpt en na kunt bouwen (zie mijn IGem link).
Stop er code in DNA. Leuk onderwerp want DNA is idd de code voor de mens. Maar wederom wij begrijpen dna nog helemaal niet. We zijn bezig met dna modificatie maar verander je 1 dna schakelaar veranderen er ineens ook anderen zonder dat we echt weten welke dat zijn en wat ze doen. Ook op dna gebied staan we pas aan het begin zaken te begrijpen laat staat te veranderen.
Ons dna heeft zich ontwikkeld, duizenden jaren met veel rest dna zonder functie voor ons.
Je zegt de werkelijkheid na te kunnen bouwen, welke werkelijkheid van welke mens, waar op aarde. Jij beleefd en ziet zaken al anders dan ik dus laat staan dat we zouden weten hoe een computer dat zal zien.
Het zal net als de mens een zelflerende proces zijn zonder dat we de uitkomst weten. De mens in zijn oervorm, voorbeeld oorlog is niet de mens waarop is als computer zit te wachten. Die kan er echter wel uitkomen en of dat wenselijk is ?
Pardon? Sorry, maar dit gaat mij zwaar aan mijn moleculair hartje. Wij begrijpen DNA heel goed en de complexiteit ook. En zonder het begrijpen van die schakelaars, zou het hele veld van de Systeem Biologie niet eens bestaan! De mens is nog wel wat te complex voor de mens al geheel, toegegeven, maar de basis, die van de schakelaars, die jij noemt, is universeel en inmiddels heel goed begrepen!
Ons dna heeft zich ontwikkeld, duizenden jaren met veel rest dna zonder functie voor ons.
Dat rest DNA is helemaal geen rest DNA, dat zijn bindingsplekken voor transcriptiefactoren en functionele verlengingen. Zo is er bijvoorbeeld het mediator complex, wat meerder transcriptiefactoren aan zich bind. Daarvoor moet het DNA wel een bepaalde lengte hebben om er omheen te kunnen lussen. Kortom, bijna al het DNA heeft een functie. Al is het maar om de evolutionaire reden dat de ruimte in een celkern zeer beperkt is en er toch ruimte moet zijn om de vele biochemische routes vorm te geven.
Je zegt de werkelijkheid na te kunnen bouwen, welke werkelijkheid van welke mens, waar op aarde. Jij beleefd en ziet zaken al anders dan ik dus laat staan dat we zouden weten hoe een computer dat zal zien.
Laten we blij zijn dat we de zaken anders zien, jij hebt alle recht op de jouwe. En het brengt ons verder naar in onze eigen persoonlijke waarheidsvinding. Maar zeg dan gewoon dat dit simpelweg niet is wat jij gelooft.
Een computer is wat betreft in essentie een reactief systeem, net als de mens. Dat de mens zichzelf in een speciaal licht ziet, is niet erg, we hebben immers veel dat ons bijzonder maakt, zoals muziek, dans, theater en kunst in het algemeen. Maar dat dit exclusief aan ons is toebedeelt en niet aan een Non-Von Neumann computer, zie ik dus vooralsnog geen (systeem biologische) argumenten voor.
De mens in zijn oervorm, voorbeeld oorlog is niet de mens waarop is als computer zit te wachten. Die kan er echter wel uitkomen en of dat wenselijk is ?
Ik denk niet aan een mens in zijn 'oervorm', ik denk aan een mens die juist heel helder is. Omdat hij bijvoorbeeld geen slaaptekort of honger ervaart. En de rest is dan opvoeding. Niks is onschuldiger dan een baby, het is wederom de omgeving die de mens vormt tot wie hij word.
Het probleem is ook dat men zich niet kan relateren met een gespecialiseerde 'robot'. Maar wanneer je het grondbeginsel accepteert dat een gesimuleerd mens een gewoon mens is, dan heb je per definitie geen robot meer. Dan staat robot gelijk aan mens. En dat kunnen mensen gewoon niet verkroppen (want cultuur, creativiteit) en dat snap ik ook. De aarde is niet meer het centrum van het zonnestelsel, maar dat maakt het zonnestelsel echt niet minder mooi, bijzonder en de moeite waard
Betreft dna wij bezitten veel dna dat niet actief is en vanuit vroeger misschien een functie heeft maar nu niets doet. Planten delen DNA met de mens.
We kennen de basis van DNA, klinkt leuk ik ben van mening dat we nog veel te weinig weten over de werking ervan laat staan het manipuleren en welke uitwerkingen dat heeft. In menselijke termen we weten evenveel van een baby weet.
Er is 1 heel groot verschil tussen men en computer.
Mens is natuurlijke computer om het in jou termen te omschrijven. Een computer is een gemaakt iets.
De evolutie van de mens gaat ook hand in hand met fouten in genetisch materiaal dat maakt het weer dat iedere nieuwe mens weer anders is dan beide ouders ondanks dna van beide.
Hoe uniek zal een computer mens dan zijn ? Of moeten we daar dan geprogrammeerde fouten inbouwen maar hoe willekeurig zullen die fouten zijn.
Maar goed we blijven verder van mening verschillen.
Modificeren. Manipuleren is niet gerichte modificatie en dan inderdaad niet weten welke uitwerking dat heeft. Zoals we dat vroeger dus deden. UV-stralingsbron op de zaden van een plant, met extra willekeurige mutaties tot gevolg en dan maar selecteren op de gewenste eigenschappen. Alleen Greenpeace zegt nog manipuleren en doet totaal geen recht aan het harde werk van wetenschappers de afgelopen decennia.
De evolutie van de mens gaat ook hand in hand met fouten in genetisch materiaal dat maakt het weer dat iedere nieuwe mens weer anders is dan beide ouders ondanks dna van beide.
Die fouten zijn wel functioneel, die stuwen de evolutie en maken ons weerbaar tegen allerlei ziekten, waar andere organismen wel weer gevoelig voor zijn.
Hoe uniek zal een computer mens dan zijn ? Of moeten we daar dan geprogrammeerde fouten inbouwen maar hoe willekeurig zullen die fouten zijn.
Niet zo uniek. Zo uniek als je zelf wilt. Andere opvoeding, andere computermens.
Geprogrammeerde 'fouten' zie ik niet direct een reden voor. Maar de computermens is dan ook niet DNA-based, we willen juist een 'schone' benadering hebben van de mens (wat ook maar 1 ras is ondanks culturele verschillen), dat is goed genoeg.
Maar goed we blijven verder van mening verschillen.
Ik denk het ook. Maar ik heb genoten van de discussie.
Heb je dan niet geleerd dat het soms nodig is om bewust een andere keuze te maken zodat je iets nieuws kan ontdekken?
Waarschijnlijk spring je er uit omdat andere mensen zeggen dat het een fantastisch gevoel geeft of je hebt filmpjes gezien waarin het er heel gaaf uit ziet. Oftewel je maakt een keuze tussen: - Op de grond blijven omdat je gevoel en inprenting dit zegt - Eruit springen omdat andere zeggen dat het gaaf is.
Alles is een keuze en jij maakt die keuze aan de hand van wat je geleerd is of wat je gezien hebt in je omgeving. Overigens kunnen sommige dingen je natuurlijk ook overkomen zonder dat je er voor kiest.
Ik bedoelde eigenlijk meer de filosofie / idee dat een 'bewustzijn' zich kan manifesteren in een vaste situatie, dus de afzonderlijke elektrische toestanden van een hoeveelheid transistoren tijdens een klokcyclus. Daar klopt iets niet in redeneren, als je het mij vraagt. Er is geen verbinding met tijd en de fysieke wereld waar alles een oorzaak en gevolg heeft.
De vraag is op welk niveau je het gaat simuleren. Vaak wordt een neuraal netwerk gebouwd. Een neuron van zo'n netwerk is een wiskundig model van een biologisch neuron, maar is toch wel een hele sterke vereenvoudiging. Naast elektrisch verkeer is er in biologische hersenen namelijk ook sprake van chemisch verkeer. Van het ons geheugen wordt bijvoorbeeld gedacht dat het een chemische basis heeft in onze hersenen. Voor een goede simulatie zul je daarom niet alleen de elektrische processen moeten simuleren, maar ook de chemische, met alle hormonen e.d. erbij.
Als ik lees over "simulatie van de hersenen" dan stel ik onmiddelijk de vraag: Op welk niveau ga je ze simuleren. Een volledige simulatie van elektrische simulatie blijft vooralsnog buiten ver bereik van de simulatiekracht van supercomputers, laat staan wat er gebeurt als we de chemische aspecten erbij gaan betrekken.
Een supercomputer die hersenen kan simuleren en daardoor een bewustzijn krijgt blijft daardoor vooralsnog science fiction, voor minimaal nog decennia.
En hoe weet je of iets een bewustzijn heeft? Ons bewustzijn wordt gevormd, we groeien op van baby tot een volwassen persoon. We leren van onze ouders en alle prikkels in onze omgeving. Een computer zet je gewoon aan, of uit, dat is heel iets anders. Misschien dat we op deze manier misschien beter gaan begrijpen wat een bewust zijn.
Mijn opvatting: ja, in de zin dat het reactief zou zijn op zijn omgeving en zichzelf. De rest is een mate van complexiteit. Wel is het menselijk brein natuurlijk wat instabieler onder invloed van suikerspiegel, hormonen, dag-nacht ritme en gevormd door zijn omgeving en culturele opvoeding.
Vraag terug: heeft een worm een 'bewustzijn' en zo nee, een mier dan, een muis, een kat? Is er uberhaupt een strakke lijn te trekken of is er sprake van een spectrum?
Een jaar of 2 geleden heb ik het genoegen gehad op een supercomputing-conferentie een lezing bij te wonen van Prof. Siewert Jan Marrink van de RUG, bekend van de ontwikkeling van het GROMACS-algoritme, dat bijvoorbeeld in Folding@home wordt toegepast.
Zijn inschatting was dat voor het simuleren van EEN (1) menselijke cel, op moleculair niveau met alle interacties die in zo'n cel plaatsvinden, zo ongeveer alle supercomputers ter wereld ongeschikt zijn. We zijn daar echt nog wel wat jaren van verwijderd. Interactie met een tweede cel, zal de simulatie naar verwachting ook nog eens verzwaren.
Voor de mensen die het hebben over een gevirtualiseerd brein: het ligt er dus wel aan hoe die simulatie in elkaar zit, maar verwacht zeker geen van-de-grond-af-molecuul-voor-molecuul-opgebouwd-realtime-werkende hersenen. Daarvoor zal ook exascale computing (helaas) echt een schijntje blijken te zijn.
Molecuul-voor-molecuul is dan ook helemaal niet nodig, zolang de abstractie correct genoeg is. Scheikunde als een geheel is een abstractie van natuurkunde, maar voldoet prima voor een hoop toepassingen. Op dezelfde manier hoeft 'alleen maar' de werking van de individuele neuronen in het brein geabstraheerd te worden om een bruikbare simulatie te maken.
Dat is een valide opmerking. Al zou het kunnen dat het voor het ontstaan van bijvoorbeeld zelfbewustzijn op een gegeven moment noodzakelijk blijkt om op een fundamenteler niveau te simuleren. De 'ruis' van willekeurige processen op microscopisch niveau zouden op macroscopisch niveau een onvoorzien doch essentieel effect kunnen sorteren.
De hele evolutie van soorten is in feite gebaseerd op het feit dat er op moleculair niveau zaken net niet helemaal gaan zoals verwacht: onvoorziene foutjes waarvan er bij wijze van spreken 100 onbruikbaar zijn maar af en toe weer 1 tussen zit waar de soort wat aan heeft.
Hoe ver zijn ze met de genoemde quantumcomputers, blijft dit theoretisch? Of zijn er stappen gemaakt? Want dat zal de conputerwereld op zijn kop zetten lijkt mij.
Ja en nee. Een kwantumcomputer is alleen een voordeel bij een beperkt aantal algoritmen. Daarbij is hij dan gelijk koning, omdat hij exponentieel veel mogelijkheden in constante tijd kan afzoeken. Maar qubits zijn schaars, een quantumcomputer van 128 qubits zou een doorbraak zijn. Voor een algoritme waar kwantumcomputers baat bij hebben zou dat enorm bruikbaar zijn. Voor een algoritme waar kwantumcomputers geen baat bij hebben zijn 128 bits helemaal niets. Een elektronische computer met veel geheugen, veel processoren en veel megahertzen geniet dan veruit de voorkeur.
Daarom zou een commercieel verkrijgbare kwantumcomputer weinig doen met de supercomputermarkt: Die markt zou gewoon blijven bestaan.
Fascinerend wat je allemaal kunt doen met een "beetje" rekenkracht. Ook leuk om te weten dat mijn huidige desktop zo ongeveer net zo snel is als een supercomputer van een jaartje of 20 à 25 terug.
Dit wordt een hele enge toekomst waar we na toe gaan, als we hier geen duidelijke afspraken maken over het goede en het kwade over deze onvermijdelijke ontwikkeling.
Het probleem over die afspraken maken is de mens, die veel/meestal van uit een machtspositie denken, wat zal leiden tot chaos in deze ontwikkelingen.
Volgens wetenschappers die in deze (DO YOU TRUST THIS COMPUTER?) documentaire aan het woord zijn, is het a.i. van een pc over 5 jaar een feit!
Als dit binnen die tijd waar is, dan zie ik het somber in voor de nieuwe generatie, en denk dat hier geen duidelijke afspraken of regelgeving over te maken zal zijn, zeker als ik de wereld "leiders" nu al als kinderen gedragen.
Er staan wat feitelijke fouten in het begin van het artikel. De Cray1 werd niet gebouwd door Control Data Corporation. Cray werkte daar weliswaar maar de eerste Cray bouwde hij pas na het oprichten van Cray Research. Hoeveel van de ideën hij daarvoor van CDC HD meegenomen zal altijd wel een vraag blijven.
Waarom draait een dergelijk apparaat niet op een sateliet? Koeling lijkt me in de ruimte geen probleem, als je een raampje open zet is het behoorlijk fris rond het moederbord. En met een bosje zonnepanelen kun je redelijk wat energie opwekken. Communiceren met een sateliet is geen enkel probleem. Iets repareren is ingewikkelder, maar als je het ding zo bouwt dat uitvallende onderdelen alleen rekenkracht kosten kun je wel even vooruit.
Bij industriële grootverbruikers ligt het tarief voor stroom toch nog wel een tikje gunstiger.
Zelfs als we met een sterk gereduceerd tarief van tien eurocent per kilowattuur en een vermogen van 10 megawatt rekenen, kost een uurtje rekenen met Summit al gauw duizend euro. Op jaarbasis zou dat bijna negen miljoen zijn.
Denk voor het gemak even aan de helft van de kWh prijs, mits je stroom afnamerecht ruim van tevoren kan inkopen. Typisch koop je een aanzienlijk deel van je stroom met langlopend vaste-prijs contract in en de rest flexibeler, maar nog steeds moet je voor fabrieken met een 10-30 MW vraag denken aan bedragen rondom de 5 ct/kWh.