Door Willem de Moor

Redacteur

De snelste supercomputers

Wat zijn het en wat heb je eraan?

17-09-2018 • 06:00

92

Singlepage-opmaak

Tot slot: waar gaan we heen?

We haalden het net al even aan: het buzzword voor supercomputers van de jaren twintig wordt: ‘exascale’. We zitten nu nog in de petascaleperiode; de snelste supercomputers hebben een rekenkracht van enkele honderden petaflops, maar de groei in rekenkracht gaat gestaag door. Met exascale-supercomputers, met een rekenkracht van een miljard maal een miljard berekeningen per seconde, oftewel 10^18 flops, zouden hersenen gesimuleerd kunnen worden, en zouden we nog beter het weer en het klimaat kunnen voorspellen.

De groei in rekenkracht van de Top500-supercomputers is echter in de laatste jaren wat aan het afvlakken. Dat is niet omdat computers niet krachtiger kunnen worden, maar vooral een gevolg van de honger naar energie en de daarmee gepaard gaande koelingseisen. We kunnen nodes blijven toevoegen aan een systeem, maar als de energiebehoefte de koelcapaciteit van een gebouw overschrijdt, heeft dat weinig zin. Daarom wordt gezocht naar manieren om supercomputers zuiniger te maken en tegelijk de capaciteit minstens gelijk te houden of te vergroten. Dat heeft geleid tot de Green500, de lijst met de zuinigste supercomputers op basis van rekenkracht per watt.

Als we de Top500-lijst erbij pakken, zitten supercomputers sinds 2016 op een plateaucapaciteit van ongeveer 100 petaflops, maar als de geschiedenis zich herhaalt, wordt dat weer doorbroken. De lijst laat namelijk steeds periodes van weinig groei zien, met elke twee jaar sprongen in rekencapaciteit, die waarschijnlijk deels aan architecturele verbeteringen van processors zijn te danken. Volgens die redenatie zijn exascale-supercomputers rond 2022 pas te verwachten, terwijl de industrie eerder had gerekend op 2020.

Desalniettemin heeft China plannen om in 2020 een exascalesysteem online te krijgen en in het Europese Human Brain Project werken onderzoekers samen om een brein te simuleren. Ook de Verenigde Staten, Japan en Taiwan werken aan exascalecomputers. De stap na exascale, waarbij computers over zettaflops kunnen beschikken, zou het mogelijk maken om het weer wereldwijd accuraat te voorspellen, tot twee weken van tevoren. Weer een factor duizend, op de yottascale, zou nodig zijn om de hersenen van alle mensen te simuleren.

D-Wave 2000Q quantumcomputer

Voorlopig moet echter eerst de exascalebarrière worden doorbroken en wordt gezocht naar manieren om computers efficiënter te laten werken. Dat kan enerzijds met conventionele supercomputertechnieken als grote clusters processors en videokaarten, maar we zien ook steeds meer zuinige architecturen als ARM gebruikt worden. In de toekomst zouden wellicht andere computersystemen, die niet van de Von Neumann-architectuur gebruikmaken, zoals quantumcomputers of neuromorfe computers, de Top500-lijsten kunnen aanvoeren. Of die computers zinnige Linpack-resultaten kunnen neerzetten, is echter twijfelachtig. Misschien hebben we dan na decennia een nieuwe benchmark voor de grootste en meest complexe computers die we hebben.

Lees meer

Reacties (92)

92
90
48
8
1
37
Wijzig sortering
De uitdagingen voor exascale supercomputers zitten niet alleen aan de hardware kant, maar misschien nog wel meer aan de software kant.
Niet alleen krijg je al snel te maken met Amdahl's law (kort uitgelegd: als je code 95% van de tijd perfect paralel schaalt, is de maximale versnelling nog steeds maar 20x, ongeacht hoeveel hardware je er tegenaan gooit, doordat het seriele deel overblijft), maar een andere grote horde is "fault tolerance". Hierbij moet je software rekening houden met het feit dat hardware een probleem tegen kan komen en daardoor uitvalt, zonder dat dit de berekening (die soms wel dagen tot weken kan duren) stopt of beïnvloed. De kans op uitval is simpel uit te drukken als "tijd" x "hoeveelheid hardware in gebruik" x "betrouwbaarheid vd hardware", en hierdoor krijgt een berekening van een aantal dagen op duizenden nodes (met meerdere CPUs en GPUs per node)
dus al snel met hardware failure te maken. Dit is een complex probleem (met een aantal oplossingen), wat er voor zorgt dat veel software vanaf de kern anders opgezet moet worden.

Een andere uitdaging is dat software tegenwoordig veel meer hardware moet ondersteunen. Vroeger werd software vaak speciaal geschreven voor één specifiek wetenschappelijk vraagstuk op één specifieke supercomputer, terwijl we tegenwoordig verwachten dat software portable is. "Waarom draait jullie software alleen op CPUs met NVidia Tesla, en niet op Geforce of AMD kaarten? En waarom niet op Xeon Phi?" zijn veel gestelde vragen. De realiteit is helaas dat voor elk type hardware nog steeds redelijk apart geoptimalizeerd moet worden, en de code die hiervoor geschreven wordt vaak niet te recyclen is.

[Reactie gewijzigd door rlKoekie op 22 juli 2024 20:25]

De Wet van Amdahl zie ik niet als een groot obstakel, omdat de programmeerproblemen die op supercomputers berekend worden, vaak inherent parallel zijn: Als je chemische simulaties doet, kun je de moleculen rustig over de beschikbare processoren verdelen, alles kan in beginsel parallel, alleen voor de interacties heb je communicatie nodig. Zelfde effect als je een botsproef simuleert: In eindige elementenanalyse kun je elementen rustig over je processoren verdelen, er zit geen volgorde in. Simuleer je een sterrenstelsel, zelfde effect: Reken aan alle sterren parallel.

DIt is een heel andere situaties dan bij wat we doen op onze desktops: Compileer je bijvoorbeeld een Linuxkernel dan kun je verschillende bestanden tegelijk compileren, maar omdat er afhankelijkheden zitten, moet het één toch op het ander wachten: Amdahl eist zijn tol.

Min of meer is het zo, dat op het moment dat je kunt schalen naar 2000 processoren, alle algoritmen die last hebben van Amdahl er grotendeels al zijn uitgevallen en wat dan nog over is, vaak ook wel in beginsel doorgeschaald kan worden naar 20000 processoren. Dat geeft nog grote uitdagingen, maar vaak eerder op het gebied van voldoende snelle communicatie tussen de processoren dan dat Amdahl een limiet aan parallelisering geeft.

[Reactie gewijzigd door dmantione op 22 juli 2024 20:25]

Wat jij stelt over het gebruik van supercomputers is niet juist. Veel toepassingen waarmee gewerkt wordt vereisen dat een groot lineair stelsel algebraische vergelijkingen impliciet moeten worden opgelost op een zeer groot rekenrooster. (Dit volgt ook uit bijvoorbeeld een eindige elementen discretisatie voor de airbag fabrics. Wat je zegt dat deze “embarrassingly parallel” kunnen worden opgelost is niet correct.) Hiervoor zijn paralllelle solvers voor nodig, zoals gebruikelijk Krylov-Schwarz (geconjugeerde gradienten) met een of andere multi-level preconditioning. Niet schaalbare componenten als communicatie overhead door load imbalance, of coarse-grid oplossingen, spelen hierin een belangrijke rol.
Je bevestigt min of meer wat ik zeg: Communicatieoverhead en imbalans zijn inderdaad factoren die de schaalbaarheid beïnvloeden. Hoe groter je cluster, hoe meer die componenten je schaalbaarheid gaan bepalen. Maar dat is wat anders dan de Wet van Amdahl. De Wet van Amdahl zegt dat er in een programma zaken zitten die na elkaar uitgevoerd moeten worden en dat er daarmee een grens in de mate waarin je kunt paralleliseren.

Even goed opletten: Ik zeg dus niet dat een programma dat op een supercomputer draait noodzakelijk "embarassingly" parallel is, maar wel dat het een algoritme is waarin weinig seriële componenten zitten die na elkaar moeten uitgevoerd worden. Programma's waarbij dat wel het geval is, die lukt het vaak al niet om de 2000 processoren te halen. Gegeven dat de 2000 processoren gehaald worden, dan is het algoritme op zich vaak geschikt om veel verder te paralleliseren, zij het dat dat kunstje op zichzelf nog best wel wat zweetdruppels kan vereisen om het klaar te spelen.

In geval van de Wet van Amdahl bereik je op een bepaald moment een theoretische bovengrens. Dat is net iets anders dan dat het moeite kost.

Linpack op zich is een lineair stelsel en schaalt na meerdere decennia nog altijd, zij het dat er steeds gevanceerdere hogesnelheidsnetwerken voor nodig zijn.
Ik denk niet dat er zoveel waarde gehecht moet worden aan Ahmdahl. In de praktijk is het (althans voor impliciete numerieke codes) niet zo zwart/wit. Dominant zijn doorgaans stukken code die slecht (vanuit algoritmisch oogpunt) parallelliseerbaar zijn bij toenemende aantal (MPI) processen, door toenemende load of communicatie. Meestal spelen ook meer praktische zaken een rol zoals I/O (bandbreedtes), cache gebruik (bijvb. super lineaire schaling omdat op een gegeven moment het probleem lekker in de cache past), of niet-schaalbare lineare solver iteraties.

Qua numerieke solvers is HPCG van linpack niet echt de standaard hoor, omdat dit een stand alone (test)programma betreft, maar wordt er naast native code vaak libraries gebruikt zoals PetSc (https://www.mcs.anl.gov/petsc/) of Hypre (https://computation.llnl....solvers-multigrid-methods). Natuurlijk heb je voor deze solvers een snelle switch nodig met een lage latency en hoge bandbreedte (Infiniband, Myrinet), maar daarmee ben je er nog niet. Zaken als convergentie voor een groot aantal cores en een geschikte matrix preconditionering (die zo goed en goedkoop mogelijk de inverse van A benadert) zijn zeker net zo belangrijk voor speedups.
Het zal inderdaad en ik kan het me best goed indenken dat een wiskundige hier met deze soort computers een leuk hobby heeft.
Maar ik wist niet dat die dingen zo duur zouden zijn, en je kan net zoals in de tekst staat niet zomaar meer racks plaatsen zodat je meer rekenkracht hebt, het vreet allemaal geheugen en stroom dat moet inderdaad ook betaald worden, het zijn allemaal dingen waar je niet zo snel bij stilstaat maar wel reëel aanwezig is. Ik ben zelf nog nooit in contact geweest met een supercomputer, maar weet tevens ook niet dat dat ding zo reten duur is om hem te gebruiken. Het zal wel heel erge complexe berekeningen zijn als dat ding zolang doet om een grote som uit te rekenen, wat dus de hoofdtaak is van de processor
en sommige duren videokaarten.Al met al een best leuk artikel.
Wiskundigen rekenen ook, maar de meeste CPU cycles worden opgegeten door natuurkundigen en scheikundigen (toegepaste wiskunde). Hierbij moet je in het geval van scheikunde (computational chemistry / quantum chemistry) denken aan zaken als medicijn ontwikkeling (eiwit vouwen / en de interactie tussen mogelijke medicijnen en de actieve zones in een eiwit in kaart brengen), nieuwe materialen ontwikkelen en optimalizeren (denk aan OLEDs die stabieler zijn / hogere efficientie hebben, of aan zonnecellen en halfgeleider materialen), of energieproblemen oplossen (waterstof opslag, accutechnieken verbeteren). Er zijn nog vele andere voorbeelden te verzinnen natuurlijk. Wat bijna al dit soort problemen gemeen hebben is dat ze niet lineair schalen (een 2x groter molecuul uitrekenen kost niet 2x zoveel rekenkracht, maar heel veel meer). Het zelfde probleem zit hem in de genoemde simulatie van een brein.

Wetenschappelijk werk lijkt soms op een hobby, maar het is toch echt niet alleen maar voor de leuk :)
Wat bijna al dit soort problemen gemeen hebben is dat ze niet lineair schalen (een 2x groter molecuul uitrekenen kost niet 2x zoveel rekenkracht, maar heel veel meer).
Klopt, omdat er niet alleen tweevoudige interacties zijn (tussen 2 atomen) op iedere tijdstap, maar ook tussen 3, 4, etc.. Iedere orde die je erbij wilt pakken kost dus inderdaad veel meer rekenkracht, je kan er echter voor kiezen om bij benadering die hogere orden gewoon te negeren, dat werkt prima voor relatief 'langzame' fysische processen zoals bijvoorbeeld eiwitvouwing.
En dan heb ik het nog niet over moleculaire orbitalen, electron-electron interactie via Density Functional Theory, zie hieronder

Leuk om te weten is dat wanneer je een molecuul als een keten harde balletjes modelleert, verbonden met veren, je er heel prima aan kunt rekenen, ook gewoon op je eigen desktop, ook al is het een zeer grove benadering van de werkelijkheid. (Zoek maar eens op "namd simulation"). Dit heet Molecular Mechanics en is puur Newtonian fysica.

Medicijnen krijgen echter heel vaak hun werkzaamheid door specifieke eiwitten te blokkeren (letterlijk door vast te gaan zitten in het chemische actieve ('katalytische') centrum). Om nieuwe medicijnen te kunnen verbeteren / hun activiteit beter te kunnen begrijpen, moet je echter vaak ook alle/zoveel mogelijk electronen-electronen interacties meenemen en dat op een femtoseconde tijdschaal. En dat is waar deze supercomputers pas echt in beeld komen. (Zie Car-Parrinello, QM/MM simulations als je hier meer van wilt weten)
Wetenschappelijk werk lijkt soms op een hobby, maar het is toch echt niet alleen maar voor de leuk :)
Understatement van de eeuw haha :P
Het is echt alleen leuk en vol te houden als je echt passie hebt voor jouw specialisme. En dan nog is de werk en publicatiedruk enorm. Blij dat ik er even van weg ben, promoveren kan later ook nog wel (en zo niet, dan niet).

[Reactie gewijzigd door Wilglide op 22 juli 2024 20:25]

Als toegepast wiskundige moet ik hier nog een paar voorbeelden aan toevoegen: klimaatmodellen (dat mooie weerkaartje tijdens het journaal wordt bij het KNMI op een Bull supercomputer uitgerekend met het HARMONY model), grond- en oppervlaktewater voor het voorspellen van droogte, bodemdaling, mondiale voedseltekorten, zout-water indringing, etc. Zo kan ik nog wel even doorgaan :)
Een andere uitdaging is hoe je terabytes aan gegevens makkelijk en snel toegankelijk maakt op zo'n systeem.
HP is daar met 'the Machine' leuk aan het experimenteren met een nieuwe geheugengerichte architectuur.
Gedeeld en snel toegankelijk geheugen met processors eromheen. Ik kan niet inschatten of het de toekomst is, maar een interessante architectuur is het zeker.
https://youtu.be/1BVtChDQVyQ
Bedankt voor de link 😀
Erg interessant. Het is een heel andere manier van denken. Maar als je de software om kan bouwen naar dit ben ik wel benieuwd of het echt verbeterd met vermogen/watt.
Energie per flop zal niet veel verschil maken denk ik. Ik vind het een zeer verfrissende kijk op de architectuur van grote systemen en ik denk dat er zeker toepassingen zijn die hier baat bij hebben.
HPE heeft werkende prototypes maar daarin zijn nog niet alle technieken volledig geïmplementeerd dus een echt vergelijk met conventionele super- en cloudcomputers is voor zover ik weet niet gemaakt.
Een menselijk brein simuleren. Fascinerend. Zou zo'n gesimuleerd brein ook een bewustzijn hebben?
Een aantal wetenschappers denkt van wel. Het argument is dan meestal dat ze denken dat bewustzijn een bijverschijnsel is van een combinatie van bepaalde hersenfuncties.

Echter, waarom ben ik mijzelf en waarom ben ik niet een ander? Als wij als mens zelf in een simulatie leven op dit moment (wordt door veel wetenschappers gezien als mogelijkheid met hoge kans), dan zou ons bewustzijn voortkomen uit de link met onze originele levensvorm in de 'echte wereld'. Denk aan de film avatar. Of het spelen van een spel: je bestuurt een wezen in een wereld, maar het echte bewuste denken komt gewoon voort uit ons brein buiten het spel. Als je een spel speelt wat niet van echt te onderscheiden is, dan voel je alle input van het spelkarakter, voel je ook alle beperkingen in het spel, maar denk je nog na met je eigen bewustzijn buiten het spel.

Iets anders, hoe zou je vast kunnen stellen of iets een echt bewustzijn heeft? Bij mensen en sommige dieren gaan we er van uit, omdat het zo lijkt te zijn. En jij of ik van onszelf zeker weten dat we een bewustzijn hebben (of de illusie daarvan).
Een hersensimulatie zal waarschijnlijk na het aanleren van menselijke denkwijzen terug communiceren dat het niet dood wil, dat het kan denken en dus bestaat, dat het beseft dat het een computerbrein is, enz. Maar is het dan echt bewust? Of heeft het aangeleerd om te denken dat het bewust is? En hoe zit het dan eerlijk gezegd met onszelf?
Ik zou zeggen: zoek eens het boek "When HARLIE was one". Oud boek dat onderzoek doet naar bovenstaande vragen.
Om een persoon te worden is tijd nodig. Laten we zo'n simulatie tientallen jaren draaien? Hoe krijgt de simulatie zijn ervaringen? Meer vragen dan antwoorden.
Om een persoon te worden is tijd nodig. Laten we zo'n simulatie tientallen jaren draaien? Hoe krijgt de simulatie zijn ervaringen?
Er vanuit gaande dat in ons brein het bewustzijn huist, zou je een kunstmatig brein een kickstart kunnen geven door deze te vullen met de inhoud van een menselijk brein, als dat technisch mogelijk zou zijn (zie ook het NRC-artikel hierover).
Dan neem je alle ervaringen, herinneringen, persoonlijkheden en kennis mee. Ik vraag me af of de psyche van de kunstmatige persoon het wel aankan als deze zich beseft dat hij een kopie is. Hoe zou je de visuele cortex en het gehoor van deze gekopieerde persoonlijkheid eigenlijk aansturen? Zou hij of zij nog wel kunnen zien en horen zoals een mens dat kan?
Kan hij nog wel bang worden, trouwens? Of verliefd? Diverse emoties worden meestal bepaald (of versterkt) door aan- of afwezigheid van bepaalde hormonen en neuropeptiden. Wordt dit ook gesimuleerd? En hoe zit het met het spier- en weefselgeheugen van het oorspronkelijke lichaam van de gekopieerde persoonlijkheid? Een deel van het menselijk gedrag wordt ook hierdoor bepaald.
Meer vragen dan antwoorden.
Inderdaad.

[Reactie gewijzigd door lekorque op 22 juli 2024 20:25]

Je geeft het zelf al met verschillende argumenten aan, die menselijke hersenen zijn lastig los te zien van het bijbehorende lichaam en de specifieke ervaringen die erbij horen. Als je alleen al kijkt wat een impact iets eenvoudigs als lichaamslengte heeft op in welke richting een brein zich ontwikkeld. Een mens simuleren in een machinebrein komt op mij over als het zoeken naar een heilige graal. Tegelijk moedig ik het onderzoek er naar aan, omdat we door naast onszelf te gaan staan zo ontzettend veel over het mens-zijn kunnen leren.

Het begrip bewustzijn relativeer ik trouwens wat. Onze zintuigen nemen maar een heel beperkte bandbreedte van de werkelijkheid om ons heen waar. En ons tijdsbesef (op mijzelf afgaande) is op zijn zachtst gezegd rekbaar te noemen. Mogelijk hebben we hier en daar een bewust moment, maar vindt een groot deel van ons leven best onwillekeurig plaats. Mijn vermoeden dat het begrip bewustzijn de komende tijd aan inflatie onderhevig zal zijn. Dit is niet erg, zolang we maar in staat zijn om naast onszelf te gaan staan, dan kunnen we daarmee omgaan.
Echter, waarom ben ik mijzelf en waarom ben ik niet een ander? Als wij als mens zelf in een simulatie leven op dit moment (wordt door veel wetenschappers gezien als mogelijkheid met hoge kans), dan zou ons bewustzijn voortkomen uit de link met onze originele levensvorm in de 'echte wereld'. Denk aan de film avatar. Of het spelen van een spel: je bestuurt een wezen in een wereld, maar het echte bewuste denken komt gewoon voort uit ons brein buiten het spel. Als je een spel speelt wat niet van echt te onderscheiden is, dan voel je alle input van het spelkarakter, voel je ook alle beperkingen in het spel, maar denk je nog na met je eigen bewustzijn buiten het spel.
De kans is zeer reëel en kan goed onderbouwd worden. Of het zo is, dat kan niemand natuurlijk zeggen en het is 1 van de vele mogelijke opties die duiding geeft aan ons bestaan. Maar het concept zelf te ver gezocht vinden zoals @blackSP, betekent simpelweg dat je het principe nog niet helemaal duidelijk ziet. Ik kan een video van Kurzgesagt erg aanraden: https://www.youtube.com/watch?v=tlTKTTt47WE.

Echter denk ik niet dat onze 'avatar' een bestuurder heeft in een base reality, in het geval dat we in een simulatie zouden zitten. Ik denk dan eerder dat er in een realiteit een levensvorm een simulatie wilde laten draaien om tot een bepaald inzicht te komen en dus alles simuleert, ook het bewustzijn van iedereen.
Lijkt erg op de "Hitchhikers Guide to the Galaxy": de wereld als een soort computer gebouwd in opdracht om het antwoord op de allesomvattende vraag te berekenen. De vorige poging was gestrand mket als antwoord 42 :P

Zie ook: http://hitchhikers.wikia.com/wiki/Fit_the_Fourth

[Reactie gewijzigd door janbaarda op 22 juli 2024 20:25]

Offtopic maar ik toch: de vorige poging was niet gestrand, het ultieme antwoord was gewoon 42. Alleen was de ultieme vraag niet bekend, en daar was de computer Aarde voor gebouwd. H2g2 is love, h2g2 is life.
Dat lijkt er inderdaad op. Ik kan mij de film nog redelijk herinneren (het is alweer eventjes geleden) en speelt heel erg met dit fenomeen.. Daarom is denk ik het principe ook zo lastig te omarmen, het klinkt nog veel te scifi allemaal. En dat snap ik heel goed.
Als je niet zeker weet of je jezelf bent mag je worden uitgeschakeld!
Klinkt bot, maar er zijn al te veel mensen. Voor het milieu is een behoorlijke reductie toch al noodzakelijk.
[/sarcasme]
Ons brein is nog complexer dan we denken aangezien er allerlei chemische processen zijn die wij nog niet begrijpen.

Apart voorbeeld, keek laatst programma over vrouwelijk orgasme dat men in mri aan het bestuderen was. Waarom krijgt de ene vrouw er geen, de andere 1 en weer een ander een superorgamse 20-30 achter elkaar. Het antwoord waarom weet men nog steeds niet, men kan raden maar hoe of wat.

Waarom krijgt de ene men ptst of andere psychische aandoening en de ander minder. Krijgen we straks dan ook ai systemen met ptst of abnormaal gedrag ?

Als je het brein echt wil simuleren voor 100% komt er dus heel veel bij kijken en dus ook de kan dan externe invloeden psychische schade kunnen veroorzaken.

Stel je eens een jaloers, wraakzuchtig ai systeem voor, ook dat hoort bij een simulatie. zet het dan niet in een robot die weet wat die met zijn kracht kan doen want dan heb je echt een probleem.
In principe wil geen enkel wezen dood, want die soorten die wel dood wilden zijn al uitgestorven (daarom is geen kinderen willen ook prinicipieel iets dat evolutionair gezien niet erfelijk is) (echter-Het gebeurt wel dat de 1 geen kids wil en de partner wel, en dat men dan toegeeft, of door druk van de omgeving/ouders, of bij seksueel geweld of gewoon drang tot seks de keuze om geen kinderen te hebben men deze "geen-kinderen-willen" toch doorgeeft aan de volgende generatie.
Ik heb zelf natuurkunde gestudeerd...
Bekende wetenschappers die de simulatietheorie een redelijke tot zeer hoge kans geven, zijn Neil deGrasse Tyson, Ray Kurzweil en Elon Musk.

Droom gehalte is wel hoog, echter dat is niet per definitie fout. :P
De eerste twee namen kan je zeker gebruiken om je verhaal geloofwaardiger te maken. Maar om Elon Musk een wetenschapper te noemen, gaat mij wel wat te ver... Briljant zakenman okee, maar een wetenschapper?
Technisch gezien heeft ie een bachelor in Physics, dus het is ook weer geen jan-en-alleman maar veel is het niet :D
Je vergeet nog Douglas Adams.
Mwoah, ik ga eerder voor het holografisch heelal, wordt ook als een serieuze optie gezien door veel wetenschappers, waaronder Eric Verlinde, Juan Maldacena etc. ;)
Mwoah, ik ga eerder voor het holografisch heelal, wordt ook als een serieuze optie gezien door veel wetenschappers, waaronder Eric Verlinde, Juan Maldacena etc. ;)
Misschien is de combinatie mogelijk? :)
Uiteraard, misschien zitten we wel in een virtuele holografische wereld, of een holografische vrtuele wereld etc :D
Haha, mooi verhaal, je bent zeker ook een flat earther.
Het is niet eens zo lang geleden dat een flat earther zo'n zelfde opmerking tegen een "round earther" maakte. De wetenschap sluit nooit iets zomaar uit zonder onomkeerbaar bewijs. Dat is bij zaken zoals het bestaan van god en ons leven als simulatie onmogelijk waardoor je maximaal tot een 'aan zekerheid grenzende waarschijnlijkheid komt' dat god niet bestaat en we niet leven in een simulatie. Maar we zullen het nooit 100% zeker weten totdat God zich openbaart of de mogelijke simulatie zichtbaar wordt (zoals in de Matrix). Het bewijzen dat iets niet bestaat is dus een stukje lastiger dan dat iets wel bestaat.
Dat is natuurlijk een heel interest onderwerp, dat zou nl inhouden dat zodra de simulation gestart is je hem niet meer mag eindigen onder de huidige regels. Dat zou nl moord zijn. Een bewust zijn met de capaciteit van een mens is nl een intelligent wezen.


Dit zelfde probleem heb je met AI wat als AI zo goed en slim wordt dat het zelf bewust wordt (Red Queen ). Waar leg je het onderscheid tussen deze objecten, puur het feit dat de ene biologische is en de ander mechanische. ?


Ook hier zie je weer dat overheden achter beginnen te lopen. IPV dan men er nog steeds niet uit is hoe hard je nu mag reiden etc, zouden overheden de regels voor de toekomst moeten gaan voorbereiden. er komen in de komende 10-20 jaar zoveel technieken die het huidige wetboek overstijgen dat dit een groot probleem gaat worden.
Je hebt het dan puur over het wetboek en de huidige interpretatie daarvan.
Ik denk dat vrijwel iedereen, inusief rechters, het niet wil en zal bestraffen als een AI-wetenschapper een supercomputer uitzet nadat er een uur lang een bewust brein op is gesimuleerd.
Blijft alsnog interessant zoals je het schetst en de mensheid zal inderdaad nog flink moeten nadenken en aanpassen.
Er is op dit moment een robot met degelijke AI die door een land als officiële inwoner wordt gerekend.
https://www.google.nl/url...Vaw2RlXOMZNFvb408FVcoSQfa

[Reactie gewijzigd door Playa del C. op 22 juli 2024 20:25]

ff hierop doordenken (interessant :P )

Stel dat men dit kan. Dan zal men vooraf een business case moeten opstellen want de sim kan niet worden uitgezet. Dit is dan moord.
Om de sim te laten draaien heb je energie nodig, ook heb je afschrijving van de hardware.
Zie daar de business case. Zou men dan vooraf met de rechter de business case opstellen? De sim mag 72 uur draaien en mag daarna worden uitgezet?
Stel dat het draaien van de sim 700.000 per uur kost, en het geld is op? Mag je het dan uitzetten?
Ik vermoed dat in de huidige #ophef cultuur er binnen die 72u een werkgroepje is opgericht, die "bijstand" verleend aan de AI.
Of er komt van hogerhand een decreet zodat hij mag blijven.
Stel je eens voor dat wij misschien dat stukje AI van een ander intelligent wezen zijn.. Kosten wij dan ook geld? Of verdienen wij juist geld voor hen???

Misschien moeten wij, als wij echt bewuste intelligentie kunnen maken het zo prepareren dat het geld voor zichzelf verdient.. (Zomaar even een gedachte uit een notendop)
wie zegt dat dat andere wezen uit is op persoonlijk gewin in de vorm van geld?
Ooh dit weet niet, ik ga er zomaar vanuit van niet.. Waarschijnlijk gewoon voor de lol zoals wij een mierenhoop als lol zien :X
Op basis van die redenatie mag men jouw dus ook uitzetten,

Jij kost de wereld ook X amount of energy en water om jouw primaire levens behoefte in stand te houden, laten we nog niet eens beginnen over de secundaire (plezier, vermaakt etc)

:)
Je denkt nu nog te veel in energie. Ja we hebben nu heel veel energie nodig maar is dan over 20-50 jaar nog steeds zo. Hoeveel energie heeft een quantum computer nodig en opzichte van een systeem nu.

Denk ook een verder in de zin van combinatie tussen nu gebakken hardware en genetisch gemodificeerde natuurlijke hersenen die geprogrammeerd of zaken aangeleerd zouden kunnen krijgen.

Het kan alle kanten of en zal ook alle kanten op gaan.
Terechte vraag. Enige wat men wel kan doen met die bewust zijn en niet (zo makkelijk) met de onze is de status opslaan, dan stoppen en dan later als het goedkoper, handzamer ed kan weer vervolgen. Moet je die bewustzijn alleen de verstreken tijd verklaren.
Ons kalender en klok denken is voor dat bewustzijn gewoon NTP :D
Och, hoeveel mensen worden er uit naam van de overheid wel niet vermoord, zie alle oorlogen in de wereld.
Daarnaast, hoeveel bewustzijn kan een computerbrein opbouwen in een uur, dag, maand of jaar. Een foetus van 20 weken oud heeft ook weldegelijk een brein, en daar worden ook bij bosjes de stekker uit getrokken
Een foetus met een stekker, dat is wel ernstig modern ..
Gezien het feit dat een programma runnen niets anders is dan het stapsgewijs logische bewerkingen doen op statische data lijkt het me erg onwaarschijnlijk dat het een bewustzijn krijgt. Wat gebeurt er als je op pause drukt?
Je kunt je afvragen in hoeverre ons denken afwijkt van de stappen in een programma, laat staan als je daar machine learning bij betrekt. Wanneer ik een keuze maak, maak ik die keuze aan de hand van wat ik weet. Wat ik weet is een resultaat van alles wat ik voor die keuze heb meegemaakt. Dingen die mij ingeprent zijn in mijn jeugd, dingen die ik op school geleerd heb, ervaringen die ik heb opgedaan etc. Ik maak mijn keuzes aan de hand van afwegingen die ik maak met de informatie die ik ken. In hoeverre verschilt dit van de informatie die een programma heeft? Het grootste gedeelte van de keuzes die ik in een dag maak zijn rationeel. Keuzes die ik maak zijn afgeleid van de informatie die ik heb. Af en toe komt daar gevoel bij, en dat zal het verschil zijn tussen een programma en mijzelf.

Wanneer je het hebt over Machine learning dan praat je over een systeem dat keuzes maakt aan de hand van de informatie die het heeft. Wanneer deze machine een verkeerde keuze maakt wordt het bijgestuurd. Een mooi voorbeeld zijn die algoritmes die een moedervlek kunnen beoordelen op kanker, of een onschuldige ophoping van pigment. Een grote stapel foto's is gevoed aan dat systeem. Een groot deel is onschuldig en een deel is kwaadaardig. Het systeem gaat op zoek naar verbanden en weet vervolgens nieuwe foto's te beoordelen. het maakt een keuze aan de hand van de informatie die beschikbaar is. Dit lijkt me helemaal niet zo ver af te wijken van onze denkwijze.

Nu de vraag wanneer het een bewustzijn krijgt kan ik je niet beantwoorden, maar wanneer een systeem dusdanig goed keuzes kan maken dat het weet dat een verkeerd antwoord kan betekenen dat het uitgezet gaat worden lijkt het me dat dit systeem je in ieder geval voor de gek kan houden....Ik zet me aluhoedje weer af:)
Niet iedereen maakt keuze aan de hand van wat je geleerd hebt. soms maak je bewust een andere keuze om iets nieuws te ontdekken.

Waarom spring je de eerste keer met parachute uit een vliegtuig terwijl je gevoel en inprenting zegt dat moet je niet doen.

Als mens ben je ook bezig juist die grenzen te verleggen en niet alleen keuzes te maken op basis van dat wat je weet. Maar goed dat zal niet voor iedereen zo zijn want tja in Spanje op vakantie eet je dan vertrouwd bij Piet Friet, of ga je toch voor het onbekende en eet je spaans.
Dat met die parachute is niet een goed voorbeeld want je weet dat het goed komt, het feit dat je het weet is informatie die je eerder kreeg. Als je niet weet of het goed komt spring je ook niet...
Klein verschil je denkt te weten dat het goed komt maar 100% garantie heb je niet, jem aakt jezelf wijs dat het goed komt maar de ervaring heb je niet. Bij een eerste keer zal er altijd een twijfel zijn.
AI herkent een patroon en baseert daar zijn keuze op, je doet vrijwel hetzelfde en hoopt dat het patroon zich voorzet :P
Probleem is dat jij misschien denkt waarop je een keuze maakt. Echter het brein is veel complexer dan dat.

d.w.z iedere mens is anders en de ene kiest voor de hoop van een keuze de ander voor het nieuwe dat kan mee maar ook tegenvallen m.a.w onbekend.
Waarom spring je de eerste keer met parachute uit een vliegtuig terwijl je gevoel en inprenting zegt dat moet je niet doen.
Twee perspectieven:
Als dier:
Om indruk te maken op je toekomstige partner, je 'vecht' i.p.v. dat je 'vlucht'

Als moderne mens:
Omdat het je een goed gevoel geeft en invulling geeft aan je leven en sociale status.

Wel ook interessant om je af te vragen of een gesimuleerd mens dezelfde instincten zou hebben :D
Die laatste opmerking is dus waar het ook om kan gaan, instincten. Daar zijn overeenkomsten bij mensen maar ook grote verschillen.
Kijk heel eenvoudig in tijden van oorlog worden mensen ineens weer beesten en vertonen dus heel ander gedrag dan in een georganiseerde wereld.

Het is dus allemaal vrij complex, zoals eerder gezegd wij begrijpen nog maar een deel van ons zelf dus laat staan dat we een simulatie kunnen maken.
Ja het leven is complex, maar wij begrijpen het inmiddels steeds beter hoor:
https://www.rcsb.org/stat...n_source-organism-natural
http://biochemical-pathways.com/#/map/1

En ook in de praktijk inmiddels (onder het motto: if you can't build it, you don't understand it):
https://en.wikipedia.org/...istory_of_the_competition

Voor een goede simulatie is dus alleen exorbitant veel rekenkracht nodig. Of je moet een grove benadering maken. En ik denk dus zelf dat dat prima mogelijk is. Uiteindelijk zijn we puur reactief op onszelf en onze omgeving en dat gaat dus prima met onze hersenen alleen (die lang niet zoveel energie en rekenkracht vragen). Non-Von Neumann is the way to go.
We denken het beter te kunnen begrijpen maar waarom krijgt iemand ptst ?
Waarom kan iemand ineens van gedrag veranderen.

Zo denken we dat bepaalde delen van de hersenen bepaalde functies hebben maar dat bij hersenbeschadiging functies door andere delen ineens worden overgenomen.

Tijdje terug test gezien kregen mensen 1/2 uur lang magneet op hun hoofd. Bepaalde testen schatten van bijv aantal rode puntjes op scherm was toen veel beter.

Waarom is de ene linkshandig de ander rechtshandig, waar komt creativiteit vandaan. Hoog iq hoe komt dat.

Je zesde zintuig iets dat niet vatbaar is maar toch vele hebben of denken te hebben.

We kunnen proberen hersenen te simuleren probleem blijft echter, stop je er code in, ai in dit geval dan zal zich dat net als een baby, peuter, kleuter, pubertijd tot volwassenen moeten ontwikkelen, veel invloeden en de vraag is dan nog steeds wat komt er uit.
Al de voorgaande vragen is allang onderzoek naar gedaan.
Jij benadert deze vragen echter vanuit een psychologisch/sociaal/gedragsniveau, terwijl ik dat doe vanuit een moleculair / systeem biologisch niveau. De tweede lijkt mij veel relevanter voor mijn gemaakte punt en de vraag of dit 'connectome' in de computer te simuleren is en of dat genoeg is om een mens bij benadering te simuleren. Ik zie geen reden in jouw argumenten waarom zit niet het geval zou zijn. En wel in die van mijzelf.
We kunnen proberen hersenen te simuleren probleem blijft echter, stop je er code in, ai in dit geval dan zal zich dat net als een baby, peuter, kleuter, pubertijd tot volwassenen moeten ontwikkelen, veel invloeden en de vraag is dan nog steeds wat komt er uit.
Hier zit de kern, 'stop je er code in'. DNA is code, signaaltransductie (ook via eiwitten) is code, neurale netwerken zijn code. En naar mijn idee ook: omgevingsimpulsen, opvoeding zijn code! Wij zijn puur reactief t.o.v. onze omgeving. Lever je deze omgeving aan, dan zal ook de ontwikkeling naar mijn idee menselijk blijken. Maar ik geef toe, dat is nog een onbeantwoorde vraag, 'wat er dan uit komt'. Maar het lijkt er wel op dat die vraag steeds beter te beantwoorden word, i.i.g. bottom-up.

Je zal dus naar mijn idee wel een goede benadering van de werkelijkheid krijgen door dit alles na te bouwen. Zeker wanneer je de onderlinge netwerken ook goed begrijpt en na kunt bouwen (zie mijn IGem link).
Stop er code in DNA. Leuk onderwerp want DNA is idd de code voor de mens. Maar wederom wij begrijpen dna nog helemaal niet. We zijn bezig met dna modificatie maar verander je 1 dna schakelaar veranderen er ineens ook anderen zonder dat we echt weten welke dat zijn en wat ze doen. Ook op dna gebied staan we pas aan het begin zaken te begrijpen laat staat te veranderen.

Ons dna heeft zich ontwikkeld, duizenden jaren met veel rest dna zonder functie voor ons.

Je zegt de werkelijkheid na te kunnen bouwen, welke werkelijkheid van welke mens, waar op aarde. Jij beleefd en ziet zaken al anders dan ik dus laat staan dat we zouden weten hoe een computer dat zal zien.

Het zal net als de mens een zelflerende proces zijn zonder dat we de uitkomst weten. De mens in zijn oervorm, voorbeeld oorlog is niet de mens waarop is als computer zit te wachten. Die kan er echter wel uitkomen en of dat wenselijk is ?
Maar wederom wij begrijpen dna nog helemaal niet.
Pardon? Sorry, maar dit gaat mij zwaar aan mijn moleculair hartje. Wij begrijpen DNA heel goed en de complexiteit ook. En zonder het begrijpen van die schakelaars, zou het hele veld van de Systeem Biologie niet eens bestaan! De mens is nog wel wat te complex voor de mens al geheel, toegegeven, maar de basis, die van de schakelaars, die jij noemt, is universeel en inmiddels heel goed begrepen!
Ons dna heeft zich ontwikkeld, duizenden jaren met veel rest dna zonder functie voor ons.
Dat rest DNA is helemaal geen rest DNA, dat zijn bindingsplekken voor transcriptiefactoren en functionele verlengingen. Zo is er bijvoorbeeld het mediator complex, wat meerder transcriptiefactoren aan zich bind. Daarvoor moet het DNA wel een bepaalde lengte hebben om er omheen te kunnen lussen. Kortom, bijna al het DNA heeft een functie. Al is het maar om de evolutionaire reden dat de ruimte in een celkern zeer beperkt is en er toch ruimte moet zijn om de vele biochemische routes vorm te geven.
Je zegt de werkelijkheid na te kunnen bouwen, welke werkelijkheid van welke mens, waar op aarde. Jij beleefd en ziet zaken al anders dan ik dus laat staan dat we zouden weten hoe een computer dat zal zien.
Laten we blij zijn dat we de zaken anders zien, jij hebt alle recht op de jouwe. En het brengt ons verder naar in onze eigen persoonlijke waarheidsvinding. Maar zeg dan gewoon dat dit simpelweg niet is wat jij gelooft.

Een computer is wat betreft in essentie een reactief systeem, net als de mens. Dat de mens zichzelf in een speciaal licht ziet, is niet erg, we hebben immers veel dat ons bijzonder maakt, zoals muziek, dans, theater en kunst in het algemeen. Maar dat dit exclusief aan ons is toebedeelt en niet aan een Non-Von Neumann computer, zie ik dus vooralsnog geen (systeem biologische) argumenten voor.
De mens in zijn oervorm, voorbeeld oorlog is niet de mens waarop is als computer zit te wachten. Die kan er echter wel uitkomen en of dat wenselijk is ?
Ik denk niet aan een mens in zijn 'oervorm', ik denk aan een mens die juist heel helder is. Omdat hij bijvoorbeeld geen slaaptekort of honger ervaart. En de rest is dan opvoeding. Niks is onschuldiger dan een baby, het is wederom de omgeving die de mens vormt tot wie hij word.

Het probleem is ook dat men zich niet kan relateren met een gespecialiseerde 'robot'. Maar wanneer je het grondbeginsel accepteert dat een gesimuleerd mens een gewoon mens is, dan heb je per definitie geen robot meer. Dan staat robot gelijk aan mens. En dat kunnen mensen gewoon niet verkroppen (want cultuur, creativiteit) en dat snap ik ook. De aarde is niet meer het centrum van het zonnestelsel, maar dat maakt het zonnestelsel echt niet minder mooi, bijzonder en de moeite waard :+
Betreft dna wij bezitten veel dna dat niet actief is en vanuit vroeger misschien een functie heeft maar nu niets doet. Planten delen DNA met de mens.
We kennen de basis van DNA, klinkt leuk ik ben van mening dat we nog veel te weinig weten over de werking ervan laat staan het manipuleren en welke uitwerkingen dat heeft. In menselijke termen we weten evenveel van een baby weet.

Er is 1 heel groot verschil tussen men en computer.

Mens is natuurlijke computer om het in jou termen te omschrijven. Een computer is een gemaakt iets.
De evolutie van de mens gaat ook hand in hand met fouten in genetisch materiaal dat maakt het weer dat iedere nieuwe mens weer anders is dan beide ouders ondanks dna van beide.

Hoe uniek zal een computer mens dan zijn ? Of moeten we daar dan geprogrammeerde fouten inbouwen maar hoe willekeurig zullen die fouten zijn.

Maar goed we blijven verder van mening verschillen.
manipuleren
Modificeren. Manipuleren is niet gerichte modificatie en dan inderdaad niet weten welke uitwerking dat heeft. Zoals we dat vroeger dus deden. UV-stralingsbron op de zaden van een plant, met extra willekeurige mutaties tot gevolg en dan maar selecteren op de gewenste eigenschappen. Alleen Greenpeace zegt nog manipuleren en doet totaal geen recht aan het harde werk van wetenschappers de afgelopen decennia.
De evolutie van de mens gaat ook hand in hand met fouten in genetisch materiaal dat maakt het weer dat iedere nieuwe mens weer anders is dan beide ouders ondanks dna van beide.
Die fouten zijn wel functioneel, die stuwen de evolutie en maken ons weerbaar tegen allerlei ziekten, waar andere organismen wel weer gevoelig voor zijn.
Hoe uniek zal een computer mens dan zijn ? Of moeten we daar dan geprogrammeerde fouten inbouwen maar hoe willekeurig zullen die fouten zijn.
Niet zo uniek. Zo uniek als je zelf wilt. Andere opvoeding, andere computermens.
Geprogrammeerde 'fouten' zie ik niet direct een reden voor. Maar de computermens is dan ook niet DNA-based, we willen juist een 'schone' benadering hebben van de mens (wat ook maar 1 ras is ondanks culturele verschillen), dat is goed genoeg.
Maar goed we blijven verder van mening verschillen.
Ik denk het ook. Maar ik heb genoten van de discussie.
Heb je dan niet geleerd dat het soms nodig is om bewust een andere keuze te maken zodat je iets nieuws kan ontdekken?

Waarschijnlijk spring je er uit omdat andere mensen zeggen dat het een fantastisch gevoel geeft of je hebt filmpjes gezien waarin het er heel gaaf uit ziet. Oftewel je maakt een keuze tussen: - Op de grond blijven omdat je gevoel en inprenting dit zegt - Eruit springen omdat andere zeggen dat het gaaf is.

Alles is een keuze en jij maakt die keuze aan de hand van wat je geleerd is of wat je gezien hebt in je omgeving. Overigens kunnen sommige dingen je natuurlijk ook overkomen zonder dat je er voor kiest.
Ik bedoelde eigenlijk meer de filosofie / idee dat een 'bewustzijn' zich kan manifesteren in een vaste situatie, dus de afzonderlijke elektrische toestanden van een hoeveelheid transistoren tijdens een klokcyclus. Daar klopt iets niet in redeneren, als je het mij vraagt. Er is geen verbinding met tijd en de fysieke wereld waar alles een oorzaak en gevolg heeft.
De vraag is op welk niveau je het gaat simuleren. Vaak wordt een neuraal netwerk gebouwd. Een neuron van zo'n netwerk is een wiskundig model van een biologisch neuron, maar is toch wel een hele sterke vereenvoudiging. Naast elektrisch verkeer is er in biologische hersenen namelijk ook sprake van chemisch verkeer. Van het ons geheugen wordt bijvoorbeeld gedacht dat het een chemische basis heeft in onze hersenen. Voor een goede simulatie zul je daarom niet alleen de elektrische processen moeten simuleren, maar ook de chemische, met alle hormonen e.d. erbij.

Als ik lees over "simulatie van de hersenen" dan stel ik onmiddelijk de vraag: Op welk niveau ga je ze simuleren. Een volledige simulatie van elektrische simulatie blijft vooralsnog buiten ver bereik van de simulatiekracht van supercomputers, laat staan wat er gebeurt als we de chemische aspecten erbij gaan betrekken.

Een supercomputer die hersenen kan simuleren en daardoor een bewustzijn krijgt blijft daardoor vooralsnog science fiction, voor minimaal nog decennia.
En hoe weet je of iets een bewustzijn heeft? Ons bewustzijn wordt gevormd, we groeien op van baby tot een volwassen persoon. We leren van onze ouders en alle prikkels in onze omgeving. Een computer zet je gewoon aan, of uit, dat is heel iets anders. Misschien dat we op deze manier misschien beter gaan begrijpen wat een bewust zijn.
Mijn opvatting: ja, in de zin dat het reactief zou zijn op zijn omgeving en zichzelf. De rest is een mate van complexiteit. Wel is het menselijk brein natuurlijk wat instabieler onder invloed van suikerspiegel, hormonen, dag-nacht ritme en gevormd door zijn omgeving en culturele opvoeding.

Vraag terug: heeft een worm een 'bewustzijn' en zo nee, een mier dan, een muis, een kat? Is er uberhaupt een strakke lijn te trekken of is er sprake van een spectrum?

Zie ook C. Elegans (de worm) goes digital:
http://openworm.org/
Wat context en "insider informatie":

Een jaar of 2 geleden heb ik het genoegen gehad op een supercomputing-conferentie een lezing bij te wonen van Prof. Siewert Jan Marrink van de RUG, bekend van de ontwikkeling van het GROMACS-algoritme, dat bijvoorbeeld in Folding@home wordt toegepast.

Zijn inschatting was dat voor het simuleren van EEN (1) menselijke cel, op moleculair niveau met alle interacties die in zo'n cel plaatsvinden, zo ongeveer alle supercomputers ter wereld ongeschikt zijn. We zijn daar echt nog wel wat jaren van verwijderd. Interactie met een tweede cel, zal de simulatie naar verwachting ook nog eens verzwaren.

Voor de mensen die het hebben over een gevirtualiseerd brein: het ligt er dus wel aan hoe die simulatie in elkaar zit, maar verwacht zeker geen van-de-grond-af-molecuul-voor-molecuul-opgebouwd-realtime-werkende hersenen. Daarvoor zal ook exascale computing (helaas) echt een schijntje blijken te zijn.
Molecuul-voor-molecuul is dan ook helemaal niet nodig, zolang de abstractie correct genoeg is. Scheikunde als een geheel is een abstractie van natuurkunde, maar voldoet prima voor een hoop toepassingen. Op dezelfde manier hoeft 'alleen maar' de werking van de individuele neuronen in het brein geabstraheerd te worden om een bruikbare simulatie te maken.
Dat is een valide opmerking. Al zou het kunnen dat het voor het ontstaan van bijvoorbeeld zelfbewustzijn op een gegeven moment noodzakelijk blijkt om op een fundamenteler niveau te simuleren. De 'ruis' van willekeurige processen op microscopisch niveau zouden op macroscopisch niveau een onvoorzien doch essentieel effect kunnen sorteren.

De hele evolutie van soorten is in feite gebaseerd op het feit dat er op moleculair niveau zaken net niet helemaal gaan zoals verwacht: onvoorziene foutjes waarvan er bij wijze van spreken 100 onbruikbaar zijn maar af en toe weer 1 tussen zit waar de soort wat aan heeft.
Hoe ver zijn ze met de genoemde quantumcomputers, blijft dit theoretisch? Of zijn er stappen gemaakt? Want dat zal de conputerwereld op zijn kop zetten lijkt mij.
Volgens mij is een ding vrij zeker: echte quantumcomputers zitten nog niet op chips...
Misschien wel, misschien niet. :)
Ja en nee. Een kwantumcomputer is alleen een voordeel bij een beperkt aantal algoritmen. Daarbij is hij dan gelijk koning, omdat hij exponentieel veel mogelijkheden in constante tijd kan afzoeken. Maar qubits zijn schaars, een quantumcomputer van 128 qubits zou een doorbraak zijn. Voor een algoritme waar kwantumcomputers baat bij hebben zou dat enorm bruikbaar zijn. Voor een algoritme waar kwantumcomputers geen baat bij hebben zijn 128 bits helemaal niets. Een elektronische computer met veel geheugen, veel processoren en veel megahertzen geniet dan veruit de voorkeur.

Daarom zou een commercieel verkrijgbare kwantumcomputer weinig doen met de supercomputermarkt: Die markt zou gewoon blijven bestaan.
Niet te verwarren met mainframe, ook distributed computing is een interessant fenomeen.
"Tot slot: waar gaan we heen?"

...Skynet. ;)

Fascinerend wat je allemaal kunt doen met een "beetje" rekenkracht. Ook leuk om te weten dat mijn huidige desktop zo ongeveer net zo snel is als een supercomputer van een jaartje of 20 à 25 terug. :)
"Tot slot: waar gaan we heen?"

...Skynet. ;)
Skynet komt juist naar jou toe :+
SkyNet is een internationale express vervoerder met meer dan 1000 vestigingen in ruim 200 landen.
[...]

Skynet komt juist naar jou toe :+

[...]
[ALUHOEDJE]
Ook nog...?! Het wordt dus levensgevaarlijk! :o Die Skynet die jij noemt is vast een dekmantel voor deze:
https://nl.wikipedia.org/wiki/Skynet_(Terminator)
[/ALUHOEDJE]

:+
Dit wordt een hele enge toekomst waar we na toe gaan, als we hier geen duidelijke afspraken maken over het goede en het kwade over deze onvermijdelijke ontwikkeling.
Het probleem over die afspraken maken is de mens, die veel/meestal van uit een machtspositie denken, wat zal leiden tot chaos in deze ontwikkelingen.
Volgens wetenschappers die in deze (DO YOU TRUST THIS COMPUTER?) documentaire aan het woord zijn, is het a.i. van een pc over 5 jaar een feit!
Als dit binnen die tijd waar is, dan zie ik het somber in voor de nieuwe generatie, en denk dat hier geen duidelijke afspraken of regelgeving over te maken zal zijn, zeker als ik de wereld "leiders" nu al als kinderen gedragen.
Anoniem: 685641 17 september 2018 18:31
Er staan wat feitelijke fouten in het begin van het artikel. De Cray1 werd niet gebouwd door Control Data Corporation. Cray werkte daar weliswaar maar de eerste Cray bouwde hij pas na het oprichten van Cray Research. Hoeveel van de ideën hij daarvoor van CDC HD meegenomen zal altijd wel een vraag blijven.
Waarom draait een dergelijk apparaat niet op een sateliet? Koeling lijkt me in de ruimte geen probleem, als je een raampje open zet is het behoorlijk fris rond het moederbord. En met een bosje zonnepanelen kun je redelijk wat energie opwekken. Communiceren met een sateliet is geen enkel probleem. Iets repareren is ingewikkelder, maar als je het ding zo bouwt dat uitvallende onderdelen alleen rekenkracht kosten kun je wel even vooruit.
Omdat het niet goed koelt in de ruimte. Slechte warmtegeleiding.
Kijk bijvoorbeeld naar een thermoskan met 'vacuum' isolatie.
Bij industriële grootverbruikers ligt het tarief voor stroom toch nog wel een tikje gunstiger.
Zelfs als we met een sterk gereduceerd tarief van tien eurocent per kilowattuur en een vermogen van 10 megawatt rekenen, kost een uurtje rekenen met Summit al gauw duizend euro. Op jaarbasis zou dat bijna negen miljoen zijn.
Denk voor het gemak even aan de helft van de kWh prijs, mits je stroom afnamerecht ruim van tevoren kan inkopen. Typisch koop je een aanzienlijk deel van je stroom met langlopend vaste-prijs contract in en de rest flexibeler, maar nog steeds moet je voor fabrieken met een 10-30 MW vraag denken aan bedragen rondom de 5 ct/kWh.

Op dit item kan niet meer gereageerd worden.