Je hebt hier een te nauwe definitie van "ontwerpen".
Ontwerpen
heeft ook een vrij nauwe definitie.
Ontwerpen kan inderdaad één groot ding maken zijn dat wel of niet slaagt een goede AI te zijn. Maar je kunt ook iteratief ontwerpen, met meerder prototypes die wel of niet slagen in het halen van een bepaalde metriek.
Maar een emergent systeem heeft een onbekende set van metrieken. Wij weten niet waarom wij bijvoorbeeld bewustzijn bezitten. Of waarom sommigen van ons koffie lekker vinden. Of wat lekker vinden eigenlijk is en hoe dat in de hersenen wordt gegenereerd en verwerkt.
We weten wel wat, maar weten niet hoe het allemaal samenwerkt om ons op onze manier intelligent te maken.
Wij hebben intelligentie dus nog niet kunnen parametriseren en kunnen dus niet via 'guided evolution' tot iets komen dat net zo'n intelligentie heeft als wij.
Dat is hetzelfde als evolutie, maar dan sneller en met de mogelijkheid om terug te gaan naar de tekentafel als de ingeslagen weg fundamenteel inefficient blijkt te zijn.
Ik weet niet of het sneller is hoor. De natuur heeft dan wel veel latency maar ook
bakken met bandbreedte. Zo lopen er momenteel een paar miljard 'mensen' experimentjes. Doe dat maar eens na met een computer. Hoeveel computers heb je nodig om 1 paar mensenhersenen te simuleren? Weten we niet, want we kunnen het nog niet. Maar het zullen er zoveel zijn dat niemand nu nog de rekenkracht bij elkaar heeft staan in 1 systeem. Nou, de natuur doet dus
nu op dit moment miljarden van dit soort experimenten. En dat zijn dan nog de 'mensen' experimenten. De rest van het leven komt daar ook nog bij.
Wij kunnen dit dus nog lang niet sneller dan de natuur dat kan en die doet het ook al een stuk langer.
Buiten dat kunnen wij dus niet makkelijk bepalen of een ingeslagen weg in de toekomst, na wat verdere evolutie, nut kan hebben. Sterker nog, we weten niet of een ingeslagen weg nut heeft voor op korte termijn.
Stel je kiest een weg omdat er een bepaalde neuronverbinding opeens bijdraagt aan de totale inteligentie. Je weet dan niet of dat design later vast gaat lopen omdat dat ene neuon dan in de weg gaat zitten. Dat kan namelijk. Het kan dus zomaar zijn dat als je te selectief te werk gaat dat je dingen opbouwt waar je later mee zit (en je dus erg ver terug moet). De natuur komt dan sneller tot resultaat want die evolueert parallel daaraan een hele hoop dingen dier nu nog kansloos uitzien maar die in de toekomst potentie hebben. Wij kunnen dat allemaal niet overzien voor zo'n complex gebeuren als een stel hersenen. Maar dat is wel een vereiste voor de 'gerichte' methode. Je moet weten wat je doet.
We weten dus niet welke wegen tot resultaat zullen leiden. De natuur daarintegen doet het op een ongelovelijke schaal en denkt helemaal niet na over parametrisering. De werkelijkheid stelt de parameters en de organismen vullen het gat op. Volledig zelfstandig nog wel.
Ik denk dat voor complexe situaties de natuur gaat winnen.
Evolutie is NIET iteratief ontwerp. Iteratief ontwerp suggereert een doel en dat heeft evolutie niet. En het blijkt dus behoorlijk lastig om iets dat zonder een designdoel is ontstaan na te maken met een design methodiek. Gaat volgens mij niet werken, al is het alleen dat wij niet in staat zijn de implicaties van ons eigen 'design' te snappen. We kunnen dus nooit de juiste criteria stellen om het zelf te doen.
En evolutie gaat regelmatig terug naar de tekentafel. Dan is er weer een grote hoeveelheid organismes die niet tegen lava kunnen, of zuurstof ofzo. Maar dan is er (blijkbaar!) ergens een paar beestjes die dan wel overleven en zich vervolgens beter kunnen reproduceren.
Een ander belangerijk punt, al heb ik niet zo veel zin om verder te schrijven (

) is het feit dat wat wij 'intelligentie' noemen eigenlijk een zeer specifieke set van gedragingen is bedoelt om met de gangbare set van problemen om te gaan. Intelligentie is dus in eerste instantie specifiek! Iets dat zich in een andere omgeving heeft ontwikkeld dan de onze kan zich onmogelijk op dezelfde manier hebben ontwikkeld als wij.
Als je in het lab synthetische problemen creeert dan zal hetgeen je ontwikkeld daar intelligenite voor ontwikkelen. Het is dan de vraag of dat goed mapt naar real-life problemen.
Hoe ga je een selectie maken van best presterende AI's zonder ze te laten interacteren met de echte wereld?
Overigens wint de natuur hier weer. Die heeft altijd de werkelijkheid als proefwerk.
Om even terug te komen op je spaghetticode verhaal, de hamvraag is of je zoiets als (menselijke) intelligentie kunt krijgen zonder spaghetticode (dus processen die op een onvoorspelbare manier van elkaar afhankelijk zijn).
Ik denk dat je als programmeur meer zou moeten lezen over de afhankelijkheden in biologische processen en de manier waaarop dat gereguleerd wordt in een gemiddeld organisme. Pas dan ga je snappen (dat was iig bij mij het geval) hoe complex die spaghetticode is. En dan ga je hopelijk ook snappen dat er door die complexiteit nieuwe, onkwantiseerbare combinatiemogelijkheden 'emergen' die heel moeilijk zijn, zo niet onmogelijk zijn om bewust te ontwerpen.
[Reactie gewijzigd door koelpasta op 22 juli 2024 14:57]