DeepMind maakt AI dat 50 jaar oud matrix multiplication-algoritme verbetert

DeepMind heeft een nieuwe kunstmatige intelligentie uitgebracht die automatisch het meest efficiënte en goedwerkende algoritme kan zoeken voor matrix multiplication. AlphaTensor verbetert daarmee volgens het Google-bedrijf een vijftig jaar oud wiskundig algoritme.

DeepMind, dat onder Google valt, schrijft dat AlphaTensor voortborduurt op AlphaZero. Dat is de AI die eerder bekend is geworden omdat het bordspellen als Go kan spelen. AlphaTensor is een AI die zelf algoritmes kan opstellen om matrix multiplication-vraagstukken op te lossen. Dat algebraproces wordt onder andere gebruikt voor kleinschalige algoritmische toepassingen zoals het herkennen van spraakcommando's of het comprimeren van afbeeldingen. Hoe efficiënter een algoritme zo'n vraagstuk kan oplossen, hoe sneller de taak kan worden uitgevoerd.

De onderzoekers van DeepMind beschrijven in een paper dat in Nature is verschenen hoe het de efficiëntie in het vinden van dergelijke algoritmes verbetert in AlphaTensor. Het gaat daarbij specifiek om een implementatie van het Strassen-algoritme uit 1969. Dat algoritme is momenteel de beste manier om matrix multiplication op grote matrices uit te voeren. Voor dat algoritme er was, was de gedachte dat hoe meer matrices moesten worden vermenigvuldigd, hoe proportioneel moeilijker de berekening werd. Het Strassen-algoritme weerspreekt dat, maar het is altijd moeilijk geweest dat algoritme te vertalen naar code. AlphaTensor kan dat nu wel; de AI kan uit zichzelf, zonder basiskennis, het efficiëntste algoritme vinden.

DeepMind-onderzoekers beschrijven in de paper hoe AlphaTensor een algoritme heeft ontdekt dat twee matrices van vier rijen met vier cijfers in 47 vermenigvuldigingen kan oplossen. Met het Strassen-algoritme zouden dat er 49 zijn. Uiteindelijk hebben de onderzoekers enkele duizenden, functionele algoritmes gevonden. 14.000 daarvan werkten op grids van vier bij vier cijfers.

Volgens de wetenschappers zouden algoritmes op bepaalde hardware, waaronder de Nvidia V100-gpu en Googles eigen Tensor-tpu v2, een snelheidsverbetering van tien tot twintig procent behalen. De onderzoekers zeggen dat het bewijst dat AlphaZero ook buiten games kan worden ingezet en ook wiskundige problemen kan oplossen.

Door Tijs Hofmans

Nieuwscoördinator

08-10-2022 • 11:14

57

Submitter: MarvinMaker

Reacties (57)

57
56
28
5
0
15
Wijzig sortering
Heel mooie en belangrijke ontdekking, maar even een paar puntjes voor de goede orde:

Ten eerste is de titel geheel misleidend; deze AI heeft geen "50 jaar oud matrix multiplication probleem opgelost." Wat deze AI wel gedaan heeft, is een algoritme ontdekt wat sneller is dan het snelste algoritme wat we kennen in een heel specifiek probleem. Voor zover de auteurs weten is Strassen's algoritme het snelste algoritme om twee 4 bij 4 matrices over een eindig veld te vermenigvuldigen. Dit is een erg specifiek probleem, al helemaal het deel "over een eindig veld," wat bijvoorbeeld matrixvermenigvuldiging over gehele nummers uitsluit, en voor zover ik zo snel kon zien hebben ze niet sterk gemaakt waarom dit specifieke probleem zo relevant is.

Een tweede, en misschien nog wel belangrijker punt is dat deze AI specifiek naar algoritmes zoekt voor matrixvermenigvuldiging van constante dimensie over een gefixeerd veld. Strassen's algoritme, wat ze eerder al noemden als belangrijk voorbeeld waarover ze een verbetering hadden gevonden, werkt voor matrixvermenigvuldiging van variabele dimensie over ieder veld. Dat maakt dat de algoritmes die deze AI vindt, slechts heel beperkt toepasbaar zijn, en het is aannemelijk dat voor iedere toepassing waarvoor een efficient matrixvermenigvuldigingsalgoritme gevonden moet worden, de AI opnieuw getraind moet worden (al zijn bepaalde dimensies en velden natuurlijk meer belangrijk dan anderen, bijvoorbeeld 3 bij 3 matrices over de rationele nummers komen veel voor bij zaken die met de fysieke, 3D-wereld te maken hebben).

Dat allemaal gezegd hebbende is het zeer interessant om te zien hoe AI op deze manier gebruikt kan worden om wiskundige algoritmen te optimaliseren, en ik kijk er zeker naar uit hoe deze techniek zich verder ontwikkelt.
Wat deze AI wel gedaan heeft, is een algoritme ontdekt wat sneller is dan het snelste algoritme wat we kennen in een heel specifiek probleem. Voor zover de auteurs weten is Strassen's algoritme het snelste algoritme om twee 4 bij 4 matrices over een eindig veld te vermenigvuldigen. Dit is een erg specifiek probleem, al helemaal het deel "over een eindig veld," wat bijvoorbeeld matrixvermenigvuldiging over gehele nummers uitsluit, en voor zover ik zo snel kon zien hebben ze niet sterk gemaakt waarom dit specifieke probleem zo relevant is.
Hoe kom je erbij dat alleen bij 4x4 matrices verbeteringen zijn behaald? Dit voorbeeld wordt gegeven omdat het relatief simpel is en er al 50 jaar geen mens een betere methode heeft kunnen vinden terwijl de AI dit wel lukt, dat is aleen hele prestatie op zich. Uit de originele paper haal ik ook dat ze bijvoorbeeld verbeteringen hebben behaald bij 5x5x5 (98->96), 3x4x5 (48->47), 4x4x5 (64->63) en 4x5x5 (80->76) tensors. Daarnaast is de dimensie niet zo belangrijk, het gaat om de methode die breed inzetbaar is.
Een tweede, en misschien nog wel belangrijker punt is dat deze AI specifiek naar algoritmes zoekt voor matrixvermenigvuldiging van constante dimensie over een gefixeerd veld. Strassen's algoritme, wat ze eerder al noemden als belangrijk voorbeeld waarover ze een verbetering hadden gevonden, werkt voor matrixvermenigvuldiging van variabele dimensie over ieder veld. Dat maakt dat de algoritmes die deze AI vindt, slechts heel beperkt toepasbaar zijn,
Iedere matrix kan opgedeeld worden in blokken, zelfs als deze niet vierkant is. Een 8x4 matrix A en een 4x8 matrix B multiplicatie kan bijvoorbeeld opgedeeld worden in 4x4A0, 4x4A1 en 4x4B0, 4x4B1. Het resultaat is dan 4x4A0 x 4x4B0 + 4x4A1 x 4x4B1. Dit noem je ook wel tilen en is heel belangrijk bij implementatie op GPU door de hoge mate van parallellisatie.
en het is aannemelijk dat voor iedere toepassing waarvoor een efficient matrixvermenigvuldigingsalgoritme gevonden moet worden, de AI opnieuw getraind moet worden (al zijn bepaalde dimensies en velden natuurlijk meer belangrijk dan anderen, bijvoorbeeld 3 bij 3 matrices over de rationele nummers komen veel voor bij zaken die met de fysieke, 3D-wereld te maken hebben).
Het gaat nog iets verder zelfs, de AI moet getraind worden voor ieder nieuw type hardware. Ik denk dat dit onvermijdelijk is, een implementatie op tensor cores kan namelijk heel andere performance halen dan een implementatie op cuda cores. Aan de ene kant is dat mooi, want de performance wordt meteen gevalideerd tegen een real life implementatie en je bent altijd zeker dat je het onderste uit de kan haalt. Aan de andere kant kost het meer werk.
Sorry, misschien was ik niet helemaal duidelijk.
Hoe kom je erbij dat alleen bij 4x4 matrices verbeteringen zijn behaald? Dit voorbeeld wordt gegeven omdat het relatief simpel is en er al 50 jaar geen mens een betere methode heeft kunnen vinden terwijl de AI dit wel lukt, dat is aleen hele prestatie op zich. Uit de originele paper haal ik ook dat ze bijvoorbeeld verbeteringen hebben behaald bij 5x5x5 (98->96), 3x4x5 (48->47), 4x4x5 (64->63) en 4x5x5 (80->76) tensors. Daarnaast is de dimensie niet zo belangrijk, het gaat om de methode die breed inzetbaar is.
Inderdaad, deze AI heeft algoritmen ontdekt die sneller zijn dan Strassen in verschillende configuraties, bijvoorbeeld voor de matrices die jij noemt. Mijn punt is echter dat hoewel de AI breed inzetbaar is, de resulterende algoritmen dit niet zijn - deze werken enkel voor matrices van precies die dimensies.
Iedere matrix kan opgedeeld worden in blokken, zelfs als deze niet vierkant is. Een 8x4 matrix A en een 4x8 matrix B multiplicatie kan bijvoorbeeld opgedeeld worden in 4x4A0, 4x4A1 en 4x4B0, 4x4B1. Het resultaat is dan 4x4A0 x 4x4B0 + 4x4A1 x 4x4B1. Dit noem je ook wel tilen en is heel belangrijk bij implementatie op GPU door de hoge mate van parallellisatie
Goed punt, op die manier kan je inderdaad voor variabele dimensie ook mogelijk verbeteringen behalen. Ik weet niet genoeg van de materie om te bepalen of je door middel van tilen ook optimale (vanuit een klassiek computationele complexiteitsperspectief) algoritmen kunt behalen, al zijn de parallellisatievoordelen natuurlijk duidelijk.
(Zijnoot; een simpele manier om n bij n matrices door middel van tilen met tiles van c bij c te vermenigvuldigen levert (n/c)^2 tiles op, waarbij iedere tile n/c optellingen heeft. Dat levert al O(n^3) operaties op, waarmee dit dus geen optimaal algoritme is.)
Mijn punt is echter dat hoewel de AI breed inzetbaar is, de resulterende algoritmen dit niet zijn - deze werken enkel voor matrices van precies die dimensies.
Duidelijk, en eens.

Misschien interessant, tensor cores hebben bijvoorbeeld een 4x4x4 matrix array voor MAC operaties van 4x4 matrices:
https://developer.nvidia....ming-tensor-cores-cuda-9/
Zeker interessant, bedankt!
Beetje off topic maar hoe vind je zulke optimalisatie? Kijk je dan naar combinatie theorieën? Ik was net gisteren met Karatsuba bezig...https://wetenschap.infonu...ler-vermenigvuldigen.html
Wat ik begrepen heb is het minimaliseren van vermenigvuldigen omdat dit voor computers meer tijd kost. Dwz proberen vermenigvuldigen te vertalen naar "optel operaties" die veel eenvoudiger dus sneller is uit te voeren.
Voor integers klopt dat, voor floating-point waarden niet.

Het "vertalen" is op zich simpel: a*b = exp(log(a)+log(b)). Alleen, exp en log zijn veel duurder dan de eigenlijke vermenigvuldiging.
Kijk eens naar de reverse engineering van de Yamaha DX-7 synthesizer. Bij FM-synthese worden meer vermenigvuldigingen gedaan dan sommen. Daarvoor werkt ie op basis van een ROM die logaritmes van een sinus bevat. Als de waarden worden opgeteld is er eigenlijk vermenigvuldigd.
Als dan de echte waarde nodig is gaat het een exp-lookup in.
(Interessant is nog dat het hele ding gebaseerd is op schuifregisters, en er bij elke schuifstap ook een bit van een berekening plaatsvindt).
https://www.righto.com/search/label/dx7
Ik heb het vermoeden dat we binnen 1-3 jaar in een stroomversnelling komen van AI's die met zulke verbeteringen komen als bovenstaande.

Ene kant mooi, maar het luidt ook een beetje het einde in van de 'menselijke' kant in wetenschap zo voelt het
GPT-3 https://nl.m.wikipedia.org/wiki/Gpt-3 is al zover dat het complete jurdische teksten kan schrijven, waarvan een echte jurist dit niet van echt kan onderscheiden.

Met GPT-3 kan je de opdracht geven: schrijf de html en javascript voor een website die eruit moet zien zoals die website. GPT-3 genereert dan de complete source. Je kan ook kleine aanpassingen doen door te zeggen, voeg een menu toe, pas de styling op deze manier aan zinder dat je zelf ook maar een regel code of html hoeft te schrijven.
GPT-3 is al zover dat het complete jurdische teksten kan schrijven, waarvan een echte jurist dit niet van echt kan onderscheiden.
Juridische tekst is dan ook onbegrijpelijk, dus zo moeilijk is dat niet ;)
Nee, zonder gein. Echt heel knap wat mogelijk is.
Misschien een doorontwikkeling om een AI te maken die vervolgens een juridische tekst kan omzetten naar begrijpelijk Nederlands. Of die je een case kan voeden die dan tegen de juridische tekst getoetst wordt en dan in begrijpelijk Nederlands verteld waarom die case wel of niet in strijd is met die juridische tekst.
Dat lijkt me best handig als PA:
Zo'n AI kan dan de vele (volgens een onderzoek bij facebook 1000) pagina's legalese doorspitten die je bij al die EULA's voor allerlei services altijd als 'gelezen en begrepen' moet aanklikken.
Bijkomend effect: misschien dat niemand dan nog gebruik wil maken van TikTok, Insta, FB etc.
Inderdaad, dat zou heel mooi zijn: "ik wil dat je deze 10 pagina's samenvat en mij in 50 woorden laat zien wat mijn privacy status is" .

En nou zegt mijn intuïtie dat dat nou precies heel moeilijk is voor AI, dat moet een mens van vlees en bloed doen. Omdat het alles te maken heeft met context.
Nou niet echt juist doordat de omgeving van de woorden (zinnen, paragrafen) bepaald wat de context is kan je makkelijk bepalen (neurale netwerken hebben enorm veel features tot hun beschikking bvb.) of het schrift in kwestie medisch or juridisch is bvb.
En natuurlijk kan je woorden die niet vaak voorkomen vertalen naar woorden die wel vaak voorkomen en die je waarschijnlijk wel kent. Kijk maar eens naar "explain like I am 5".
GPT-3 https://nl.m.wikipedia.org/wiki/Gpt-3 is al zover dat het complete jurdische teksten kan schrijven, waarvan een echte jurist dit niet van echt kan onderscheiden.
Dat komt omdat het heel makkelijk is om juridische teksten te schrijven. Alleen in Amerika zitten al 1,3 miljoen juristen dus wereldwijd zijn er tientallen miljoenen mensen die niet van echt te onderscheiden juridische teksten kunnen schrijven.

Daarnaast hoeft een juridische tekst niet aan de belangrijkste voorwaarde van een normale tekst te voldoen: dat hij logisch en consistent is. Heel simpel voorbeeld: in een restaurant schrijven hygiënische wetten voor dat in de keuken de vloer glad moet zijn zodat bacteriën geen plek hebben om zich te vestigen en de arbo-wet schrijft voor dat de vloer stroef moet zijn zodat werknemers niet uitglijden over wat gemorste vloeistof.

De buitendeuren moeten naar buiten openslaan om bij brand de bezoekers snel naar buiten te kunnen laten vluchten en naar binnen openslaan zodat voorbijgangers geen plotseling opengaande deur in hun gezicht krijgen.

Elkaar tegensprekende juridische teksten waar een 'normaal' mens niet echt op zou komen. Juristen hebben er iets minder moeite mee en voor AI is dit honderd procent 'business as usual...'
Consistent en logisch is in eerste aanleg niet noodzakelijk. Maar als je een bouwwerk wilt realiseren, als bv een restaurant, is het wel degelijk noodzakelijk. Want zolang de tegenstrijdigheid niet is opgeheven, kom je geen stap verder. Wetteksten zij dan ook juist vaak helemaal niet zo specifiek, en laten ruimte over voor interpretatie. En dan is het de rechter die middels jurisprudentie daar invulling aan gaat geven.
AI voor programma code ... Simpele dingen ja, maar er zijn zoveel zaken om rekening mee te houden. Een volledige applicatie, not going to happen any time soon. Er zijn zoveel dingen waar je dikwijls moet mee rekening houden. Andere wetgeving per land. En dan het grootste probleem. De gebruiker geeft nooit alle info, die moet je er soms echt uit sleuren. En het is niet omdat een gebruiker zegt zus en zo, dat dit ook effectief echt gaat werken. Dan zijn er allerlei diensten waar je moet meer communiceren soms. Een simpele todo list ja (er was toch zoiets dat dit in react had gedaan), maar ga daar maar eens exporteren naar andere applicaties volledig automatisch en een kalender van merk X. Er zijn gewoon veel te veel variabele elementen.
Tot nu toe moet je erg slim zijn om deze AI's te ontwikkelen. Misschien zelfs fantastisch dat de meer creatieve, fluïde kant van de wetenschap dan weer naar boven komt. Optimisatie doet de AI wel. En wat dacht je van de implementatie van de resultaten?
Vraag: Wat ik niet helemaal snap, is het initiële 'probleem'. Je doet 10 soorten matrix multiplations op 100 verschillende matrices en kijkt welke het snelste is?

Dat is toch ook wat de AI hier doet, alleen op grotere schaal en met reinforcement learning die zelflerend nieuwe algoritmes probeert? Het is in die zin geen bewijs, maar meer triljoenen 'trials' en kijken wat het meest performant is.

Antwoord: het initiële probleem is dat we de snelste algoritmes niet weten, vooral bij grotere matrices.
1) Welke algoritmes zijn er nog meer?
2) Welke is het snelst?

Ps. Wie weet welke matrix multiplation in Lodash of in al je andere math packages zitten? (built-in Python, Matlab, etcetera)

[Reactie gewijzigd door Harm_H op 23 juli 2024 20:26]

Quasi alle software die een implementatie heeft van lineaire algebra is onderliggend gebaseerd op BLAS (voor matrix matrix vermenigvuldiging is dat BLAS 3), zie https://netlib.org/Blas.
Welk algoritme het snelste is? Dat is een serieuze wiskundige vraag. Die verbetering van 49 naar 47 operaties is een verbtering van het best bekende algoritme, maar dat is alleen maar het snelste bekende algoritme. We weten niet óf het in 46 operaties kan, laat staan hóe.

"Welke algoritmes zijn er nog meer", daar hebben we wel een idee van. Dat is letterlijk een oneindige set. Aftelbaar oneindig, dat dan wel. Algoritmes die 47 operaties nodig hebben voor een 4x4 matrix vormen een eindige set.
Ik las het woord tensor in dit artikel. Ik ben een noob, dus vergeef me als ik teveel aan het associëren ben geslagen maar heeft deze ontwikkeling ook niet mogelijke gevolgen voor complexe berekeningen in de quantum-mechanica waar ook veel met matrices wordt gerekend???
Het Strassen-algoritme weerspreekt dat, maar het is altijd moeilijk geweest dat algoritme te vertalen naar code.

Het hele concept van een algoritme is dat het een stappenplan is dat zich uitstekend leent om naar code omgezet te worden. Sterker nog, vaak worden algoritmen in pseudocode uitgeschreven.

Volgens mij zit de vork anders in de steel. Van wikipedia over het Strassen-algoritme:
It is faster than the standard matrix multiplication algorithm for large matrices, with a better asymptotic complexity, although the naive algorithm is often better for smaller matrices. The Strassen algorithm is slower than the fastest known algorithms for extremely large matrices, but such algorithms are not useful in practice, as they are much slower for matrices of practical size.

Lijkt er dus op dat Strassen vooral voor matrices van 'gemiddelde' danwel 'praktische' (tussen quotes want dat zijn niet echt definierende termen) grootte veelal het beste algoritme is om te gebruiken. Echter kun je met een AI wellicht nog efficientere stappenplannen verzinnen om een matrix-mult uit te rekenen. Is dat wellicht wat hier gedaan is m.b.v de AI? Zo ja dan heb je eigenlijk een meta-algoritme geïmplementeerd met de AI :+. Lijkt me goed om hier nog even verder in te duiken en het artikel aan te passen.

[Reactie gewijzigd door A Lurker op 23 juli 2024 20:26]

AI kan de mens verder helpen in ontwikkeling die we nu nog niet voor mogelijk houden.
AI maakt de mens alleen maar dommer, want de mens hoeft zelf niet meer na te denken.
"Garbage in, garbage out" blijft van toepassing.

Hoe slim je AI ook is, als je geen goede vraagt stelt kan je geen goed antwoord krijgen. Wat misschien veranderd is de manier waarop we moeten denken in dit soort situaties. Niet langer is het goed om zelf problemen op te lossen, nu is de vraag hoe we onze AIs moeten aansturen om dit soort problemen op te lossen.

Eigelijk is de mens bezig zichzelf te bevorderen tot management.

[Reactie gewijzigd door GoldenLeafBird op 23 juli 2024 20:26]

Helemaal mee eens. Uit een artikel uit 2018:"Amazon werkte de afgelopen jaren in het diepste geheim aan een selectie-algoritme. Op basis van cv’s en eerdere selectie van de honderdduizenden mensen die voor Amazon werken deed het algoritme aanbevelingen over wie je moest aannemen. Het bedrijf startte het project in 2014, maar Reuters schrijft dat Amazon er al in 2015 achterkwam dat dit algoritme een serieuze onderwaardering van vrouwen had. Was het voor het systeem bijvoorbeeld een plus als je ‘voorzitter van de schaakclub’ op je cv had staan, zodra er ‘voorzitter van de vrouwenschaakclub’ stond bleek dit juist een min op te leveren. Amazon heeft wel geprobeerd dit te corrigeren, maar wat het ook probeerde, het bleek geen garantie dat discriminerend aannamebeleid voorkomen kon worden. Uiteindelijk geloofde het bedrijf dan ook niet meer dat het systeem zou kunnen gaan werken. De stekker is er daarom definitief uitgetrokken. De vraag is: wat zegt dit nu precies? Het zegt níet dat de mensen bij Amazon seksistisch zouden zijn. Maar de vraag is of artificial intelligence eigenlijk wel het probleem was in deze. Het algoritme deed immers niets anders dan menselijk gedrag nabootsen.
Dit is een interessant voorbeeld! Dat raakt volgens mij ook aan dit artikel https://www.npo3.nl/brandpuntplus/algoritmes-discrimineren wat als voorbeeld politie in Amerika pakt in eerste instantie.
Anoniem: 454358 @BadPappa8 oktober 2022 21:08
Tja een algoritme kijkt naar feiten, dan kan het dus zijn dat veel vrouwen buitenspel worden gezet als die veelal niet full time werken, vaak afwezig zijn om voor de kinderen te zorgen etc. Een algoritme geeft daar "minpunten" voor, want niet volledig hart voor de zaak en weinig kans dat die full time++ gaat werken als hoger geplaatste dan nu of zelfs als ceo in de toekomst :+
Tja een algoritme kijkt naar feiten
Nee, een algoritme kijkt naar de ingevoerde data, groot verschil. Daardoor kan een algoritme, wat in zichzelf objectief is, wel een bepaalde kant op gestuurd worden.
One study found that, by teaching an artificial intelligence to crawl through the internet — and just reading what humans have already written — the system would produce prejudices against black people and women.
Dit citaat komt uit dit artikel van Vox: "Why algorithms can be racist and sexist; A computer can make a decision faster. That doesn’t make it fair." en dat gaat in opjuist dit soort biassen.
Och vice, tja, als je uitgaat dat alles fout is, dan kun je daar altijd wel een verklaring voor vinden.
Ziehier de basis van The Hitchhikers Gide To The Galaxy
Ik wilde hem nog net niet in m'n eerdere reactie zette, maar inderdaad! Dus hier het citaat met wat context:
"Forty-­‐two!" yelled Loonquawl. "Is that all you've got to show for seven and a half million years' work?"

"I checked it very thoroughly," said the computer, "and that quite definitely is the answer. I think the problem, to be quite honest with you, is that you've never actually known what the question is."

"But it was the Great Question! The Ultimate Question of Life, the Universe and Everything!" howled Loonquawl.

"Yes," said Deep Thought with the air of one who suffers fools gladly, "but what actually is it?"

A slow stupefied silence crept over the men as they stared at the computer and then at each other.
En ander voorbeeld is hoe algoritmes biassen krijgen doordat we er data invoeren met een bias. Dit artikel gaat in op een voorbeeld bij de politie in Amerika https://www.npo3.nl/brandpuntplus/algoritmes-discrimineren . Dan kan je algoritme nog zo goed zijn, je AI nog zo slim zijn, maar als je niet weet hoe je er mee moet omgaan dan levert het nog niets, of misschien zelfs het verkeerde op.
De wiskundige problemen en vraagstukken die middels onder meer deze AI worden opgelost zouden überhaupt nooit te behappen zijn door het menselijk brein. Over sommige vraagstukken zou een mens minimaal 1000 jaar doen om het op te lossen. Dus dat het de mens dommer maakt ben ik het volledig mee oneens.
Dat klopt misschien wel maar echt grote ontdekkingen worden gedaan door vaak toeval. Een algoritme is een vast gegeven:
Het maakt dus geen toeval. Het is wel handig maar dat is weer wat anders.

Een praktijkvoorbeeld;

Een vriendin van mij was master students en heeft een zeer belangrijke ontdekking gedaan. Ze moest 100.000 cellen over pipetteren en deed er per ongeluk 10.000 daardoor ging er iets heel anders groeien dan moest. Puur toeval.

Ze hadden dit proces ook door een robot kunnen doen. Die had keurig 100.000 cellen gedaan. De berekeningen door een AI zouden ook uitgegaan van 100.000 cellen. Was je er nooit achter gekomen. AI maken dingen sneller.

Waar ik vooral bang voor ben is. Je kan een AI gevoelens geven (is het mogelijk denk ik wel) je kan hem geweten geven (is in de toekomst ook mogelijk)
Maar het moeilijkste wordt hoe we AI net zo hypocriet laten worden als de mens. Want anders zou het met de eerste 2 toch echt onze ondergang worden?
Nou, het onderzoekswezen zou kunnen onderzoeken waarom een AI iets heeft gevonden. Ipv nu op voorhand een idee verzinnen, wat nergens toe kan leiden (ook nuttig daar niet van)
Serendipity is een groot goed. Plasticiteit van biologische systemen evenzo. Hedendaagse AI kan vooral heel goed het bos zien door vele bomen, daar blijft het voorlopig bij
Als je bv doelt op een rekenmachine dan ga ik met je mee, Maar de complexe AI die ik bedoel is straks ver boven wat we als mens zelf kunnen, dat gaat ons juist slimmer maken. We zien dan oplossingen die we nu niet zelf kunnen zien en daar kunnen we dan weer mee verder.

[Reactie gewijzigd door continue12345 op 23 juli 2024 20:26]

Nogal een bold statement. Mensen gaan anders nadenken op het moment dat ze door AI ondersteund worden, omdat ze niet meer alles zelf hoeven te onthouden. Net zoals dat je nu ook al ziet omdat we smartphones hebben met toegang tot een zoekmachine en/of wikipedia.

Het voordeel van een AI in deze hoek is dat het op een nieuwe manier het probleem kan proberen op te lossen. Mensen zitten vaak vast in een bepaald stramien. Een AI, zeker een deep learning AI, zit dat niet en kan daardoor met nogal andere oplossingen komen. Vervolgens is het aan de mens om dat te doorgronden, te valideren en van te leren.
Het meerendeel van de bevolking is altijd al "dom" geweest, met hedendaagse social maakt dit alleen veel overzichtelijker.
dat is zeker een mogelijkheid, vroeger onthield ik makkelijk telefoon nummers, nu totaal niet meer. Zal vast gedeeltelijk door de ouderdom komen maar ook omdat ik alles in me telefoon zet en het domweg niet hoef te onthouden.
Maar wat Continue12345 zegt is ook zeker waar, complexe dingen waar mensen hun hersenen op breken zullen door AI veel eenvoudiger worden opgelost.

Ik zelf ben benieuwd waar de samenleving heen gaat als echt alles overgenomen kan worden door AI en mensen niet meer hoeven te werken omdat het simpelweg goedkoper er sneller gedaan kan worden door robots.
Ik weet nog alle telefoonnummers van 30 jaar geleden. Maar niks van daarna :? :?
Dan kunnen we focusen op meer creatieve zaken.
Zelfde als dat mensen niet meer kunnen rekenen sinds de rekenmachine? Nope…
Zelfs de pabo slaat alarm over de rekenvaardigheid van nieuwe studenten? De meeste mensen zijn waardeloos in hoofdrekenen.
Daarom geef ik jonge mensen die aan de kassa zitten in de supermarkt altijd een compliment wanneer ik zie dat ze nog kunnen hoofdrekenen en niet afhankelijk zijn van de display met het teruggeven van wisselgeld, er zijn er zoveel die direct in de war raken wanneer je bijvoorbeeld zegt: 50ct erbij hebben ? Wanneer dat het teruggeven makkelijker maakt.
Het zal je verbazen hoe veel mensen moeite hebben om 31 - 13 te kunnen uitrekenen binnen een minuut.
Vaak kan je beter optellen of steggelen zoals 2 bij 31 bijtellen dus 33-13 en vanaf het antwoord 2 afhalen.
Nog dommer 😁😀🤔. Zolang we aan onderzoek en juristen 10x meer uitgeven dan aan het werkelijke probleem zal het wel meevallen. Misschien dat AI ooit het boeren verstand weer terug brengt, we maken alles veel te complex.
Als dat de uitkomst is wordt ik heel gelukkig.
Is Deepmind niet een dochteronderneming van Alphabet? (Ipv Google)
Ik ben duidelijk niet thuis in deze materie. Ik heb het stuk nu 3 x gelezen en er staat voor mij geen woord begrijpelijk "Nederlands" in. Ik ga terug naar de schoolbanken.
Het is fake news! Alleen bij een van voor af bepaald probleem is het sneller. Er wordt in het echt niks opgelost of verbeterd.

Op dit item kan niet meer gereageerd worden.