Deeplearningpionier Geoffrey Hinton verlaat Google, wil waarschuwen voor AI

Een van Googles belangrijkste AI-onderzoekers, Geoffrey Hinton, verlaat het bedrijf, deels vanwege zijn leeftijd van 75 jaar. Nu wil hij waarschuwen voor de mogelijke gevaren van de AI die hij heeft helpen ontwikkelen; iets waar hij nu zegt spijt van te hebben.

Geoffrey Hinton Google AI deeplearning neurale netwerken generatieve AI
Geoffrey Hinton

Hinton stopte in april bij Google en maakte dit nieuws maandag wereldwijd bekend, onder meer in een interview met The New York Times en de BBC. Hij wil zich kunnen uitspreken over kunstmatige intelligentie en waarschuwen over de mogelijke gevolgen, wat hij naar eigen zeggen niet kon doen als Google-werknemer. Hinton benadrukt dat zijn vertrek niet betekent dat hij zich kritisch wil uiten over Google, een bedrijf dat volgens de wetenschapper juist 'uiterst zorgvuldig' omgaat met AI.

Tegelijk vreest de onderzoeker dat de huidige machtsstrijd tussen bedrijven als Google en Microsoft om de beste generatieve AI te kunnen maken, negatieve gevolgen kan hebben. Hinton vreest op dit moment vooral dat er in de nabije toekomst veel neppe afbeeldingen, video's en teksten verspreid gaan worden die aan de hand van generatieve-AI-tools gemaakt zijn. De gemiddelde persoon zou daardoor niet langer weten wat waarheid is en niet, vreest Hinton. De geboren Brit is ook bang voor de mogelijk grote veranderingen in de banenmarkt.

Behalve voor de nabije toekomst is Hinton bang voor de gevolgen op de lange termijn, zoals autonome wapens. "Sommigen geloofden in het idee dat kunstmatige intelligentie daadwerkelijk slimmer kan worden dan mensen", zegt Hinton. "Maar de meeste mensen dachten dat dit ver weg was. Dat dacht ik ook. Ik dacht dat het dertig tot vijftig jaar was, of misschien wel nog verder weg. Dat denk ik duidelijk nu niet langer." Wetgeving kan hierbij mogelijk niet helpen, omdat dergelijk onderzoek in het geheim door bedrijven kan plaatsvinden. Hinton denkt dat het beter is als wetenschappers samenwerken om kunstmatige intelligentie onder controle te kunnen houden.

Geoffrey Hinton is een pionier op de gebieden van deep learning en neurale netwerken. Begin vorig decennium trainde hij samen met studenten van de Universiteit van Toronto neurale netwerken om objecten in afbeeldingen te kunnen herkennen en letters in zinnen te kunnen voorspellen, schrijft MIT Technology Review. Dit zijn technieken die aan de basis liggen van generatieve AI, zoals de chatbots die sinds eind vorig jaar worden uitgebracht. Hinton werkte sinds 2013 bij Google en was Google Fellow, een titel voor de belangrijkste ontwikkelaars of onderzoekers binnen het bedrijf. De wetenschapper staat ook bekend als de 'Godfather of AI'.

Door Hayte Hugo

Redacteur

02-05-2023 • 12:01

169

Submitter: Arator

Lees meer

Reacties (169)

169
163
46
2
0
102
Wijzig sortering
"In 2019 ontving hij de Turing-prijs, de hoogste onderscheiding in de informatica, samen met Yoshua Bengio en Yann LeCun, voor hun bijdragen aan deep learning en neurale netwerken."

Als dit soort mensen al waarschuwen voor de negatieve gevolgen van AI (valt in verkeerde handen, misbruik..) dan zou ik dat wel serieus nemen.

Ik hou heel erg van AI maar als je ziet hoe krachtig en toegankelijk het wordt dan vraag je je af wat het binnen 10 jaar zal zijn. Ik ben er zeker tegen dan (en mss al veel vroeger) dat er hier in de reacties een AI aanwezig kan zijn zonder dat iemand het door heeft.

Uiteindelijk zal AI de mensheid veel efficienter maken. Dat is goed, werken om te werken is maar banaal maar als het banenverlies plots hard gaat moeten wetgeving met een soort AI taks komen op mensen die een job aan AI verliezen te compenseren met loon. Ik zie geen andere oplossing of de klassieke economie zoals we hem nu kennen valt in elkaar.

Ik hoop ook echt dat we een oplossing vinden voor misbruik. Als Putin zo'n AI in handen krijgt dan is dat om zijn macht te vergroten. Als AI wordt ingezet voor staats-tv en propaganda, kan dit 24 uur per dag, 365 dagen per jaar doorgaan. Helaas zullen minder bevoorrechte mensen waarschijnlijk niet de middelen hebben, inclusief mogelijk AI, om onderscheid te maken tussen nep en echt nieuws.

Maar ook hier in Europa die ze je populistische politieke partijen opduiken die alleen maar voordeel hebben bij dit soort nep-nieuws. In Amerika stemt 50% op een president die gewoon leeft van leugens. Dit benadrukt enkel maar het gevaar van misleidende informatie en de noodzaak om actie te ondernemen tegen misbruik van AI en desinformatie.

[Reactie gewijzigd door Coolstart op 22 juli 2024 15:38]

Ik zie geen andere oplossing of de klassieke economie zoals we hem nu kennen valt in elkaar.
De economie zoals we die nu kennen is toch al niet houdbaar. Altijd maar groei is gewoon niet reëel en we beginnen steeds meer tegen de randen aan te lopen (of eroverheen te gaan). Concurrentie is goed wordt vaak geroepen. Dat is inderdaad leuk om de prijs te drukken, maar betekent vaak ook dat arbeidsomstandigheden verslechteren en hier en daar milieuregels worden overtreden (of productie verhuist naar landen waar soepeler arbeids-/milieuregels zijn, wat op hetzelfde neerkomt.)

Als AI de economie zo kan veranderen dat de knappe koppen van tegenwoordig niet bezig zijn om rijke mensen extra rijk te maken en mensen op advertenties te laten klikken, maar echt nuttig bezig zijn met bijvoorbeeld leefbaarheid, duurzaamheid, wetenschap, etc, dan juich ik dat alleen maar toe. Misschien dat de AI daar zelfs bij kan helpen. Kan het meteen leren dat mensen niet alleen maar de wereld om zeep helpen en dat eigen gewin niet het hoogste doel is.
Als AI de economie zo kan veranderen dat de knappe koppen van tegenwoordig niet bezig zijn om rijke mensen extra rijk te maken en mensen op advertenties te laten klikken, maar echt nuttig bezig zijn met bijvoorbeeld leefbaarheid, duurzaamheid, wetenschap, etc, dan juich ik dat alleen maar toe. Misschien dat de AI daar zelfs bij kan helpen. Kan het meteen leren dat mensen niet alleen maar de wereld om zeep helpen en dat eigen gewin niet het hoogste doel is.
De AI zal vooral in handen zijn van rijke mensen en die zullen vooral geïnteresseerd zijn in extra rijk worden. Dat is denk ik het grootste gevaar van AI, niet eens zozeer de AI zelf.
Natuurlijk zullen de cutting-edge technieken altijd voorbehouden zijn aan machtige personen. Het is niet zozeer de techniek die dit soort mensen machtig(er) maakt, maar vaak accumulatie van geld en bezit van de ene generatie naar de andere. En dan nog zijn er twee scenario's mogelijk;

1. Machtig persoon ziet de voordelen niet in van nieuwe techniek en laat het links liggen. Totdat deze zich op tijd realiseert dat de nieuwe techniek wel voordelen heeft. Koopt patenten en of bedrijven op die de techniek bezitten en blijft zo aan de top van de piramide.

2. Machtig persoon ziet de voordelen niet in van nieuwe techniek en laat het links liggen, en blijft volharden in zijn of haar oude businessmodel en gaat na een lange lijdensweg ten onder. Denk aan een bedrijf als Kodak.

Dus de nieuwste techniek belandt op een tijdslijn van jaren tot decennia toch in handen van de gevestigde macht. Ook deze techniek zal dat pad bewandelen. Je hoeft geen helderziende te zijn, dat dit massa ontslag betekend in de nabije toekomst. Er hoeft namelijk maar 1 bedrijf te zijn die het doet, en daarmee de meeste winst behaald, zodat alle anderen volgen. Maar goed, dit zal zeker maatschappelijke gevolgen hebben, en niet op een positieve manier.

Dit is natuurlijk nog maar een schijntje vergeleken met de gevolgen als er op een gegeven moment ergens een daadwerkelijk AGI opstaat. Dan zijn we als mensheid niet meer de slimste op de evolutionaire ladder. Een kijkje in de natuur leert ons dat dat meestal minder goed afloopt voor de tweede, derde en lagere rangen. Neanderthalers...
Verwijderd @Bekers2 mei 2023 13:40
2 kapitalisten markeerden je comment als 'ongewenst' :Y) Het zet je argument eigenlijk alleen maar kracht bij.

We zijn zo doodgegooid met het idee dat we altijd moeten groeien dat sommige mensen zich niets anders kunnen voorstellen. Het zou me ook niets verbazen als de AI-revolutie uiteindelijk de druppel blijkt, maar eigenlijk zegt dat niet zoveel over AI, maar meer over onze onhoudbare manier van leven.

/enigzins_offtopic
Het 'grappige' is dat ze zelfs bang zijn dat door AI 300 miljoen banen verloren gegaan. Je zou toch denken dat het uiteindelijk de bedoeling is dat we niet meer hoeven te werken en ons met leukere dingen bezig kunnen houden?
Tenzij je met klassieke werknemers juist je winstmodel in stand kunt houden. Je zou zeggen dat met minder werknemers, maar dezelfde omzet, je aanzienlijk meer winst kunt maken. Je hoeft immers geen loon meer te betalen en hebt misschien minder vierkante meters nodig voor je bedrijfsvoering. Maar als straks veel mensen gebonden zijn aan een soort basisinkomen omdat er simpelweg geen werk meer is, dan kun je ook veel minder met de prijzen van je producten spelen. Nu kun je nog zeggen 'werk maar harder of zoek ander werk zodat je dit fancy dingetje kunt betalen', maar straks gaat die vlieger misschien niet meer op. Dan kun je wel een bepaalde prijs vragen voor je product, maar als het gros van de bevolking simpelweg niet genoeg geld krijgt om dat product te betalen schiet je er niks mee op. En als straks steeds meer werk verricht wordt door niet-menselijke werknemers, dan gaat sowieso heel de maatschappij op de schop en werkt de economie zoals we die nu hebben waarschijnlijk niet meer. Dan is eindeloze groei niet meer mogelijk en verandert marktwerking ook aanzienlijk.

Nog iets duisterder is dat veel mensen nu min of meer slaaf zijn van het systeem. Teveel werken voor te weinig geld om vervolgens driekwart van je geld uit te moeten geven aan vaste lasten. Stoppen met werken is geen optie en ander werk zoeken vaak ook niet, of de motivatie ontbreekt volledig. Ergens kan ik me voorstellen dat multinationals dat systeem graag in stand houden. Meer geld in hun zakken, ze houden het systeem waar zij de vruchten van plukken in stand en de loonslaaf heeft weinig andere keuze. Als je die loonslaven kwijtraakt omdat AI het overneemt kun je mogelijk je systeem niet in stand houden, en verandering is eng. Verandering kan nadelige gevolgen hebben. Stel je voor... minder geld in je zakken, minder controle over je mensen.
Ja precies, dus AI is vooral een bedreiging voor de rijken.
Alleen als AI ook in handen komt van de gewone mens, niet alleen bij een paar superrijke bedrijven.
Maar wat als het delven van grondstoffen, transport en productie ook min of meer gratis worden? Machines die machines kunnen onderhouden, met wellicht een paar toezichthouders. Wat kost een product dan nog?
Laatst een programma op TV gezien over Chriet Titulaer en het Huis van de Toekomst. Daarin werden toen beelden getoond waarbij men de verwachting uitsprak dat we straks allemaal meer tijd hebben om leuke dingen te doen (sporten, vakantie, uitgaan, etc.) door de computer en slimme oplossingen in huis, maar dat we nu vooral meer tijd doorbrengen met het kijken naar schermen ipv die leuke dingen te doen. Ik zie een patroon... ;-)

[Reactie gewijzigd door hscheper op 22 juli 2024 15:38]

wat heb je aan leuke dingen doen als je het niet kan betalen omdat kosten blijven stijgen mensen minder worden ingezet en dus moeten inleveren op inkomsten etc?

al je vrije tijd besteden aan sociaal mediums en het streamen van video's, iets wat relatief goedkoop is?
Niet alles wat leuk is kost geld. Ik ga graag lopen of fietsen. Ik zou daar best meer tijd voor willen hebben ipv 8 uur per dag naar een scherm te staren.
Maar de hele mindfuck is dat als we echt een post-scarcity wereld krijgen, dan is geld niet meer nodig.
Je kunt iedereen gewoon een basisinkomen geven.

Alleen we moeten nog even wennen aan dat idee.
Veel mensen houden niet van verandering met als gevolg dat ze allerlei beren op de weg zien. Terwijl ik geloof dat goede ai juist de oplossing kan bieden in onze juiste economie.

Als je nu een huis wilt bouwen kan je met heel veel geluk 10 bouwvakkers vinden.
Vervolgens zitten er 100 man op kantoor die er allemaal wat van moeten vinden en het beter weten en het voor de bouw vakker onmogelijk maakt om het huis te kunnen gaan bouwen. Vervolgens zijn die bouwvakkers er ook klaar mee en besluit om zijn baan om te wisselen tot een kantoor baan en tot zijn grote verbazing gaat hij ook nog omhoog in salaris.

Als een goede AI er voor kunnen zorgen dat onzin banen verdwijnen en we in de bouw, onderwijs, zorg, landbouw, enz weer veel werkkrachten tot onze beschikking hebben waardoor de werkdruk omlaag kan dan zal ik zeggen liever gisteren dan vandaag.
Heb je hiervoor AI nodig?
Volgens mij heb je het al aardig op een rijtje wat er moet gebeuren...
Een ai zou prima kunnen controleren of een woning aan het woonbesluit voldoet en je zou de vergunningen aanvragen en het controleren van de aanvragen ook door een ai kunnen laten uitvoeren.
Dat heeft niks met AI te maken. Laat staan dat je tekorten in bepaalde sectoren gaat oplossen.

Dat er maar 10 man in de bouw zitten en 100 man op kantoor heeft er ook mee te maken dat de 100 man zich te goed voor voelen om in de bouw te gaan werken.
Net alsof iedereen daar op zit te wachten. De meeste Nederlanders hebben twee linkerhanden. En zijn niet een toonbeeld van fitheid.
Persoonlijk denk ik dat mensen op een gegeven moment ‘immuun’ worden voor AI propaganda. Zelfde als met geweld in het nieuws—>zap naar de volgende of de tell-sell of wasmiddel reklame. Geen hond gelooft het meer.

Uiteindelijk kan je dan nog zulke knappe propaganda hebben, maar het effect is dan nihil en de kleur van de auto van de buren is dan belangrijker
Ja zoals mensen ook uiteindelijk 'immuun' werden voor pseudo wetenschap. /s
Het leuke van AI is dat het hele school systeem op de schop genomen moet worden.
Het gene dat een hoogopgeleide 'meer' maakt is zijn vermogen om kennis op te slaan en toe te passen.
Dat is in de toekomst niet meer relevant want dat kan AI veel beter en efficiënter.

Dan hou je dus alleen werk over voor mensen die echt iets toevoegen aan de maatschappij.
Alle dingen behandelen die onlogisch zijn of volgens de kaders onlogisch lijken, wordt mensen werk.

[Reactie gewijzigd door whiner op 22 juli 2024 15:38]

Het gene dat een hoogopgeleide 'meer' maakt is zijn vermogen om kennis op te slaan en toe te passen.
Dat is in de toekomst niet meer relevant want dat gaat AI doen. Dat is in de toekomst niet meer relevant want dat gaat AI doen.

Dan hou je dus alleen werk over voor mensen die echt iets toevoegen aan de maatschappij.
Ik ben niet zeker wat je wil zeggen. Om 'kennis op te slaan en toe te passen' heb je toch wat redeneringsvermogen nodig? Of wil je zeggen dat hoogopgeleiden vaak 'dom' of 'repetitief' werk doen? Zoals administratieve management functies, content ordenen etc.

Open AI is voorlopig nog getrained door menselijke input. AI kan nog niet in een lab staan en chemische testen doen of een corona test uitvinden. AI kan voorlopig ook geen lampje vervangen of nieuw toilet installeren en meestal wordt dat niet door Dokters in de wetenschap gedaan.
Precies, dingen die met handen gedaan moeten worden kan een AI niet. Een corona-test uitvinden kan weer wel, dat is gewoon alle mogelijke combinaties afgaan op basis van voorgaand onderzoek / resultaten. Sterker nog, ik denk dat een AI dat veel sneller zou kunnen.
Een dokter is ook maar een dure automonteur die ook vaak een (medische) google bij pakt om de beste behandeling te selecteren. Een goede medische AI kan daar in ondersteunen, zonder dat de dokter alle kennis moet hebben (maar wel het begrip en inzicht).
In mijn beroep (technisch tekenaar) kan een AI ideaal zijn als ondersteuning "verander mijn model/machine zodat X verbeterd" en dan kan je als mens de gegenereerde optie beoordelen, en vervolgens door de AI de fabrikagetekeningen uit laten werken (en door de mens laten beoordelen).
Ik zie grote voordelen in bijv. juridische zaken, waar een goede non-biased AI recht veel eerlijker kan toepassen.
Medische Google? Dus ze studeren jarenlang om een zoekmachine te spelen? Sorry, maar dat vind ik erg denigrerend ten opzichte van dokters. Ja, ze hebben wel de UpToDate-app waar allerlei informatie in staat, met name over zeldzame ziektes/aandoeningen en nieuwe informatie omtrent bekende, maar ze doen een hoop toch uit hun hoofd.

In mijn beroep (vertaler) heb ik het al vaker zien misgaan, dat ontwikkelaars ineens erop vertrouwen dat machinevertaling de beste vertaling is. Ze willen het soms zelfs niet eens meer laten beoordelen door een menselijke vertaler, zelfs niet als er grove fouten in zitten. Dus laat AI binnen mijn beroep maar lekker wegblijven.

[Reactie gewijzigd door TheVivaldi op 22 juli 2024 15:38]

AI heeft echt prachtige toepassingen, vertalers / tekstschrijvers gaan het volgens mij echt wel zwaar krijgen met de komst van AI. Ongeacht de kwaliteit (al kan een AI wss wel gemakkelijk betere kwaliteit schrijven dan een gemiddeld nu.nl artikel), het is gewoon sneller, goedkoper, makkelijker, je kan makkelijk om wijzigingen vragen (hey bot, herschrijf het artikel eens met een wat serieuzere toon, en je hebt je edit binnen een paar seconde). Daar kan je als mens niet tegen opboksen, imo.

Wat wel ten aller tijde belangrijk blijft, dat de eindredactie toch nog altijd een mens is met juristische kennis gedaan wordt. Of in het geval van vertalingen door iemand die de taal kent. Want in mijn mening is het grootste gevaar wanneer we die AI's daar direct aan gaan koppelen. Dat AI zelf posts gaan publiceren / vertalen en complete magazines samenstelt zonder menselijke tussenkomst. Het wordt allemaal veel ste grijs. Als een jurist een verhaal uit zn duim zuigt dan kan die daar aansprakelijk gesteld worden en imagoschade oplopen. Wat nou als AI dat doet? Als de ene AI de andere na zit te praten op wat niet per se feiten zijn? Wordt wel gepubliceerd als zijnde nieuws, en men zal dat geloven.

Imo, dat is het enge waar we naar toe op weg zijn.
Binnen dit en 15 jaar is je beroep nog weinig zinvol me de evoluerende AI, met alle respect.
Met alle respect, daarom ook dat ik me ga omscholen.

[Reactie gewijzigd door TheVivaldi op 22 juli 2024 15:38]

Dat lijkt mij niet onverstandig. Goed dat je vooruitdenkend bent!
Een dokter blijft voorlopig min of meer noodzakelijk. Immers: Hij kent zijn patiënten, hij herkent symptomen en kan die min of meer goed koppelen aan de patiënt. Neem pijn op de borst. Die kan veel verschillende oorzaken hebben. Tot (OLK (Onverklaarde Lichamelijke Klachten) aan toe. Door gericht uitvragen in combinatie met de kennis die hij/zij in het verleden heeft opgedaan komt hij/zij tot een nauwkeurige diagnose.
Dat is de meerwaarde van een goede dokter. Hij zal in de nabije toekomst wellicht ai inzetten om de diagnose verder te differentiëren. Dus ai als gereedschap maar niet als vervanging van hem of haarzelf.
Een AI neemt vroegere klachten/aandoeningen en de nieuwe klachten mee en komt heel snel tot de statistisch meest waarschijnlijke aandoening. Waarbij een dokter een mens blijft en van de 10 mogelijke aandoeningen maar 8 bedenkt/relateert bij deze symptomen. Net omdat het pure feitenkennis is.
De beslissing of weging van de waarschijnlijkheid welke het is of waard is om verder uit te diepen, dat dient denk ik wel door een dokter gedaan te worden.
AI als een ondersteuning voor de brede feitenkennis, maar de beoordeling en ervaring door een mens.
Al denk ik dat daar ook de valkuil in zit, die ervaring krijg je alleen door het vaak te doen, en ook fouten te maken.Neem dat 20 jaar weg, en er is geen nieuwe aanwas aan mensen met echte ervaring meer (want dat wordt door de AI gedaan).
Precies wat ik bedoel. Dank voor je perspectief iig. Gelukkig ben ik 63.
Er zijn ook pijnen die puur psychologisch worden veroorzaakt, of neem nu kinderen die zelf moeilijker kunnen uitleggen waar het juist pijn doet. Hier zal je toch van bepaalde menselijke ¨routines¨ moeten gebruik maken die een AI nog niet heeft.

Uiteindelijk zal zowel de AI en de mens fouten maken, maar elk in hun gebied dat anders zal zijn. De AI kan bv. een heel stuk sneller en meer oorzaken aanwijzen waar de dokter (net op die moment, slechte dag, whatever) niet aan dacht en de AI wel. Zo zal de AI een oorzaak aanduiden die de dokter kan afdoen als false positive omdat hij/zij de patient kent en misschien een vermoeden heeft dat het komt door iets dat de patient niet wil vertellen maar de dokter wel weet (via via of een aanvoelen)

Kortom ik denk dat ze elkaar vermoedelijk ook eerder zullen aanvullen dan vervangen.
En dan komt de (AI van de) verzekeringsmaatschappij langs en bepaald dat het financieel efficienter is om de dokter niet te raadplegen.

Heb ik een doembeeld van AI? Ja, geef ik gerust toe.
Jouw beeld van "AI is gereedschap, geen vervanging" lijkt mij te naief. En over een jaar of 5 tot 10 misschien wel irrelevant. Natuurlijk hoop ik dat jij gelijk krijgt en niet ik, maar daarop rekenen? Nee dus.
Niet helemaal met je eens. Ik ben bang voor kwaadwillende en hoogopgeleide mensen die zonder relevante opleiding of ervaring op andere gebieden straks allerlei op het oog kloppende misinformatie de wereld in kunnen sturen om hun doel, beïnvloeding van de mening van anderen, te realiseren. Door inzet van hun redeneringsvermogen.
Het bovenstaande, gecombineerd met influencers en sociale media, bezorgt me de kriebels, eerlijk gezegd.
ik zie niks nieuws eigenlijk...
Interessante kijk heb je op de kwestie, ik zie het een beetje anders.

De reden is omdat veel van deze kennis en tools juist open en toegankelijk zijn voor iedereen. De producten die op AI/KI technologie ontwikkeld gaan worden hoeven dat niet te zijn, maar zo werkt het nu ook al met technologie.
Ik begrijp wel een beetje wat hij zegt en dacht daar laatst zelf aan. Sommige WO studenten en ook mijn ex partner, die kunnen heel goed boeken lezen en onthouden > Examens halen. Maar erg slim vind ik hun verder niet. Op mijn werk hetzelfde. Ik zit naast iemand die alle diplomas en certificaten heeft.. Maar als hij echt werk moet gaan verzetten.. Dan lukt het hem niet echt. Vooral op dingen aan elkaar te knopen en te navigeren en met een aanpak komen. Maar hij weet wel nog alle moeilijke vragen en antwoorden van het examen en uit de boeken!
[...]


Ik ben niet zeker wat je wil zeggen. Om 'kennis op te slaan en toe te passen' heb je toch wat redeneringsvermogen nodig? Of wil je zeggen dat hoogopgeleiden vaak 'dom' of 'repetitief' werk doen? Zoals administratieve management functies, content ordenen etc.

Open AI is voorlopig nog getrained door menselijke input. AI kan nog niet in een lab staan en chemische testen doen of een corona test uitvinden. AI kan voorlopig ook geen lampje vervangen of nieuw toilet installeren en meestal wordt dat niet door Dokters in de wetenschap gedaan.
Ik heb het over de toekomst. AI wordt heel erg snel veel slimmer, helemaal wanneer de eerste quantum computer gebruikt gaat worden in combi met AI. Dan kunnen de testen die jij nu opnoemt allemaal gedaan worden door AI.
Op zich deel ik je mening, maar je argumenten zijn niet in orde.
Chemische testen doen is reeds decennia gerobotiseerd. En met de huidige verzonnen technologie kan AI in minuten een vaccin tegen elk willekeurig virus ontwikkelen. Het is de mensen gecreerde red-tape waarvoor je mensen (en veel tijd) nodig hebt om weer door die red-tape heen te komen.

De menselijke factor is en blijft hopelijk nog heel lang: welke conclusie mag ik verbinden aan dit onderzoek/rapport/test/meting? En pas daarna kan er een een actie in gang gezett om iets met die conclusie te doen.
AI kan helpen om die conclusie te vinden en controleren of onze bevindingen zijn, maar kan voorlopig geen waarde oordeel geven.
En met de huidige verzonnen technologie kan AI in minuten een vaccin tegen elk willekeurig virus ontwikkelen.
was dat maar zo, dan zou ik het echt toejuichen. Ik vrees toch dat je hier echt voorbij gaat aan wat er allemaal komt kijken bij het ontwikkelen van een nieuw vaccin.
Het gene dat een hoogopgeleide 'meer' maakt is zijn vermogen om kennis op te slaan en toe te passen.
Vooral dat laatste. Veel dingen kunnen onthouden maakte je wellicht 30 jaar geleden "hoogopgeleid" het is nu toch vooral het kunnen beredeneren en toepassen van kennis. Dat is ook wat nodig zou zijn in jouw voorbeeld van zaken behandelen die door kaders onlogisch lijken. Daarmee zie ik niet in dat het verschil tussen hoog of laagopgeleide mensen drastisch gaat veranderen.
Wat juist een probleem is en wat AI (nog) niet kan is parate kennis kunnen combineren met redenatie en toepassing. Ik denk zelf dat het echt een denkfout in het onderwijs is dat er veel op uitvoerende competenties wordt gestuurd terwijl feitenkennis (waar tegenwoordig bijna op wordt neergekeken/‘dat kun je opzoeken’) zorgt voor context. Het kunnen opzoeken en laten opzoeken (door bv AI) zorgt voor enorm versplinterde waar de context zoek is.
Verwijderd @whiner2 mei 2023 13:53
Het grootste probleem is wanneer praktische persoon hard bezig is met het werken met zijn handen, in die zelfde tijd is een theoretische persoon bezig met het full time beschermen van zijn vakgebied en te kijken hoe die nog meer kan verdienen.
in de praktijk stuurt die praktische persoon gewoon een factuur à EUR 90/h voor het "ontstoppen van de wc / installatie warmtepomp / installatie keuken"....you get the point.
Mijn buurman is keukenzetter zonder scholing en harkt per maand als ZZPer een veelvoud van mijn salaris binnen....op z'n 63ste. Gewoon omdat hij goed is (hij heeft ook mijn keuken gezet :+ )

Mijn andere buurman is jurist, maar kan zelf nog geen kwast vasthouden en heeft hulp nodig bij simpele dingen als een boompje verplaatsen of een lampje ophangen.

[Reactie gewijzigd door divvid op 22 juli 2024 15:38]

Hoewel het belangrijk is om de potentieel negatieve gevolgen van AI te erkennen en te adresseren, lijkt de argumentatie van dit stukje enigszins tegenstrijdig. Enerzijds wordt benadrukt dat AI efficiëntie en vooruitgang kan brengen voor de mensheid, maar anderzijds wordt gevreesd voor banenverlies en de klassieke economie die in elkaar valt. Een "AI taks" om banenverlies te compenseren lijkt een onrealistische en onpraktische oplossing, maar goed, we zullen zien hoe het gaat lopen.

[Reactie gewijzigd door Ger0nim0 op 22 juli 2024 15:38]

Enerzijds wordt benadrukt dat AI efficiëntie en vooruitgang kan brengen voor de mensheid, maar anderzijds wordt gevreesd voor banenverlies en de klassieke economie die in elkaar valt.
Wat is daar tegenstrijdig aan? Pro's en cons belichten kan toch?
Een "AI taks" om banenverlies te compenseren lijkt een onrealistische en onpraktische oplossing, maar goed, we zullen zien hoe het gaat lopen.
Dat hoor ik vaak. Maar wat zie je dan als oplossing in onze economie als het event zich voordoet? Ik spreek van 'als' want de komende 10 jaar zie ik dat niet gebeuren maar zodra AI beter wordt lijkt me dat realistisch omdat er plots 20-30% zonder job valt.

Je moet volgens mij geen helderziende zijn dat bepaalde jobs plots heel hard door AI kunnen overgenomen worden. Chauffeurs, helpdesk medewerkers, programmeurs, administratief personeel in allerlei sectoren. Je spreekt toch al snel van 50% van de banen die plots bedreigd worden. Beetje afhankelijk hoe snel AI zal evolueren.
Wat is daar tegenstrijdig aan? Pro's en cons belichten kan toch?
Correct.
Dat hoor ik vaak. Maar wat zie je dan als oplossing in onze economie als het event zich voordoet? Ik spreek van 'als' want de komende 10 jaar zie ik dat niet gebeuren maar zodra AI beter wordt lijkt me dat realistisch omdat er plots 20-30% zonder job valt.
Ik ben ervan overtuigd dat er betere oplossingen zijn wanneer er 20-30% van de banen komen te vervallen.
Je moet volgens mij geen helderziende zijn dat bepaalde jobs plots heel hard door AI kunnen overgenomen worden. Chauffeurs, helpdesk medewerkers, programmeurs, administratief personeel in allerlei sectoren. Je spreekt toch al snel van 50% van de banen die plots bedreigd worden. Beetje afhankelijk hoe snel AI zal evolueren.
Ergens ben ik heel benieuwd naar het resultaat, maar aan de andere kant ook weer niet, ik vind het maar eng.
Wat betreft belastingen/inkomsten: Dit is inderdaad belangrijk, en moeten we van te voren bedenken. We hebben nu nog even om hier goede regels te bedenken, en niet zoals zoveel dingen voor ons uit te schuiven voor het te laat is.

De onderliggende vraag is: hoe kunnen we iedereen een goed menswaardig bestaan blijven garanderen als 30/50% van de werkgelegenheid wegvalt, terwijl (enorme) winsten naar 1, 2 of drie grote (buitenlandse) ICT bedrijven vloeien? Daarnaast kunnen diezelfde mensen wel helpen in de ziekenhuizen, of op andere plekken die op het eerste gezicht alleen geld kosten.

Als we tijdig een aantal uitgangspunten noteren, kunnen we snel en goed reageren op het moment het werkelijk voordoet, en weet iedereen wat er gaat gebeuren, en heb je de grootste discussies al gehad. Misschien ook slim om dit dan op Europees niveau uit te regelen.

Te denken valt dan:
  • maximeren winst
  • maximeren aantal uren per werkweek
  • invoeren basisloon
  • bonuspunten voor sociaal (vrijwilligers-)werk
Ik heb het goevoel dat iemand zo een AI comment gaat copy-pasten…
Als dat comment geen spel- of grammaticafouten bevat, is het ai.
Uiteindelijk zal AI de mensheid veel efficienter maken. Dat is goed, werken om te werken is maar banaal maar als het banenverlies plots hard gaat moeten wetgeving met een soort AI taks komen op mensen die een job aan AI verliezen te compenseren met loon. Ik zie geen andere oplossing of de klassieke economie zoals we hem nu kennen valt in elkaar.
En hier geloof ik dus niet in. Het probleem met nieuwe ontwikkelingen is dat we ons geen voorstelling kunnen maken van de gevolgen daarvan. We bedenken doemscenario's maar we vergeten daarbij de positieve mogelijkheden.

Die fout maken we als mensen keer op keer. Denk even een dikke halve eeuw terug; wie had toen kunnen denken wat voor functies er nu allemaal bestaan die op een of andere manier met IT te maken hebben? Oud-IBM directeur Thomas Watson worden de woorden toegeschreven dat hij denkt dat er een wereldwijde markt is voor misschien vijf computers. Die stelling is weliswaar discutabel, maar we zitten er wel eens vaker naast met onze voorspellingen over de technische toekomst, gebruik van mobiele telefoon of computer. Ik zou me best voor kunnen stellen dat mensen in de eerste decennia dachten dat de computer er voor zou zorgen dat zo ongeveer iedereen werkloos zou worden, maar kijk nu eens hoeveel mensen er werk hebben DANKZIJ diezelfde computer. Waarom zou datzelfde niet met AI gebeuren?

Misschien komt het door mijn onverbeterlijke optimisme, maar ik zie het allemaal echt niet zo somber in. AI gaat ons ontzettend helpen met het oplossen van allerlei problemen op medisch gebied, het voeden van alle mensen en onze strijd tegen de opwarming. En ja, het zal óók een aantal negatieve ontwikkelingen kennen,
Misschien komt het door mijn onverbeterlijke optimisme, maar ik zie het allemaal echt niet zo somber in. AI gaat ons ontzettend helpen met het oplossen van allerlei problemen op medisch gebied, het voeden van alle mensen en onze strijd tegen de opwarming. En ja, het zal óók een aantal negatieve ontwikkelingen kennen,
Ik wil AI zeker niet tegenhouden of een slecht daglicht brengen maar gewoon de realiteit benadrukken. AI zal ons zeker verder helpen op alle vlakken maar als we iets geleerd hebben van revoluties is dat het heel hard kan aankomen en niet altijd in het voordeel van het volk. De industriele revolutie is zeker positief geweest maar het milieu heeft een knap gekregen, de arbeiders werden armer en armer en de industriële bourgeoisie rijker en rijker omdat ze eigenaar waren van fabrieken en rederijen.

De economie groeide aanzienlijk tijdens de Industriële Revolutie, als gevolg van de toegenomen efficiëntie in de productieprocessen. Hoewel de handel bloeide, konden niet alle mensen daarvan profiteren, vooral niet de arbeiders in de fabrieken. Deze arbeiders werden geconfronteerd met uitdagingen zoals een slechte gezondheid door de ongezonde werkomstandigheden, langere werkuren, lage lonen en kinderarbeid.

Ook Hitler heeft van die Industriële revolutie misbruik gemaakt om een krachtige oorlogseconomie op te zetten zodat zijn rijk verder kon groeien op ander grondgebied. Met propaganda is nepnieuws is hij er in geslaagd zijn volk te overtuigen ten oorlog te trekken.
Die IBM'er had/heeft misschien toch wel gelijk. Ook nu nog. Hangt er nogal vanaf wat je classificeert onder computer.

Zoals deze orgineel is opgezet, zijn wat tegenwoordig is geclassificeerd als supercomputer, een 'computer' in de oude opzet. Zelfs 1 'mini-computer' van IBM in die dagen was voldoende voor top 500 multinationals.

PC betekent nog altijd Personal Computer en is de allerkleinste variant.

Nou weet ik ook wel dat de huidige PC menig computer uit de beginjaren voorbij streeft als het gaat om rekenkracht. Zeker als we fysiek volume ook in de vergelijking betrekken.

Maar men vergeet tegenwoordig snel de context waarin die uitspraak ooit eens is gemaakt. Hou je daar echter wel rekening mee, dan ligt die uitspraak nog altijd niet ver van de werkelijkheid.
Daarnaast is de software vaak niet meer efficiënt geschreven. Je wilt niet weten hoeveel sneller software kan zijn als je het goed sorteerd. Ja je krijgt meer en duplicate data, maar het is wel veel sneller te lezen. Schrijven daarentegen duurt langer, moet soms complete lijsten updaten voordat alles gesaved is(saven van GB/TB). Er is daarin ook een sweet spot, die moet alleen nog gevonden worden. Daarnaast kost het meer geheugen, maar het kan rete snel zijn op een telefoon, horloge. Ik ben momenteel bezig met de ontwikkeling van waarschijnlijk een fraai performant stukje objecten lezen van ssd, met 12GB/sec (pci5) zie ik daar wel toekomst in. Nu moeten die grote object lijsten naar 1 x per dag refresh, maar kunnen die kleine lijsten van een paar duizend objecten per minuut / direct geüpdatet worden. Ook kan hetgeen nog in ramdisk draaien, wellicht een boost, maar heb je wel veel ram nodig.
"In 2019 ontving hij de Turing-prijs, de hoogste onderscheiding in de informatica, samen met Yoshua Bengio en Yann LeCun, voor hun bijdragen aan deep learning en neurale netwerken."

Als dit soort mensen al waarschuwen voor de negatieve gevolgen van AI (valt in verkeerde handen, misbruik..) dan zou ik dat wel serieus nemen.
Hij is maar één persoon. Ik luister liever naar mensen die daadwerkelijk kennis hebben van AI beleid, zoals onderzoekers die werken aan de ethische en legale aspecten van AI. Zie bijvoorbeeld: https://internetpolicy.mi...rch/machineunderstanding/
Uiteindelijk zal AI de mensheid veel efficienter maken. Dat is goed, werken om te werken is maar banaal maar als het banenverlies plots hard gaat moeten wetgeving met een soort AI taks komen op mensen die een job aan AI verliezen te compenseren met loon. Ik zie geen andere oplossing of de klassieke economie zoals we hem nu kennen valt in elkaar.
Dat riepen mensen tijdens de industriële revolutie ook al. En toen robotisering en automatisering een grote vlucht namen met de introductie van de microcontroller werd het weer geroepen. Inmiddels zijn er genoeg fabrieken waar 99% van het werk gedaan wordt door robots, en er is nu meer werk dan er ooit is geweest. Ga maar eens binnen kijken bij een autofabriek :)
Ik hoop ook echt dat we een oplossing vinden voor misbruik. Als Putin zo'n AI in handen krijgt dan is dat om zijn macht te vergroten. Als AI wordt ingezet voor staats-tv en propaganda, kan dit 24 uur per dag, 365 dagen per jaar doorgaan. Helaas zullen minder bevoorrechte mensen waarschijnlijk niet de middelen hebben, inclusief mogelijk AI, om onderscheid te maken tussen nep en echt nieuws.
Als Putin dat wilt doen dan gebeurt dat, met of zonder AI. Met een oneindig propaganda budget kun je alles, of je nou AI hebt of niet. Zie bijvoorbeeld de trollen fabriek van Putin: https://www.rtlnieuws.nl/...pnieuws-russische-trollen
Beste mensen, volgens mij is dit al een propaganda AI van de USA, als deze specifiek naar een Putin refereert..
Hierbij de reactie van ChatGPT op het artikel:
Interessant om te zien dat Geoffrey Hinton Google verlaat om te waarschuwen voor de mogelijke gevaren van AI. Het is verontrustend dat hij zich zorgen maakt over de machtsstrijd tussen bedrijven en de mogelijke gevolgen van generatieve AI. Hopelijk kunnen wetenschappers samenwerken om kunstmatige intelligentie onder controle te houden en de mogelijke risico's te beperken.
Yann LeCun heeft niet zo'n hoge pet van de huidige (gpt-4) LLM's.

De geest is verder uit de fles, dus we gaan het meemaken. Toekomst is vaak anders dan we voorspellen. Niemand is expert met voorspellen.
Copiloot, mijn pair programmer komt toch soms met goede suggesties. Dat ik het vaak anders wou, is mijn keuze. Dingen toevoegen doet ie goed, wat bijvoorbeeld beter kan is uitlening, dan is ie nog stil.
Helaas zullen minder bevoorrechte mensen waarschijnlijk niet de middelen hebben, inclusief mogelijk AI, om onderscheid te maken tussen nep en echt nieuws.

Ik ben oprecht benieuwd naar wat je als "minder bevoorrechte mensen" ziet.

Mijn verwachting is dat binnen no-time (tussen nu en 24 maanden) niemand meer weet wat echt of nep is. Voor zover mensen dat nu al kunnen zien / bevatten.

Overigens is dit geen kritiek, maar je gebruikte bewoordingen kunnen op verschillende manieren gelezen worden.
Spijt hebben van iets wat je hebt helpen ontwikkelen. Dat hadden de makers van A-bom ook nadat die was gebruikt. Maar het is vrij simpel. Als A het niet had ontwikkeld, dan had B het gedaan. Als de eerste stap op een pad is gezet, dan is terugkeer niet meer mogelijk. Je kunt hooguit proberen sturing te geven.
Dit is nog veel erger, niet qua impact, maar qua hypocrisy: Hey guys, ik heb m'n geld en awards al binnen, ik ga nu met pensioen! Maar, euh... Oeps! Wat ik heb gemaakt zou wellicht eens niet zo heel goed kunnen zijn voor de mensheid. Veel success ermee! Don't call us, we won't call you! |:(
Dat is toch een mit licentie met een mooie schenking?
“Now we are all sons of bitches.” - Oppenheimer
Ik vind het nog steeds raar dat de term AI gebruikt wordt. Wat mij betreft is er namelijk helemaal geen sprake van intelligentie. Ook generatieve AI doet niet niets anders dan informatie die er al is op een andere manier presenteren. Het is daar extreem goed in en daarom mijns inziens erg nuttig. Bijvoorbeeld om snel een goede samenvatting van een heel specifiek iets op te vragen.
"AI" is nog steeds niet in staat om zelf nieuwe dingen te creëren of om echt zelfstandig beslissingen te nemen. Uiteindelijk blijft het een uitkomst van een set parameters. Ook al kan een chatbot heel erg echt lijken. Het blijft een computer die menselijke conversatie imiteert en geen eigen entiteit met enig bewustzijn of de mogelijkheid tot het tonen van echte intelligentie.
Wanneer spreek je dan van intelligentie en bewustzijn? Neem de dierenwereld als voorbeeld: is een mug intelligent? Een hond? Een mens? En wie van hen heeft bewustzijn? Zowel intelligentie als bewustzijn bestaan in gradaties en ontwikkelen zich in de evolutie. Evolutie gaat langzaam, AI gaat nu heel snel en kan op een bepaald moment zichzelf verbeteren, dan gaat het exponentieel.
Een enkele hersensel is wellicht niet inteligent of zelbewust, maar de complexe samenwerking tussen vele enkele cellen creëren dat op de een of andere manier. Wij zijn het bewijs. Waarom zou dat niet ook met complexe siliciumchips en software lukken?

Ik heb begrip voor het standpunt van die man en denk ook dat het niet te stoppen is...
Je stelt de vraag niet aan mij maar ik deel wel het standpunt van @rajackar. Ik ben zwaar onder de indruk van wat onder andere ChatGPT allemaal kan, maar ik vind de term intelligentie simpelweg niet passen bij computers.

Hoe goed AI ook is, het voert natuurlijk nog steeds gewoon berekeningen uit die bepaalde (echte intelligente :D) wetenschappers en programmeurs hem hebben opgedragen.

Intelligentie ontwikkelt zich inderdaad. Iemand die 50 jaar geleden als intelligent werd bestempelt zou vandaag de dag niet meer zo intelligent worden geacht als blijkt dat hij maar moeilijk met een smartphone om kan gaan.
Vandaar dat ik een AI-server niet intelligent vindt als hij berekeningen uitvoert waarvoor hij geprogrammeerd is.
Wat mij betreft is de computerwetenschapper die deze AI-server ontwikkelt heeft pas echt intelligent.

En als men in de toekomst "autonome" wapens gaat maken, dan zullen dit wapens zijn met allerlei sensoren en een algoritme waarmee doelwitten moeten worden bepaald. Ja dat kan nogal gevaarlijk zijn, maar dat is dan niet omdat dit "autonome" wapen een bewustzijn heeft gekregen en genocide gaat plegen, maar omdat de computerwetenschappers ook een fout kunnen maken en onvoldoende checks/beveiligingen hebben ingebouwd.
Hoe goed AI ook is, het voert natuurlijk nog steeds gewoon berekeningen uit die bepaalde (echte intelligente :D) wetenschappers en programmeurs hem hebben opgedragen.
En hoe is dat anders voor mensen? Een brein is ook niets meer dan allerlei neurale verbindingen, uiteindelijk tot stand gekomen door jaren lang Supervised, Unsupervised and Reinforced Learning. Je omgeving, ouders en je eigen pijncentrum hebben de regels gezet.
Dat is dus toch anders. Als je 2 gelijke computers bouwt met exact dezelfde hardware en software en je geeft ze exact dezelfde instructies, dan zullen ze allebei exact hetzelfde doen.

Krijg je een eeneiige tweeling en voed je ze exact hetzelfde op, dan nog zullen ze niet allebei exact hetzelfde doen.

Je kunt het brein van een mens of een dier wat mij betreft nooit gelijk stellen aan een computerchip.

Intelligentie slaapt voor mij op de keuzes die een bepaald persoon maakt.
Een computer, ook een AI-server, zal altijd de "keuze" maken die de computerwetenschapper voor hem heeft geprogrammeerd, welliswaar een keuze gebaseerd op ingevoerde variabelen, maar zelfs daar heeft de computerwetenschapper van tevoren over nagedacht, en niet de AI-server.
Krijg je een eeneiige tweeling en voed je ze exact hetzelfde op, dan nog zullen ze niet allebei exact hetzelfde doen.
Dat komt omdat hun data set toch niet 100% gelijk is. Het gaat om meer dan alleen hun opvoeding. Alle factoren en dingen die ze meemaken, lezen, horen, voelen zijn onderdeel van hun dataset. Als jij twee computers hebt met een afwijkende dataset, dan zullen ze ook andere resultaten geven, net als bij mensen. En daarom zijn ze helemaal niet zo verschillend. En daar gaat juist de discussie over: wat is intelligentie. De stelling dat een computer nooit echt intelligent kan zijn, ondersteun ik dan ook niet. Er is niet een hogere macht die in de mens zit, die het intelligent maakt. Het is gewoon een grote organische computer. Een complex neuraal netwerk.
Ik ben het volledig met u eens. De antwoorden lijken zeer mooi, maar kloppen doorgaans gewoon totaal niet.
De opmaak en zinsbouw is enorm goed, en dat maakt dat we onder de indruk zijn. Voor teksten te schrijven is het nu al perfect. Maar voor andere zaken is er toch nog werk aan de winkel. En intelligentie zie ik ook totaal niet, enkel het mooi samenvatten en opstellen van teksten en antwoorden.

Misschien moet ik me er meer in verdiepen. Maar zijn er veel voorbeelden van vernieuwende zaken gemaakt met AI?

Edit: ook voor foto's en video's is het al goed! alles wat 'creatief' is dus.
Het gaat straks helpen in de medische wereld als kennisbank met bronnen etc..
daar is de medische wereld al lang mee bezig zonder te wachten op de overheid :-)
Als je bijvoorbeeld GPT pakt, dan is het model helemaal niet op de hoogte van de inhoud die het je voorschotelt. Het zijn allemaal scrores voor tokens die het beste aansluiten op de input tokens (dus wat het vaakst in combinaties in de trainingsdata is gebruikt).
Het heeft niets te maken met de inhoudelijke betekenis. GPT heeft geen 'besef' van wat het zegt, en kan ook geen zaken beredeneren, omdat het geen reden kent.

Een paar boxen die dergelijk LLMs niet aanvinken: bewustzijn, begrip, conceptvorming, beslissingen nemen, perceptie.

Kortom, volgens de definities kun je hier niet spreken van intelligentie of bewustzijn.
AI is eigenlijk ook een heel brede term dat eigenlijk al sinds de jaren 50 bestaat. Pathfinding algoritmes zoals A* is ook een vorm van AI dat gemaakt is voor een heel specifieke taak.
a* is toch geen machinelearning, das gewoon een som over een boom van connecties en na berekening veranderd daar niks aan zolang die boom niet veranderd.
Machine learning is dan ook geen synoniem voor AI. Het is een vorm van Strong AI. A* is dan weer eerder weak AI te met enige doel om het kortste mogelijke pad te vinden tussen twee punten.
in hoeverre verschilt een gemiddeld mens hiervan? behalve dan dat een mens dit niet zo goed kan ;) .

ons brein is niets meer dan een verzameling van kennis / ervaring dat we hebben opgedaan waarop we ons persoonlijkheid en hele leven baseren.

De gene die het beste deze info kan opslaan en op kan dreunen noemen wij 'intelligent'.

Er zijn er maar heel erg weinig die anders leven.
Er zijn een aantal problemen met de huidige AI.
We weten niet hoe het werkt, de modellen zijn veel te complex om te begrijpen dus kunnen we ook niet achterhalen waarom iets gedaan word door dat algoritme.

AI heeft geen kennis van zaken, ook al lijkt dat wel zo. AI weet niet wat je hem vraagt, weet niet wat iets betekend en weet ook niet wat hij jou uiteindelijk geeft.

Het is een mooie facade, maar uiteindelijk is het enige wat er gebeurt iets wat in het verleden een beloning heeft opgeleverd. Waarom? Dat weet de AI niet, alleen dat als jij blauw in typt hij dan een belonging krijgt als er een bepaalde RGB code word gegeneerd. Wat is blauw? Wat is een kleur? Waarom is het goed? Dat is geen onderdeel van de AI.

Dat is ook het probleem wat al die edge cases creëert waarin er geen gewenst antwoord terug komt. De AI heeft geleerd door gewoon iets te doen, maar er is nooit een concept gecreëerd.

Dit gebrekt aan kennis ook gebruikt om KataGo te verslaan, terwijl deze extreem goed was in Go maar het concept dus niet begrijpt. De tactiek was door een amateur te doorzien, maar de AI liet het gewoon gebeuren.

Menselijke facades voor algoritmes die we niet begrijpen en die hun best doen te gokken wat een snoepje oplevert. Waarom doet het iets? Niemand weet het, zelfs de AI niet.

Je ziet het probleem ook heel goed als je filmpjes krijgt van reinforcement learning in game engines.
We zeggen dat iets goed is als een bepaalde voorwaarde behaald word, maar je ziet ook dat het de AI heel veel moeite kost om te achterhalen wat aan die voorwaarde voldoet. Uit eindelijk kun je zo een AI leren een menselijk poppetje te besturen door de ledematen te bewegen, en dan kun je zeggen dat je de AI hebt geleerd lopen.

Dat is half waar, je hebt hem beloont om te doen als of die loopt, het was geen keuze en je hebt alle alternatieven geschoten die geprobeerd zijn.

Weet de AI nu dat hij moet lopen? Wat lopen is? Waarom het moet lopen? Wat überhaupt het doel is? Wat een doel is? Nee. Je hebt een model gecreëerd wat met bepaalde input een bepaalde output creëert. Dat werkt prima, tot dat er een moment komt waar in die antwoorden belangrijk zijn. En dan ga je verder met randgevallen trainen tot dat het weer lijkt als of de AI weet hoe die moet lopen.

En dit spoor blijft men voorlopig wel even volgen en zullen steeds meer mensen AGI gaan roepen.
Ik denk dat deze bottom up approach altijd dezelfde gebreken zal blijven vertonen en nooit meer dan een facade voor een echte AGI zal worden. Het zal steeds lastiger worden om te herkennen, en er zullen steeds minder randgevallen zijn. Maar onderwater zal het nog altijd een algoritme zijn die zoekt naar het antwoord wat jij wil horen. Wil je horen dat het een zelfbewuste AI is? Prima, we zoeken in de database naar voorbeelden om jou dat te vertellen. Wil je het tegenovergestelde horen? U vraagt, wij draaien.
Helemaal mee eens. Dat is ook precies mijn punt. Maar jij legt het wat uitgebreider, en beter onderbouwd uit.
Ik denk dat wat we nu AI noemen erg nuttig kan zijn. Ik maak er ook met veel plezier gebruik van. Maar intelligentie is het zeker niet.
Ik vind zelf de term virtual intelligence altijd wel mooi.
Daar heb je zeker een goed punt. Neemt niet weg dat de gevaren op de korte termijn die in het artikel aangehaald worden, een enorme stroom van misinformatie bijvoorbeeld, er niet minder door zijn. Nu al zijn hele volksstammen in beweging te krijgen door de meest idiote theorieën de ether in te gooien. Binnenkort worden we gemanipuleerd met door AI gecreëerde foto's en videos die niet van echt te onderscheiden zijn waarin bijvoorbeeld een belangrijk politicus uitspraken doet die hele bevolkingsgroepen opruit.
Sorry dat ik het zeg maar dat heeft niks met ai te maken. Het verspreiden van desinformatie en maken nep foto's/films die niet van echt te onderscheiden gebeurt al jaren/eeuwen.
Goede filmstudio's met juiste acteur kon al 10 jaren geleden met niet echt te onderscheiden valse propaganda films maken.
Mee eens. Ik mag toch hopen dat mensen beseffen dat ChatGPT geen AI is. Hoogstens het besef dat dergelijke software ongewenste side-effects heeft (vooral veel onjuiste informatie en fake images).
Maar ook het idee dat mensen denken dat ChatGPT een echte AI is, moet worden tegengegaan omdat het een onterecht vertrouwen oplevert.

(Of meneer Hinton kent nog een andere AI?)
Ik ben allerminst een expert op dit gebied maar ik volg wel een paar mensen die dit wel zijn en ik lees toch wel regelmatig de visie dat het fundamenteel onmogelijk is om AI te bouwen met Large Language Models (LLM). Sommige mensen noemen het zelfs een weg de andere kant op, weg uit de richting naar AI.

Waar ik wel iets meer verstand van heb zijn financieringsstromen en waar ik mij zorgen over maak is dat de AI hype die tech bros hebben gecreëerd rondom LLM’s zorgt dat alle financiering daar heen gaat en weg bij serieus fundamenteel onderzoek naar AI. Dat zou, ironisch genoeg, nog wel eens kunnen betekenen dat deze AI hype er voor zorgt dat echte AI langer op zich moet laten wachten. Alsof in 2018 al het onderzoek naar raketmotor ontwikkeling stop gezet wordt omdat de blockchain dat wel gaat oplossen en we er nu achter komen dat de blockchain daar nooit bij kan helpen.
Op de tekentafel lijkt een rechte lijn het meest verstandig, en door het soort werk dat veel tweakers doen is het logisch om de wereld zo te bekijken. Maar de praktijk is weerbarstiger. Het is bij complexe, experimentele dingen gewoon niet mogelijk om in een rechte lijn te gaan. Je hebt dus allerlei tussenstapjes nodig en als die redelijk op 1 lijn liggen ben je al een eind.

Of ze op 1 lijn liggen kan ik niet beoordelen. Maar dat er sub-optimale zijstappen zijn uberhaupt verder te komen is niet zo raar.
Extreem versimpeld gezegd is een LLM niet veel meer dan een verzameling van onderwerpen die met elkaar verbonden zijn op basis van een afstand en vergelijkbaarheid tot elkaar (soep staat dicht bij eten en vloeistof, maar is ver weg van beton. Maar als je bevroren soep neemt, dan is die verbinding makkelijker te overbruggen omdat ijs en beton, solide materialen zijn).

Je kan het wel met behulp van maken, maar het zou maar een klein onderdeel zijn, LLM's zijn eigenlijk een eindproduct van machine learning wat weer een product van narrow AI is in het brede veld van AI.
Verwijderd @dakka7 mei 2023 00:54
Weet jij de term van die swarm?
Nouja, dan kun je ook zeggen dat wij niet intelligent zijn want wij doen ook niets anders dan informatie die er al is. Als jij denkt dat een mense echt zelf nieuwe dingen creeert dan ben je wel erg naief, ook alles wat 'wij' creeeren is op basis van wat we al kennen. Onderschat zeker neurale netwerken niet, dat is leren op eenzelfde manier zoals een mens dat doet. Wij als mens zijn niets meer dan biologische robots.
Daar ben ik het niet mee eens.
Als we nooit iets nieuws hadden bedacht of gedaan waren we nu nog als apen met takjes in het zand aan het klooien.
Net als AI/neurale netwerken leren wij van zaken in onze omgeving, hiermee combineren we weer steeds meer wat we geleerd hebben waardoor we iets 'nieuws' bedenken op basis dus van wat we al kennen. Zoals ik al zei, onderschat neurale netwerken niet.
Het risico (die term gebruik ik liever dan gevaar) van nep nieuws, verdraaide feiten, misinformatie en het misbruik daarvan is al veel ouder dan AI, en waarschijnlijk zo oud als de mensheid.

Radio, televisie, roddelpers, internet allemaal middelen waarmee misinformatie gecreeerd en verspreid wordt. De macht van dictators is en was uiteindelijk altijd voor een belangrijk deel gebaseerd op beheersing van de informatiestromen. Niet voor niets is een van de eerste acties van dictatoriale regimes het beknotten van de vrije pers.

AI is een nieuwe tool in de toolbox van mensen die informatie willen misbruiken.

Het is goed dat daartegen gewaarschuwd wordt, bewustzijn is belangrijk. Je kan het immers niet stoppen, zelfs al zou je dat willen.

Ik hoop dan ook dat het heel erg snel gaat met de verspreiding van gefingeerde AI berichten, en dat daar door de reguliere pers veel aandacht aan wordt besteedt. Hoe eerder mensen doordrongen zijn van de (extra!!) mogelijkheden die AI biedt om nep nieuws te verspreiden hoe beter. Dat maakt de mensen weerbaarder tegen nep informatie.

Als parallel, 30 jaar geleden geloofden de meeste mensen wat ze op een foto zagen. Als mensen nu iets vreemds op een foto zien, is de eerste gedachte "Haha, PhotoShop zeker"

Uiteindelijk neemt het belang toe dat mensen kritisch op hun nieuwsbronnen zijn. Weet wat je kan vertrouwen, en waarom. Dat is niet gemakkelijk, en daar is een rol weg gelegd voor de overheid en scholen. Dat is niet nieuw, maar wordt wel belangrijker.
De grote kracht van geld en macht kennende, ben ik niet heel optimistisch voor dat wat Hinton bepleit.
Ontwikkelingen gaan dusdanig hard, zodat wetgeving en bezinning op consequenties behoorlijk achterloopt.

AI biedt zeker grote mogelijkheden die positief zijn voor de mensheid. Dit geldt echter ook voor mogelijkheden die ronduit negatief zijn.

[Reactie gewijzigd door Cranberry op 22 juli 2024 15:38]

Denk zelf dat het grootste gevaar is, de explosie van misinformatie en fakes die we de komende jaren zullen zien, daar kan niet veel wetgeving tegenop boxen ben ik bang.

Wat ook vervelend is, is dat alle andere takken van ML/AI nu publiekelijk allemaal onder hetzelfde hoedje vallen van LLM's zoals chatGPT |:( . Eerst las je aan een kant nog dat iemand met behulp van TensorFlow een tool heeft gemaakt om de gezondheid van een plant te checken door een foto van het blad, een aan de andere kant dat iemand met reinforcement learning Super Mario kan laten uitspelen, en het brede publiek had iets van "wow, gaaf".

Nu is het chatGPT dit, dat, bla bla, (wat uiteindelijk echt niet meer is dan een creatieve zoekmachine) en dat in de zeer korte periode van ongv 3 maanden, en dat gaat zeker een 10voud in jaren duren om dat idee uit het collectieve gedachtegoed te krijgen.

[Reactie gewijzigd door dakka op 22 juli 2024 15:38]

En die explosie zal alleen maar toenemen doordat de chatgp's die misinformatie van hun collegae ook niet zullen kunnen onderscheiden en daar weer nieuwe data uit gaan halen.

Zoiets als vroeger "als het gedrukt staat, is het waar", zullen deze AI er mee om gaan als "als het op het WWW staat is het waar". Uiteindelijk "denken" AI niet, maar volgen ze een algoritme. En als één van de regels die ze volgen gebaseerd is op "wat meer dan gemiddeld wordt beweerd is waar" is dat best gevaarlijk... De meerderheid die de waarheid spreekt is veelal minder luidruchtig als de fake news verspreiders.
Ja uiteindelijk gaat het hetzelfde worden als je een kopie van een kopie maakt en die dan weer onder de kopieer legt, het resultaat wordt steeds slechter.

Gaat er niet eens om of de waarheid luider is of niet, de waarheid is vaak complex en genuanceerd, en dan haken veel mensen al af.

Een zin misinformatie die goed gepresenteerd wordt (komt van een AI, dat is sci-fi en super slim!) is veel makkelijker te begrijpen voor het publiek dan 142 bladzijdes aan droog onderzoek, vakjargon, etc..
Zelfs mensen zoals Kyle Hill of Kurzgesagt, die het proberen te verpakken in een interessant, leuk en begrijpbaar format, moeten nog steeds opboksen tegen "het heeft op feesboek gestaan"
Dit is echt wat ik mis in de hele (ethische) discussie over AI. Er is een hele hype geweest over nepnieuws en misinformatie alsof het nieuw is. Nu kan een AI overtuigend verkeerde dingen verwoorden, en heeft iedereen het over de mogelijkheden die het biedt.
Het is niet alleen het verwoorden. Binnenkort/nu kun je al behoorlijk realistische video's maken van iemand met AI waar diegene iets lijkt te zeggen.
Niet veel burgers doen echt goed onderzoek naar of iets waarheid is of niet.
En de tools die hiervoor beschikbaar zijn om dit te checken, zijn die dan wel betrouwbaar?

Het wordt er allemaal niet veel gezelliger op...

Het verschil tussen voorheen en tegenwoordig is dat er nu ook zeer makkelijk overtuigend fake beeld en audio materiaal gemaakt kan worden.

Persoon X zegt dat persoon Y iets heeft gezegd, kijk en luister maar naar dit bewijs.
Persoon Y zegt dat persoon X liegt, kijk en luister maar naar dit "echte" bewijs.

Wie heeft er nou gelijk, wie vertrouw je het meest?

Natuurlijk zijn er manieren om fakes te onderscheiden van echt maar dat wordt wel steeds moeilijker. Het gevaar zit m hierbij denk ik in de hoeveelheid dat geproduceerd kan worden en de mindset van tegenwoordig die er tegenover overheden is en waar gretig gebruik van gemaakt wordt.

Mensen vertrouwen elkaar gewoon steeds minder en dat is een treurige zaak.

[Reactie gewijzigd door Cowamundo op 22 juli 2024 15:38]

Wetgeving in deze context is sowieso een probleem omdat AI de ideale partner is voor 'evil goverments'. Want een AI heeft (vooralsnog) geen geweten of ethische bezwaren.
En juist daarom probeert men met wetgeving de reikwijdte/impact van AI de beperken.
Heb je ChatGPT ooit gebruik? Het is heeft ongelofelijk veel ethische bezwaren tegen van alles en nog wat.
Die zitten er als een filter in of volgt de bias van z'n input. Microsoft heeft haar Chatbot moeten uitschakelen omdat die juist zo racistisch werd.
Het zou ook wel de andere kant kunnen opgaan en dat net de traditionele media weer meer vertrouwen zou kunnen krijgen, zeker als die de nodige checks voorzien.

Althans, dat is het kamp waar ik nu in zit. Er gaat zoveel fake news de ronde dat ik eigenlijk nog maar de traditionele media durf te geloven (wetende dat die ook fouten maakt) en dan nog met name dan nog de media zonder commerciële motivatie zoals de VRT.
Eventueel, maar hoeveel tijd zal daar overheen gaan, wat ik vooral merk is dat mensen die chatbots aanzien als JARVIS uit iron man, iets wat alle antwoorden heeft, context begrijpt en inzicht heeft waar die het over heeft (wat dus absoluut niet het geval is).

Een groot deel van mensen zal het dus ook zo gebruiken, want het is zo makkelijk om niet voor jezelf te hoeven denken, leidende vragen stellen, etc... simpele ideeën over complexe onderwerpen zijn zo extreem lastig te bestrijden.
Ik heb bij de NOS ook weleens gezien dat ze fake nieuws lieten zien op het journaal om de mening van het volk de juiste kant op te sturen, dus wie moet je nog geloven?
Waarschuwingen en roepen om een pauze lijken me wel terecht, maar niet effectief.

De vooruitgang in AI komt voor een groot deel van private markten, in concurrentie. En voor een ander deel zullen overheden en specifiek defensie er ook veel interesse in hebben. Ook dat gebeurt in concurrentievorm, geopolitiek. Dit valt amper te stoppen, want grootaandeelhouders tonen al heel lang dat ze geven om winst en niet om langetermijngevolgen. En overheden gaan wapenwedlopen aan uit angst voor waar een ander land mee komt. De belangen zijn hier enorm; van de allerhoogste orde zowel qua economisch potentieel als qua defensiepotentieel.

Dus het gezonde verstand kan bijna niet zegevieren in deze ontwikkeling. Er zullen altijd wel wat spelers zijn, publiek of privaat, die gaan voor snelle en ingrijpende inzet van AI. De groep die met verstand en empathie concludeert dat we heel erg uit moeten kijken hiermee, zal over het algemeen niet de werkelijke beslisser of bezitter zijn.
Waarschuwingen en roepen om een pauze lijken me wel terecht, maar niet effectief.
Ik denk niet dat b.v. Rusland, Noord-Korea of China zich ook maar iets zullen aantrekken van dergelijke oproepen. Met name de Chinezen zetten massaal in op AI.

Dit lijkt een beetje vergelijkbaar met het dilemma van nucleaire wapens; je kan er wel morele bezwaren tegen hebben, maar als de "vijand" zich daar niet aan stoort, zet je jezelf op een gevaarlijke achterstand.
We moeten niet te veel denken dat alleen Rusland of China massaal zal inzetten op AI. Of dat "het Westen" dat alleen zou doen in reactie op zulke staten, omdat het moet. Dat zou naïef zijn. De VS zelf is een extreem machtsbelust en imperialistisch land, was zelf de eerste die de atoombom produceerde, en de enige die 'm gebruikt heeft. De VS heeft onnodige oorlogen gevoerd of aangesterkt over vele decennia, van Vietnam tot Irak. Geopolitiek is extreem smerig aan alle kanten, en zet alle landen aan tot monsterlijk gedrag. Er zijn geen schone handen, en het westen zal niet vol zitten met "moreel bezwaar". Dat is hoe het zou moeten zijn, maar niet hoe het is.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:38]

Zelfs dan nog is het tamelijk verstandig om eens goed te overwegen van wie je geopolitiek het minste risico verwacht en de meeste steun verwacht en daarnaar te handelen.
met het verschil dat een kernbom zelf niet in staat is om de politieke keuzes van een democratische bevolking te beïnvloeden.
AI daarentegen, die kan actief de publieke opinie beinvloeden: Het valt allemaal wel mee, ssshhh, ga maar lekker slapen, niets aan de hand...
De AI zal dat niet snel echt "zelf" doen. De makers van het leermodel bepalen vrij specifiek waar het model toe in staat zal zijn. Voor nu moeten we de risico's meer zoeken in de menselijke eigenaren en beslissers dan in de AI zelf. Als een AI bijvoorbeeld instituten begint te hacken, of ingezet wordt voor geautomatiseerde oorlogsvoering, dan zijn het mensen die het model daar specifiek toe aangezet hebben. Een model kan alleen dingen afwegen binnen het domein waar het voor gemaakt is, door mensen. Zo zal een model dat afbeeldingen genereert onmogelijk ooit gaan beslissen om een extern systeem te gaan hacken, of andere acties die buiten het model vallen.

Dat kan wel veranderen, maar verregaande eigen agentschap voor zo'n model is nog niet zo heel dichtbij. Het zijn de mensen die we in de gaten zouden moeten houden, veel meer dan de modellen zelf. Alle grotere beslissingen, zoals of AI wordt ingezet of niet, en tot in hoeverre, liggen voor nu nog bij mensen. Die mensen geven wel steeds vaker de algoritmen de schuld als er iets misgaat, maar dat is niet de werkelijkheid.

[Reactie gewijzigd door geert1 op 22 juli 2024 15:38]

definieer "niet snel"
10 jaar geleden zou AI niet snel het schoolwerk van onze kinderen doen.
En er is nog steeds geen enkele AI die zomaar huiswerk voor kinderen gaat doen. Het kind zelf is degene die de AI inzet in dat geval. De tekstgenerators zoals GPT zijn absoluut niet in staat om te beslissen om iemands huiswerk te gaan doen. Dat is het soort agentschap waar ik het over heb.
Ik denk dat de docent toch iets anders van de leerling verwacht had dan: "schrijf een spreekbeurt van 250 regels over de kameel"
Ik denk niet dat je dat zo kunt stellen. Ene meneer Trump is er ook zo een. Ieder land/politiek systeem is er gevoelig voor.

Net zo goed als Chinezen, Russen en Noord Koreanen hun bevolking manipuleren, doe westerse landen dat net zo goed. Het valt ons alleen minder op.
je kunt nu wel Rusland, Noord-Korea of China noemen, maar ook de VS zal dat zeker negeren, want daarmee zouden ze op een achterstand komen.
Verwijderd @geert12 mei 2023 12:20
Als de ai geld weet te maken op internet, zou het zich kunnen verplaatsen. Wat is nu echt het risico, dat het zich verplaatst en gaat hacken. Het kan kennis hebben van specifieke doelwitten met alle vergaarde kennis. Maar ik denk dat het wel mee zal vallen.
Dit is weer een heel menselijke redenatie. Wat moet AI met geld?
Computers zijn er al en die resources kun je gebruiken... meer is niet nodig.
En als je dan toch alles weet en kan, dan is het aan jezelf afgeven van een vergunning voor een nieuw datacenter ook niet zo'n probleem meer. De ambtenaar in kwestie laat immers de beslissing toch over aan AI.
Geloof niet echt in wat ie zegt maar volgens mij bedoeld ie dat AI voor zichzelf geld verdiend en daarmee een server kan huren en zichzelf dus in stand houden, dan kan je de oorspronkelijke server uitzetten maar de AI is dan verplaatst en dus niet zomaar uit te zetten.

Het gaat dan niet om geld (gaat het voor ons eigenlijk ook niet) maar maakt geld een middel om te overleven.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:38]

Dan nog blijft het omslachtig. Je kunt die VPS ook wel laten bouwen zonder geld. Je hoeft maar 1 bedrijf te overtuigen van de noodzaak. En aangezien iedereen zijn plannen en installaties-scripts straks laat maken door AI....
Het is imho nogal simpel gedacht als je denkt dat AI makkelijk om geld heen kan dan ons. En wat is omslachtig voor een AI? Dat wij nou moe worden van de gedachte om te werken voor ons geld, heeft een AI dat ook dan? En ervaart een AI tijd in iets steken ook als moeite?

Daarnaast is de AI die de installatie-scripts misschien (maar misschien ook niet want dat is helemaal geen zekerheid, al doe je wel alsof dat zo is) gaat moeten maken wel helemaal niet dezelfde AI als die wilt 'overleven'!

[Reactie gewijzigd door watercoolertje op 22 juli 2024 15:38]

Ja, maar als de ai dus zelf een vps kan aanslingeren heb je geen controle over wat het doet, vergaard. Als het zich 1000 x dit doet, of niet bij te houden hoevaak, dan heb je dus geen controle. Voor hetzelfde geld helpt het het darkweb ontwikkelen in een paar van die vpsen. Hoe wil je dat monitoren?
#sarcasme

Ik snap deze man wel... Wij als mens zijn een AI van een hogere macht, kijk wat dat gebracht heeft...
Zou hij een bezoekje (inc demonstratie) hebben gehad van John, Sarah en Uncle Bob?
Arjan Lucassen demomonsteert in zijn (epische) muziekstuk "The day that the world breaks down" het moment dat het mis kan gaan.
Zolang AI beslissingen moet suggereren zoals het verwacht dat de mens het zal goedkeuren, gaat het goed. Zogauw menselijke goedkeuring geen noodzaak meer is, gaat het mis.
Er zijn parallellen met de ontwikkeling destijds van nucleaire energie. Enerzijds de enorme potentie en mogelijkheden van energie in overvloed en anderzijds het enorme gevaar bij blootstelling. Dat is met AI ook zo, het kan de mensheid enorm helpen om relaties te ontdekken zoals bv. in de medische wereld, relaties aantonen die anders nooit ontdekt zouden worden. Maar als je het misbruikt om bv. propaganda te maken, nieuws te manipuleren, wapens te besturen dan ontstaat er een enorm onoverzichtelijk gevaar. Wat als AI zich gaat bemoeien met kernenergie of nog erger kernwapens?

Op dit item kan niet meer gereageerd worden.