OpenAI doekt team op dat veiligheid van 'hyperintelligente' AI moest waarborgen

OpenAI heeft zijn team ontbonden dat verantwoordelijk was voor het beperken van de veiligheidsrisico's van geavanceerde AI-systemen. Volgens OpenAI wordt de groep in andere onderzoeksafdelingen geïntegreerd. Een van de leiders van het team uit op X kritiek op het bedrijf.

OpenAI bevestigt tegenover Bloomberg dat het het 'Superalignment'-team heeft ontbonden. Dit team werd in juli 2023 opgericht om de risico's van toekomstige AI-systemen, die 'veel slimmer' zijn dan mensen, te beperken. De afdeling had als doel om tegen 2027 de belangrijkste technische uitdagingen voor het bijsturen en beheersen van 'hyperintelligente kunstmatige intelligentie' op te lossen.

OpenAI zegt tegen het persbureau dat de groep niet langer blijft bestaan als een losstaande afdeling, maar in plaats daarvan 'dieper in onze onderzoeksactiviteiten wordt geïntegreerd om de veiligheidsdoelen te behalen'. De twee leiders van het team, Ilya Sutskever en Jan Leike, hebben deze week ontslag genomen bij het bedrijf. Eerstgenoemde is medeoprichter van OpenAI en stemde vorig jaar voor het ontslag van ceo Sam Altman. Hij heeft geen reden gegeven voor zijn vertrek.

Leike laat op X weten dat hij al enige tijd in de clinch ligt met de bestuurders van OpenAI over de 'kernprioriteiten' en dat er nu een 'breekpunt is bereikt'. Het team zou de afgelopen maanden niet voldoende middelen hebben gekregen om zijn 'cruciale' onderzoek voort te zetten. "Machines bouwen die slimmer zijn dan mensen is een inherent gevaarlijke bezigheid. OpenAI draagt namens de hele mensheid een enorme verantwoordelijkheid met zich mee, maar de veiligheidscultuur en -procedures zijn de laatste jaren ondergeschikt geworden aan glanzende producten."

Altman bedankt Leike in een post op X voor zijn bijdrage aan de veiligheidsonderzoeken. Ook reageert hij kort op de posts van de onderzoeker: "Hij heeft gelijk, we hebben nog veel te doen en daar willen we ons voor inzetten."

Door Kevin Krikhaar

Redacteur

18-05-2024 • 10:10

136

Submitter: JapyDooge

Lees meer

Reacties (136)

136
134
68
5
0
46
Wijzig sortering
AI heeft zeker grote gevaren, maar niet op de manier zoals de media vaak beweren. AI is geen persoon, heeft geen gevoelens of bewustzijn, en zal dat in de komende jaren ook niet krijgen—misschien zelfs nooit. Wetenschappers begrijpen nog weinig van leven en bewustzijn, dus ik verwacht niet dat het koppelen van hardware en het schrijven van software ineens een nieuwe levensvorm zal creëren met eigen doelen die besluit dat het de mens moet uitroeien.

De doelen van AI worden geprogrammeerd door mensen. De data en hoe ermee omgegaan wordt, zijn bepaald en geprogrammeerd door mensen. Daar ligt het echte gevaar: hoe mensen AI in de toekomst gaan gebruiken.

Wie bepaalt bijvoorbeeld welke data wel en niet wordt gebruikt? Zijn het bedrijven zoals OpenAI, Google en Meta die AI gebruiken om menselijk gedrag te sturen voor hun eigen winstmaximalisatie? Of zijn het overheden die AI willen gebruiken om ideologieën te verspreiden, geschiedenis te vervalsen, of nieuws te manipuleren? Steeds meer controle gebeurt digitaal, dus controle via AI zal in de toekomst een peulenschil zijn. Autonome AI-wapens zouden het mogelijk maken voor kleine groepen mensen om veel grotere groepen te onderdrukken.

Op dit moment is AI een geweldige tool voor oplichters en groeperingen die misinformatie willen verspreiden. Taal is geen barrière meer, AI-voice deepfakes worden elke dag beter en makkelijker te gebruiken en te misbruiken. Dit is slechts een kleine greep uit de “kwade” mogelijkheden. Het hebben van een aparte afdeling die deze gevaren in kaart brengt, is zeker geen overbodige luxe.

Ik geloof echt dat fear mongering een marketingtool is, zeker met de eerdere gezamenlijke verklaringen hierover, maar dit is een serieus probleem. Er is een interne strijd gaande binnen OpenAI over de focus van het onderzoek, en de groep die gedegen onderzoek naar de nadelige gevolgen van AI wilde, heeft verloren. De kapitalistische en op snelheid gerichte groep heeft gewonnen.

Een toneelstukje voor geld is niet nodig; ik weet zeker dat er rijen investeerders klaarstaan om geld in OpenAI te steken voor aandelen. AI is geen hype maar iets wat er is en niet meer weggaat. Het zal zich in recordtempo ontwikkelen en terugkomen in ons alledaagse leven.

Natuurlijk zijn er voor elk negatief gebruik van AI ook positieve toepassingen. De vraag is wat wij als mensen ermee gaan doen.

Ik ben eerlijk, ik ben een pessimist en zie niet gebeuren dat AI eerst voor het verbeteren van de mensheid zal worden gebruikt, maar eerder voor het faciliteren van een failliet kapitalistisch systeem.
Als het klopt wat je zegt, dan zit het egoïsme wat in de mens zit waardoor die steeds opnieuw de fout in gaat en tot verregaande oorlogen een destructie van zichzelf en zijn leefomgeving komt, dan zal AI dat proces net zoals de industriële revolutie dat deed alleen maar versnellen.

"De kapitalistische en op snelheid gerichte groep heeft gewonnen."
Het probleem is dat wij mensen geen rationele wezens zijn; we maken de meeste afwegingen en beslissingen op basis van gevoel zonder voldoende informatie te verzamelen. Net zoals sociale media ons niet socialer heeft gemaakt, zal AI ons ook niet slimmer maken. Het zal ons wel effectiever maken in wat we doen, of dat nu goed of slecht is.
Het probleem is meer dat AI een echoput is. Je stelt een vraag aan een taal model zoals ChatGPT en je krijgt een soort echo terug.

Een beetje zoals "wie is de konging van Wezel?". Je krijgt geen antwoord, je krijgt een reactie zoals het taal model geleerd heeft te antwoorden. Dat werkt verrassend goed, zoals we hebben kunnen zien, maar tegelijkertijd zal AI zichzelf hierin verpesten.

Op een gegeven moment zal het internet telkens meer informatie bevatten die door AI gegenereerd is, en al deze informatie wordt (ookal zullen ze dat vast proberen te voorkomen) weer gelezen door de nieuwe versie van ChatGPT, waar hij in de toekomst weer zijn nieuwe antwoorden op zal baseren o.a.
Als de AI consistent, zal deze veel gedrag van mensen als irrationeel en immoreel beschouwen en als de AI enige macht krijgt, zal deze weigeren bepaalde acties door te voeren mits goed uitgevoerd en deze logica volgt. Mensjes zitten daar niet op te wachten. Oorlog, een totaal gebrek aan respect voor andere levende dieren (of zelfs mensen als ze ver genoeg weg zijn), etc. AI prikt daar doorheen. Mensen hebben drogredenen om iets recht te praten wat krom is. Als mensjes nu eens eindelijk zelf objectiever, rustiger en meer respectvol omgaan met medebewoners dan komt paradijs nabij. Amen. Maar zal niet gebeuren gezien mensen opgroeien met elk andere waarden en normen en ervaringen. Kindjes zijn programmeerbaar. Ten goede en kwade. Sponsjes in kopieergedrag. Mensen zijn heel variabel en we kunnen dat niet oplossen blijkbaar. Fallout Vault 31 probeerde het waar je met wat creativiteit ook migratieproblemen in kunt ontdekken.
Dank voor je uitgebreidde uiteenzetting. Het lijkt door de eerste alinea nu net alsof bewustzijn een vereiste is voordat een AI schade kan aanrichten. Kan het niet zijn dat een AI al eerder schadelijk is?
Ik denk dat je het gevaar zeer onderschat. Het feit dat AI geen emoties, bewustzijn of geweten heeft, is misschien juist waarom het gevaarlijk is.

Iemand met vervelende intenties kan het aan het werk zetten om de maatschappij te ontwrichten (of erger). Of we hebben straks een AI die voor niets stopt om zijn opdracht zo efficiënt mogelijk uit te voeren met alle gevolgen van dien. Zie the paperclip optimizer, waarbij uiteindelijk het hele universum als resource voor het maken van paperclips gezien wordt en de mensheid in de weg zit.
Ik snap die tweets van Jan Leike niet. Die mensen zitten in een zelfgecreëerde bubbel die ver af staat van de realiteit. Het zou me niets verbazen als hij er nog voor betaald heeft gekregen om dat te schrijven, want hij onderschrijft eigenlijk Sam Altman's visie, met een sausje zogenaamde kritiek erover om het echt te laten lijken.

Als je AI succesvol in wil zetten moet je vooral realistisch blijven: taalmodellen zijn enorme fuzzy databases van kennis. Ze omvatten met goede (maar gelimiteerde) precisie veel van de kennis die er op het internet te vinden is. Middels vragen in natuurlijke taal kun je die kennis ontginnen uit het model.

Dat is echt magnifiek, maar staat heel erg ver af van AGI. Die modellen kunnen niet redeneren, omvatten geen onzekerheid, kunnen niet naar voren brengen wat er wel en niet in de database staat en kunnen ook niet verder leren.
Een manier om het idee in te planten dat je product een bepaalde mogelijkheid heeft die het in feite niet heeft, is door discussie aan te moedigen over de implicaties van die vermeende mogelijkheid. A fortiori over de gevaren ervan, want mensen zijn geneigd dat een bedrijf enkel gevaren wil toegeven als die toch niet te ontkennen zijn, want impliceert dat de onderliggende oorzaak van die gevaren bestaat. Dat werkt perfect in tech, want het type persoon dat tech-nieuws volgt is niet in staat om te vatten dat technologische evolutie iets anders zou kunnen zijn dat een lineair proces van minder naar meer mogelijkheden.
Een manier om het idee in te planten dat je product een bepaalde mogelijkheid heeft die het in feite niet heeft, is door discussie aan te moedigen over de implicaties van die vermeende mogelijkheid. A fortiori over de gevaren ervan, want mensen zijn geneigd dat een bedrijf enkel gevaren wil toegeven als die toch niet te ontkennen zijn, want impliceert dat de onderliggende oorzaak van die gevaren bestaat. Dat werkt perfect in tech, want het type persoon dat tech-nieuws volgt is niet in staat om te vatten dat technologische evolutie iets anders zou kunnen zijn dat een lineair proces van minder naar meer mogelijkheden.
Op hierop in te haken, ik las laatst een sterk artikel waar dit uitgebreid beschreven wordt als "criti-hype".
Eerste wat ik dacht toen ik de kop van het artikel las: ah, ze geven dus toe dat ze die 'hyperintelligente' helemaal niet kunnen maken.
Eens. Het is niet voor niets dat sommige AI experts LLMs zien als een doodlopende weg die nooit intelligentie zal kunnen bereiken.

Het is ook een vrij dure methode. Als je kijkt naar de matige resultaten die LLM chatbots produceren in verhouding tot de hoeveelheid input data en energie die er voor nodig is dan is de vraag of dat ooit commercieel succesvol kan zijn.

De enige partijen die voorlopig geld verdienen aan de LLM hype zijn Nvidia en Azure. De leveranciers van het gereedschap dus. ChatGPT, Gemini, CoPilot etc. zijn allemaal fors verliesgevende projecten waar miljarden in worden gepompt maar waarvan het onzeker is of die ooit de investering terug kan verdienen, laat staan winst maken.

Als we dan nu, zoals sommige mensen vermoeden, een beetje aan de top van de S-curve zijn voor LLMs dan verwacht ik eerlijk gezegd niet dat LLM bedrijven ooit financieel rendabel zullen worden omdat het investeerdercircus binnen een jaar of twee al weer op iets nieuws zal zijn gesprongen (Quantum Computing?) waar de hoop op wordt gevestigd. Daar sta je als bedrijf dan met al je investering in de Blockchain, Metaverse, LLMs

[Reactie gewijzigd door Maurits van Baerle op 22 juli 2024 13:28]

Ok, LLM's zullen nooit c.q. niet snel AGI zijn. Maar ze zouden wel superieur manipulatief kunnen worden tov mensen waardoor ze alsnog grote schade kunnen aanrichten 'in het wild'. Doet dat er dan allemaal niet toe volgens jullie?
Oh, ik acht het niet uitgesloten dat het netto effect van LLMs op de mensheid negatief is maar dat is een heel ander verhaal. Mijn bovenstaande stuk ging alleen over of het bedrijfseconomisch netto positief is voor de ontwikkelaars van LLM technologie, en dat lijkt me niet waarschijnlijk.
Dat weten we niet. Kijk ik naar hoe google llm's inzet als interface naar de backend van hun systemen en de systemen van hun klanten waar al (net als bij veel andere bedrijven) al jaren met ML wordt gewerkt, dan zullen llm's vooral als interface dienen en ingezet blijven worden.

Ik zie het een als in startrek, je geeft een computer een gesproken opdracht en de computer bouwt desnoods een tijdelijk systeem om na een analyse met een antwoord te komen. Ik denk dat nogal vaak vergeten wordt dat op de achtergrond discriminative ml al lange tijd veel rollen vervuld en we niet gezien hebben hoe hard dat gaat.
Zeker, maar ik verwacht sowieso geen enkele bijdrage van OpenAI om dat te voorkomen en we moeten dat al helemaal niet aan hen overlaten.

Er is recent een paper verschenen waarin wordt aangetoond dat chatgesprekken met een AI potentieel overtuigender zijn dan gesprekken met menselijke experts: https://arxiv.org/pdf/2403.14380
Je onderschat het manipulatieve vermogen van de mens. Llm’s en in het verlengde generative modellen zijn de ultieme scapegoats en zullen ook als zodanig ingezet worden
Maar vergelijk dat eens met het gemiddelde intellect van de mens wereldwijd. Door de overdaad aan "kennis" heeft een LLM vergeleken met de gemiddelde mens voor veel vraagstukken dat punt mogelijk al bereikt.
Ja die taalmodellen omvatten meer kennis dan welke persoon dan ook, maar slechts het bevatten van kennis maakt je niet intelligent.

De manier waarop ik er nu voor mezelf over redeneer is dat het alle kennis omvat die ergens in 1e tot 3e jaar bachelor wordt gegeven, maar dan dus over alle onderwerpen tegelijk. Ik geef zelf vooral les in een masteropleiding en als ik het dan vragen stel over zaken die ik doceer is het toch heel vaak flink naast de plank.

Er zijn geen mensen die dergelijke brede kennis hebben, maar tegelijk heeft iedere persoon veel kennis die niet in een LLM zit, over zijn lokale omgeving, werkexpertise die het model niet omvat, etc.
Ja, daar ging het punt dus niet over. Leuk dat je als master of science misschien intelligenter bent dan een taalmodel. 80% van de wereldbevolking is dat niet.
Jammer dat je het niet goed hebt gelezen. Kennis en intelligentie is niet hetzelfde.

Ik had het over de kennis die in die modellen is gevat, die is zeer groot. Intelligent zijn die modellen helemaal niet en vrijwel alle mensen zijn dat wel.

Het grote probleem met AGI is precies de vergelijking met mensen, want die slaat nergens op. Alles aan die technologie is artificieel. Het ligt voor de hand termen te gebruiken zoals 'leren', 'kennis hebben' en 'intelligentie' voor AI-modellen, want we hebben geen betere woorden en het helpt ons redeneren over de werking en mogelijkheden van die systemen. De betekenis van die termen is echter heel anders in de AI context dan voor mensen.

Jij kunt leren, toch? AI systemen kunnen dat niet.
Wij noemden dat ver voor AI een spons die kan absorberen en die je uit kan knijpen. Wat erin komt, kun je er weer uithalen, maar that's it: 1+1 zal nooit meer dan 2 worden.
En daarmee maak je een grove onderschatting van hoe het werkt en wat het kan. Ik snap niet waar die algemene misconceptie vandaan komt. Uit welke bron komt dit?

Het kan extrapoleren, combineren en inspiratie vinden uit wat het weet. Met deze drie methodes kan het gewoon unieke creaties en oplossingen bieden. Je kunt zeggen wat je wilt maar dit lijkt erg op hoe wij dat zelf doen als mensen. Jij weet ook niet meer dan je weet, maar je kunt met die kennis wel filosoferen en tot andere inzichten komen.
Je kunt zeggen wat je wilt maar dit lijkt erg op hoe wij dat zelf doen als mensen.
Klopt, sommige mensen zijn een spons, maar de mens is ook nog creatief. AI is uitsluitend creatief als die de opdracht krijgt, de mens daarentegen is nieuwsgierig en van daaruit creatief. En je hebt het dat wij tot andere inzichten komen, maar dat is maar gedeeltelijk waar: de mens komt zelfs tot nieuwe inzichten, zeker de grote geesten onder ons.
Ik denk dat weinig mensen een match zijn voor wat er is en wat er aan komt. Wat heeft een grote geest te bieden?

Het feit dat het antwoord kan geven op dingen die niet direct in de input zitten, betekent voor mij dat het tot nieuwe inzichten kan komen. Het is ook al aangetoond dat het met een tree of thought tot betere resultaten komt, dat is een vorm van filosoferen.

Als het aan de opdracht als input ligt, je kunt een ai de opdracht geven om opdrachten voor zichzelf te schrijven. Dan heb je in feite ook een ai die uit inherente nieuwsgierigheid opereert gecreëerd.

Ik weet niet waar die '0 - irrelevant' vandaan komt. Mogen we hier alleen zeggen dat AI een doodlopende weg is om +2 te krijgen? Valt me tegen, zeker van Tweakers.
Vanmorgen jouw antwoord gelezen en net nog even gelezen om antwoord te geven.
Het feit dat het antwoord kan geven op dingen die niet direct in de input zitten, betekent voor mij dat het tot nieuwe inzichten kan komen
Dit vind ik een heel interessante gedachtegang. In plaats van "ik weet het niet", antwoordt AI met een gefantaseerd antwoord. Of het nu fout is of niet, er is een antwoord. Het enige dat nodig is, als het antwoord verkeerd is, is dat AI gecorrigeerd wordt. Gebeurt dit niet, dan kan deze fantasie een waarheid voor AI worden.
Ik ga hier eens flink over nadenken. Leuk gegeven.
Ik ben benieuwd naar je bevindingen. Je zou misschien ook kunnen zeggen dat jij nu input hebt gekregen waar jij op gaat hallucineren, met een conclusie komt die jouw werkelijkheid is tenzij die gecorrigeerd wordt. Of ga ik dan te ver? :)

Ik had het hier al een paar keer benoemd, maar ik raad The Black Box aan van Unexplainable. Goede podcast
Dat is het punt niet. Het punt is dat een LLM vooral heel brede “kennis” over algemene zaken. Lokale nuances ga je niet vinden. Iedereen is slimmer dan een taalmodel op bepaalde zaken.
Sterker nog, de LLM's krijgen alleen basale publieke data tot zijn beschikking.
Fabrikanten met specifieke kennis houden dat prive, waardoor een LLM nooit die complexe en diepgaande informatie tot zich krijgt. Voor een AGI heb je dat wel nodig. Je kunt niet "ontwikkel een nieuwe covid vaccin" vraag stellen, zonder de diepgaande kennis van AstraZeneca/Pfizer, gezondheidstudies, etc. En die krijgt alleen de AI van dat betreffende bedrijf. Maar die mist dan wel de kennis van ASML, P&G, J&J, Coca-cola, enz, zodat er altijd wel een stuk informatie mist om tot één AGI te komen.
Wat zie jij als AGI?

wikipedia:
(AGI) is a type of artificial intelligence (AI) that that matches or surpasses human capabilities across a wide range of cognitive tasks
Ik denk dat we daar wel aan komen hoor. De kennis waar jij het over hebt zit ook niet in 1 mens bij die bedrijven. Sterker nog, waarschijnlijk zit het grotendeels in computers die geraadpleegd worden.

Een ai die (de meeste) mensen outperformed gaan we wel zien hoor. Sterker nog, van de toetsen die chatgpt al met vlag en wimpel gehaald heeft, kan ik niet 1 vraag beantwoorden
Maar de grote vraag blijft: is dat ’gedrag’ intelligent of gewoon ‘heel veel parate kennis’

Echte intelligentie kan recursief
bedenken welke volgende stappen nodig zijn om een probleem op te lossen en
conclusies trekken uit observaties etc etc

Dat kunnen llm’s gewoon niet
Als je het zo zegt, lijkt het een soort zoekmachine/wikipedia/triviantkoning. Maar dat is echt een enorme onderschatting.

Ik val een beetje in de herhaling hier, excuses voor de genen die dat opvalt, maar veel van de ai's kunnen combineren, extrapoleren en creatieve oplossingen bedenken voor problemen waar het antwoord helemaal niet van op het internet te vinden is. Het snapt de context en kan diagnoses stellen. Die meest recente demo van GPT4o heeft aangetoond dat het op basis van visuele input ook van alles kan.

Dus ik weet gewoon niet wat je bedoelt als je zegt 'llms kunnen dat niet'. Alles wat het nu al kan, lijkt naar mijn mening erg veel op hoe wij dingen bedenken en dit is nog maar het begin.

Ik vond de 3-delige podcast serie The Black Box van Unexplainable erg goed en zou ik zeker aanraden. Ik ben benieuwd naar je mening daar over.
Zonder al te veel kennis van zaken, maar dat creatieve lijkt mij meer een illusie. Het blijft tot op zekere hoogte nog altijd combineren van de informatie binnen het model.

Bv. als een model de language spec en API gezien heeft van een programmeertaal, zal het niet in staat zijn om hieruit code te genereren. Wat wel zou moeten voldoende zijn als het ook echt iets kan begrijpen. Het model moet eerst code voorbeelden gezien hebben en daarbij linken leggen naar wat de code doet. Het gaat dan over dat het model gigantisch veel code heeft gezien en dat maakt de illusie dan ook zo sterk.

Want bv. als ik vrag om een tekst (random gegenereerd iets) om het scherm af te drukken weet het model precies waar de tekst moet geplaatst worden in de syntax. Je zou dan denken dat het iets creërt want die tekst heeft het model nog nooit eerder gezien. Echter, dat is dan weer een illusie, het model weet wel degelijk waar de tekst moet komen omdat het dit al eerder heeft gezien.

Bij programmeren en taal zijn de mogelijkheden ook best wel beperkt. De complexiteit zit meer in het combineren van en nog weten wat deed wat, daar is een model natuurlijk sterker in dan het menselijk brein. Dat neemt niet weg dat het nog altijd wel maf is te zien wat het kan, maar het blifjt toch belangrijk te beseffen wat het eigenlijk doet en de limitaties/risico´s die daaruit voortvloeien

[Reactie gewijzigd door miitjohn op 22 juli 2024 13:28]

maar veel van de ai's kunnen combineren, extrapoleren en creatieve oplossingen bedenken voor problemen waar het antwoord helemaal niet van op het internet te vinden is
Geef eens een voorbeeld? Ik heb ze nog nergens in het wild gezien, ook niet in die demo en die serie heeft een hoog ‘popular science’ gehalte.

[Reactie gewijzigd door fenrirs op 22 juli 2024 13:28]

Sorry ik had eerder even geen gelegenheid uitgebreid te reageren.

Bij the Black Box podcast van Unexplainable hebben ze het over een vraag waarvan het antwoord niet op internet staat die het beantwoord met iets dat toch behoorlijk lijkt op logische redenatie. De vraag is iets in de richting van 'hoe stapel ik een boek, een laptop, 6 eieren en een bal?'

In dezelfde podcast hebben ze vergelijkingen gemaakt waarin ze een ai duizenden potjes Go hebben laten analyseren, vs een ai die ze de regels hebben verteld en het zelf hebben laten uitzoeken. Die laatste kwam met hele goede en unieke strategieën.

Ik zit vooral op het grafische deel van ai, daarmee combineer ik stijlen en concepten waarmee ik unieke werken van hoge kwaliteit creëer. Dit kan ook met tekst. Laatst nog een verjaardagswens gemaakt in de stijl van the dude van the Big Lebowski.

Ik weet niet hoe een mens redeneert, dus ik vind het ook lastig om dat te vergelijken met hoe een ai dat doet. Maar ik weet wel dat de ai's die we nu zie meer doen dan louter het volgende woord voorspellen.
Laat ik het zo zeggen: wat ze laten zien lijkt inderdaad op redeneren, maar vooral vanuit bestaande modellen (spelregels zo je wilt) extrapoleren. De crux zit ‘m in het

(Regel 10) bedenken van een theorie, vervolgens bv experimenten bedenken die de theorie bevestigen dan wel ontkrachten en daaruit conclusies trekken. Maar ook!, een anomalie in je data kunnen zien als nieuwe richting voor wellicht een nieuwe theorie die de oude kan vervangen.
(Regel 20, goto 10)

In het kort noemen we dat “fundamentele wetenschap”.

Op ons lab gebruiken we diverse AI modellen voor het ´voorspellen´ van 3d eiwit structuren. Daaraan zie je dat de huidige AI geblokkeerd wordt door lokale optima, terwijl de biologisch actieve variant afwijkt van dat optimum
(En laten we dáár natuurlijk in geïnteresseerd zijn)

Wat overigens niet ontkracht dat de huidige AI geen fantastisch hulpmiddel is

[Reactie gewijzigd door fenrirs op 22 juli 2024 13:28]

Dat is slechts een kwestie van tijd. Deze mensen bij OpenAI en Anthropic zijn bereid om een model te trainen die 100 miljard of meer mag kosten en dan komen die mensen met kennis op masterniveau wel om al hun kennis over te dragen aan de AI overlords!
ik sprak iemand, heeft zn eigen 1 mans software bedrijf.
die ging even wat werk outsourcen.
liet mij het contract zien wat hij wou gebruiken, had hij even door chatGPT laten maken, heeft em 30 min gekost en zegt.. kijk dat scheelt me 1500E aan advocaat kosten..
ik google : template contract freelance softwaredesigner.
ik zeg tegen hem : hier gebruik dit maar, dan raak je je hele bedrijf niet kwijt.
Een LLM kun je vergelijken met een heel groot ZIP bestand. ZIP is lossless compressie, LLM is lossy. Het bestand kun je niet uitpakken, alleen bevragen via de 'API'. Door de juiste vragen te stellen in natuurlijke taal kun je voor jou op dat moment waardevolle informatie er uit destilleren. Dit proces is echter niet foutloos. Het onderliggende algoritme heeft geleerd hoe de onderlinge verbanden liggen tussen de verschillende woorden en kan taalkundig de zin begrijpen (zonder te begrijpen wat het aan het doen is of de echte betekenis te kennen) om tot een antwoord te komen.
Tijdens de training van enkele weken worden de miljarden documenten, webpagina's, video's, etc (vele TiB aan data) als het ware gecomprimeerd tot een bestand van 14GiB voor een model met 7 miljard parameters. De compressie is ook gelijk de training over hoe de informatie onderling is verbonden met elkaar.
Het blijft me eerlijk gezegd verrassen dat men nogsteeds ditsoort omschrijvingen maakt. Alsof het een soort zoekmachine is die stukjes gegevens bij elkaar plakt.

Het is veel verder dan dat. Het kan extrapoleren en inspiratie vinden uit wat het weet. Het kan (juiste) oplossingen bedenken voor vragen waarvan het antwoord niet op het internet staat. Ik raad de 3 delige podcast The Black Box van Unexplainable aan.

Is het wel eens fout? Ja, maar dat is ieder mens ook wel eens. Ik denk dat menselijke intelligentie overschatten als het op ai aankomt, want de twee liggen nu al niet ver uit elkaar, dat verschil gaat snel heel klein worden. Het is toekomst voorspellen natuurlijk, maar kom er vooral over een jaar nog eens terug om te vertellen dat ik het mis had.
De foutmarge van AI is al kleiner dan die van mensen, en op taken die voorheen door mensen werden gedaan scoort AI al beter. Mensen maken ook geen onderscheid tussen de vele vormen zoals het basale generative en discriminative AI.

Als ik "geprogrammeerde" agents inzet in mindpal voor tekst analyse, of tekst aanhoud tegen standaard gedachten analyses krijg ik bijzondere resultaten om bv een filosofisch stuk te analyseren en verbeteren.

Gebruik ik een agent als Engineering Consultand heb ik een prima assistent tijdens werk in uitvoeren.

Dat zijn andere mogelijkheden dan aan een GPT vragen stellen waarvan je het antwoord al weet.
Precies. Ik snap niet waarom men zo stellig is dat het niet zo goed is of kan zijn als een mens. Ik zou dat ook graag geloven, want de gevolgen gaan op niet al te lange termijn echt wel heftig zijn. Maar als we dat tot het einde blijven ontkennen, maken we het onszelf vooral moeilijker.
Ik denk dat dat komt omdat de meesten niet verder komen dan het gebruik van een chatbot en de terechte verhalen dag gpt-4 erg slecht is geworden. Maar de meesten zien niet wat er ondertussen wel gebeurt.

Het heeft een leercurve die je wel moet ondernemen.
Het is nog niet helemaal autonoom (omdat er eerst altijd een opdracht van een mens aan vooraf moet gaan) maar nu al zou je een heel eind kunnen komen met het lamleggen van de wereld door een AI te vragen alle aan het internet aangesloten systemen te wissen of herprogrammeren door gebruik te maken van een project zoals BabyAGI en anderen. Het lukt misschien niet gelijk, maar zodra je de opdracht op zo een manier kunt inschrijven dat het een lijst van alle IP-adressen opstelt en stuk voor stuk langs loopt om te zien of er kwetsbaarheden zijn die uit te buiten zijn, is het enige dat dit nog kon stoppen, het stopzetten van de machine waarop het script draait.
Dat is geen AGI, maar er zijn inderdaad heel veel nare dingen die je kunt bereiken met deze modellen voordat we AGI bereiken.
Dat bedoel ik inderdaad te zeggen; het kan nu al gevaarlijk zijn, laat staan wanneer AGI echt kan worden ontwikkeld.
Dat is er al en eentje gaat rond onder de naam wormgpt die al door criminele organisaties wordt ingezet.
Waarom denk je dat dit over LLMs gaat? Het gaat over AGI, en dat willen ze bereiken.
Het zal eerder over grote multi-modale modellen (LMMs) gaan, maar er zijn nu geen andere technieken bekend die een substantiële stap vooruit kunnen brengen.

Vooruitgang komt niet uit de lucht vallen, ChatGPT is gebaseerd op technieken die al enkele jaren beschikbaar waren en door de community als geheel (onderzoekslabo's binnen bedrijven en onderzoek vanuit de universiteiten) zijn ontwikkeld. De voorsprong bij OpenAI is ervan gekomen dat ze heel sterk ingenieurswerk hebben verricht met data verzamelen en zeer grote modellen trainen.

Er wordt wel gezegd dat we dit aan de universiteiten en in Europa niet zouden kunnen nadoen. Dat is waar, omdat we de GPUs niet hebben en het ook wel wat software-infrastructuur vereist die we niet hebben, maar allerbelangrijkst doordat OpenAI zowel onethisch als illegaal heeft gehandeld bij het verzamelen van data.

Het is niet zo dat OpenAI een enorme voorsprong heeft qua kennis, in elk geval is daarvoor geen bewijs geleverd en in bijvoorbeeld recente interviews met Ilya Sutskever geeft hij daar ook geen enkele aanleiding voor om te denken dat dat stiekem toch zo is. We gaan niet binnenkort ineens nog veel accuratere en intelligentere AI hebben en zelfs op de middellange termijn (5-10 jaar) is het maar de vraag hoeveel verder we echt gaan komen. Technieken die er toe zouden leiden dat AI systemen in alle opzichten beter zouden worden dan ons brein is geen enkel zicht op, dat lijkt me echt heel ver weg.
Dat is denk ik ook het echte probleem, het te pas en te onpas toepassen van AI bij gezichtsherkenning, hypotheekbeoordeling etc. waarvan later blijkt dat het niet goed gaat, i.p.v. een nieuwe toepassing eerst te testen. Zo'n afdeling zal daarin het veschil niet maken, of anders in kleinere mate.

Ook niet zo verrassend dat zo'n af afdeling nu komt te verdwijnen, met OpenAI dat eerst een non-profit organisatie was en nu hard naar investeringen op zoek is, en dat dat eigenlijk een overblijfsel uit die tijd is.
Niet mee eens, taal modellen kunnen wel degelijke armfull zijn, Misalignment en AGI zijn niet mutually exclusive.
Bijv. als een taal model zou antwoorden dat "zelfmoord een goede optie is na een scheiding", inclusief goede onderbouwing, dan is dat toch wel schadelijk.

veiligheidsonderzoek helpt vaak ook met de explainably van de AI, vaak komen er nieuwe inzichtingen uit dit soort onderzoek.
Maar er gebeuren wel gekke dingen bij open-ai. Zoals het plotselinge ontslag van Sam Altman, waarbij hij binnen no-time weer CEO was waarbij de rebellie binnen het bedrijf voortkomt vanuit mensen die verantwoordelijk zijn voor de veiligheid.

Ik denk niet dat het allemaal een show is voor de bühne waarbij Sam Altman het vooral om de PR te doen is.

Of ze AGI hebben en of dat uberhaubt mogelijk is met de techniek van open-ai geen idee, maar dit is wel hoe het zou gaan, voor de buitenwereld, als een bedrijf op AGI koers zit.
Het is echt pure fictie om geld aan te trekken, we staan daar echt heel ver vanaf.

AI is super nuttig en gaat veel brengen, maar deze shows dienen in de eerste plaats om kapitaal te verplaatsen naar de zakken van bepaalde bedrijven en individuen. Ik denk dat Ilya Sutskever en Jan Leike het gewoon oneens zijn met Sam Altman over hoe kapitalistisch te werk ze willen gaan. Het bedrijf heet OpenAI, maar het is ondertussen het meest gesloten bedrijf in de sector.
We weten gewoon niet wat er gebeurd bij open-ai, dus hoever ze van AGI af zijn geen idee, niemand weet dat. Zolang AI zich exponentieel ontwikkeld is alles mogelijk.

GPT-4o is strikt genomen al geen LLM meer maar een combinatie van modellen bijvoorbeeld. Het heeft eigenlijk helemaal niets met GPT-4 vanilla te maken. Niemand zag dat aankomen.

[Reactie gewijzigd door friketje1 op 22 juli 2024 13:28]

Verhoogde efficiëntie en multi-modaliteit lagen juist heel erg voor de hand. Ik kan niet voorspellen wat ze precies wel en niet gaan doen bij OpenAI, maar het is wel mijn werk om te weten wat er kan.

AGI is niet gedefinieerd wat het is, dus misschien vind jij dat het straks bereikt is. Zolang het niet kan leren en geen logica kan toepassen blijf ik graag stellig zeggen dat het zelfs geen AI is. Logica is wellicht wel binnen bereik binnen afzienbare tijd (hopelijk 5-10 jaar om het goed te krijgen, maar het kan ook veel langer gaan duren), waarbij de efficiëntie nu de uitdaging is. Online leren is echter een heel moeilijk probleem waar ik zelfs geen voorstellen tot oplossingen heb gezien, want je moet dan uiteraard waarborgen dat het geen onwaarheden gaat internaliseren.
Ik geloof ook niet zo in een AGI die alles overneemt, het blijven modellen. Stop er een vraag in en je krijgt een antwoord.
Ik ben ook geen deskundige. Maar er zijn genoeg deskundigen die zich hier zorgen over maken.

Een AGI die het overgrote deel van kantoorwerk voor ons overneemt is denk ik al erg genoeg, het hele economische en sociale systeem stort dan in.
Dat is een probleem van de manier waarop wij welvaart delen, niet van AI. Ik maak me daar al lange tijd zeer veel zorgen over. We hebben geen AGI nodig om dat tot een heel groot probleem te laten worden.
Want denk je van de ethische problemen ? Ik maak me hier ook al een tijd zorgen over.
Waarom zou het economische systeem instorten als Ai het werk van ons overneemt? Als het werk gedaan is worden de producten en diensten dus nog steeds geproduceerd dus we behouden onze welvaart. We moeten alleen een iets ander systeem voor de verdeling van die welvaart invoeren. Bijvoorbeeld een universeel inkomen.

Toen de stoommachine werd uitgevonden en de landarbeiders op het veld door tractoren werden vervangen is het economische systeem ook niet ingestort.
Het is anders toch echt makkelijker/beter om zeer gespecialiseerde LLMs over 1 onderwerp te maken en deze dan via een centrale AI/LLM aan te spreken, wanneer nodig. Want anders is het in feite onnodige baggage.

Het draaien van kleinere, specialistische LLMs kost minder aan energie en rekenkracht als zulke modellen getraind dienen te worden.

Specialistisch betekent ook dat het bijhouden ervan wel achter een betaalmodel gezet kan worden.
Maar weet jij en weten wij wat er achter de schermen gebeurd en hoever ze zijn met bepaalde onderzoeken waar we geen weet van hebben.
Ik weet dat omdat dat mijn werk is. De community is gelukkig vrij open. Uiteraard beschermd OpenAI wel hun IP en houden ze dingen geheim (het is bijvoorbeeld niet bekend hoe ChatGPT precies werkt). Dat in tegenstelling tot Meta die bijvoorbeeld hun Llama-modellen, die bijna net zo goed zijn, in volledige openheid ontwikkelen en ook open source beschikbaar stellen.
Ik vermoed dat @jurma ook bedoelt achter de schermen van AI-ontwikkelaars in bijvoorbeeld China en Rusland. Er wordt gemeld dat LLM een doodlopende weg is, maar wie weet of ze in die eerder genoemde landen geen andere weg zijn ingeslagen. Alleen al om die reden zullen er in VS bedrijven zijn, waaronder OpenAI die niet het achterste van hun tong laten zien.
Ansich is dit geen probleem. Je moet beveiliging vanaf het begin opnemen, niet als overkoepeling die de onderste laag bewaakt zoals ISO26262.

Maar je moet wel de juiste mensen hebben die vanuit het principe veiligheid en robuust primair de zaak benaderen.
Je klinkt alsof je heel goed een manager kan zijn. Nu nog een piketpaaltje slaan om bottom up tot de kern van de zaak te komen middels kpis die de governance waarborgen met SMART targets en we zijn goed op weg.

[Reactie gewijzigd door armageddon_2k1 op 22 juli 2024 13:28]

Vergeet niet eerst een rondje langs de velden voordat ze er een klap op kunnen geven.
Laten we die aanvliegroute nog even gebruiken als kapstok voor een vervolgsessie. Hebben we een stip op de horizon.
Hahaha mijn zaterdagmorgen is goed. Dankjewel. Het was ook het eerste wat ik dacht toen ik dit las.
Daarom is het goed dat er managers zijn die de grote lijnen in de gaten houden. Als je alleen techneuten zou hebben doet iedereen hartstikke goed z'n werk maar werkt er uiteindelijk niets.

Maar jij weet het allemaal heel goed; hoe ga jij end-to-end security implementeren?

[Reactie gewijzigd door Frame164 op 22 juli 2024 13:28]

Anoniem: 454358 @Frame16418 mei 2024 12:26
Precies, als je enkel techneuten hebt, blijven ze ontwikkelden, komt er weer iets nieuws bij, hebben ze weer een nieuw framework oid ontdekt, kan het oude weer weg. 5 jaar verder en nog niks
Als je enkel techneuten hebt blijven ze inderdaad ontwikkelen want dat is hun werk. Bij de meeste komt er bij een goed omschreven eindproduct ook wel een resultaat is mijn ervaring.
We hebben de matige middelmanager gespot
Ik denk dat een aparte afdeling juist een goed idee is, omdat zij als enig doel hebben om te bedenken hoe AI veilig gehouden kan worden. Als het onderdeel van een andere afdeling is, kunnen zij misschien wel een veilige AI maken, maar de kernwaarden waaronder dit gebeurt hoeven dan niet perse heel duidelijk (of openbaar te delen) zijn, waardoor een latere versie van een model misschien per ongeluk een paar onderdelen die voor de veiligheid waren toegevoegd, aanpast of verwijderd.

Om een analogie te trekken naar de atoombom; de wetenschappers die deze hebben gemaakt konden prima zorgen dat het ding niet spontaan ontplofte bij bijvoorbeeld een ongeluk, maar over hoe het ding gebruikt zou worden hadden ze niks in te brengen. Het zijn daarna andere mensen (onder andere Von Neumann) geweest die hebben bedacht hoe de wereld (relatief) veilig gehouden kon worden (door te zorgen dat er zo veel kernwapens kwamen dat niemand er een dúrfde te gebruiken). Het probleem daarmee was trouwens dat men uit ging van dat geen enkele partij een aanval durft te starten omdat ze dan gegarandeerd zelf ook vernietigd zouden worden; als er ooit iemand de baas is over kernwapens die wél zichzelf durft op te offeren om een ander maar te kunnen vernietigen, moeten we andere oplossingen bedenken.

Met AI is het net zo; de regels van (veilig) gebruik moeten het liefst zo compleet mogelijk en niet te omzeilen zijn.
Je hebt gelijk dat beveiliging standaard onderdeel moet zijn van de operatie en het management, maar daarmee ben je er nog niet. Het 'three lines of defence' model beschrijft dat mooi. De 1e lijn is het dagelijkse management en iedereen die de uitvoering doet, de 2e lijn zijn interne afdelingen die controlen of de operatie goed gaat en management de juiste prioriteiten stelt, en de 3e lijn is een controle door externe partij.
Uit dit artikel maak ik op dat ze de 2e lijn helemaal hebben opgedoekt en dat is zorgelijk. Een 3e lijn hadden ze denk ik überhaupt nooit.

[Reactie gewijzigd door -Elmer- op 22 juli 2024 13:28]

Beveiliging kunnen opnemen is voor een groot gedeelte gebaseerd op beseffen wat de risico's zijn en hoe men die kan herkennen. Geavanceerde AI kunnen maken geeft niet zomaar besef van de risico's. Het zorgt ook niet zomaar voor genoeg belang om er genoeg onderzoek naar te doen. Daarom was er een speciale onderzoeksgroep.
Hoe is een standaard die de veiligheid van elektrische systemen in voertuigen waarborgt relevant voor AI?
het is een analogie: menselijke veiligheid moet voor alles gaan, of wil je een AI die je ledematen en organen harvest omdat die beter tot hun recht komen aan/in het lijf van een ander individu dat een betere impact heeft op hoe de samenleving zou moeten zijn?
Weer een gevalletje van enkel geld nu is belangrijk vrees ik.
Geld boeit niet zo denk ik, investeerders zat.
Misschien zit al dat 'veiligheid gedoe' gewoon de visie en innovatie drang van OpenAI/Altman in de weg.
Grote kans dat dit de oorzaak is. De "lastige" afdeling welke telkens mogelijk de ontwikkeling vertraagd.
Dat zal ook een bijzondere situatie zijn geweest en niet geheel een populaire afdeling misschien.
Nou, dat hoeft natuurlijk niet. Waarom een apart team als je het ook kunt integreren in de teams die werkelijk het systeem bouwen en onderzieken, ofwel security from the ground up en niet als aftertought. Logisch dat de teamleider een ander point of view heeft, die verliest immers zijn baan. Maar wat ook kan zijn is dat het team nu opgedoekt wordt omdat juist beide teamleiders op zijn gestapt, dat is namelijk niet duidelijk uit het hele verhaal.
Dat is als een slager die zijn eigen vlees keurt.
In dit geval was het met het losse team ook, immers was die van hetzelfde bedrijf.
Het is altijd goed als er meer mensen naar de code kijken, en als het goed is ontstaat er een competitie tussen de afdelingen om zo weinig mogelijk fouten te maken resp. zo veel mogelijk fouten te vinden.
Wie zegt dat dat team ook naar code keek. Het was vooral een denktank hoe het 'veilig' te houden.
Anoniem: 80910 @StGermain18 mei 2024 10:17
Zoals in het artikel, zijn er 2 heren weggegaan. Gewoon oorzaak / gevolg
Je gaat niet in een week besluiten om een afdeling op te doeken. Vermoed eerder dat ze weg zijn gegaan wegens de ontbinding
de 2 heren zijn weggegaan als gevolg van opdoeken vd afdeling.
zo begrijp ik het uit dit artikel
Misschien het artikel lezen?
Is natuurlijk ook suf om daar een aparte afdeling voor te hebben, dit moet in je grondvesten zitten. Zo te lezen gaat dit op een andere manier gedaan worden. Ook het hebben van zo'n afdeling is geen garantie dat er wat mee gedaan wordt, je kunt die mensen/adviezen altijd negeren. De toekomst gaat het uitwijzen.
Precies, daarom houd men bij Google ook een aantal principes in het vaandel bij elke stap van hun ontwikkelingen, en zelfs dan gaat het soms nog mis.

https://ai.google/responsibility/principles/
Belangrijkste principe van Google was toch altijd 'Do no evil' ?

Principes van Google boezemen mij weinig vertrouwen in.
Ik vertrouw Google eigenlijk nog het meeste, het bedrijf heeft altijd met deze principes gewerkt en dat zal ze op de lange termijn veel winst opleveren. Juist Microsoft en anderen alike hebben niet meer dan dollartekens in de ogen en hebben echt eens straat gemist en varen nog altijd een ouderwetse erg koers met hun producten.

Hun complete eco systeem is hier niet voor gemaakt.
In basis heb je gelijk, maar alle losse afdelingen hebben eigen belangen, eigenlijk net als dat met landen het geval is. En daar wringt de schoen als er niet een controlerende partij is dis onafhankelijk kan controleren en bijsturen waar nodig. En zo'n afdeling is dan weer iets waar de losse afdelingen niet echt belang bij hebben.
elke keer als ik nieuws lees over AI, vraag ik me af waar (of hoe) de mensheid zal zijn over 50 of 100jr.
deze vraag moet je zien als: 100jr geleden hadden we ook geen televisie :)

en dan moet ik altijd denken aan situaties zoals in de films als Matrix of Terminator. beide films hebben met computers/machine's te maken die sterker zijn dan mensen (of boven mensen staan) die mensheid willen controleren of uitroeien

[Reactie gewijzigd door ari2asem op 22 juli 2024 13:28]

Dit zie je bij alle nieuwe ontwikkelingen. Toen de trein er net was waren er mensen die bang waren dat de baarmoeder er bij vrouwen uit zou schieten door de hoge snelheid....
Anoniem: 532949 @Frame16418 mei 2024 15:42
Beetje een dooddoener, natuurlijk zijn er bij elke techniek irrationele angsten, maar dat betekend natuurlijk niet dat elke nieuwe techniek zonder gevaar is. Zo moet je bijv ook niet met een auto op het trein spoor gaan staan...

AI wat mij betreft in een unieke classes, aangezien we nog nooit eerder geprobeerd hebben om aan de mens equivalente intelligentie kunstmatig na te bootsen. Intelligentie is evolutionair gezien nog slecht begrepen, maar tegelijk enorm "krachtig" aangezien in de natuur intelligentie vaak een bepaalde factor is in de overleving.

@ari2asem zeg terecht dat we geen idee hebben wat ons over 100 jaar te wachten staat.
Klopt, zo was asbest net na de ontdekking een wondermiddel. Wat je daar allemaal wel niet mee kon. Van kookplaatjes tot isolatie materiaal. Zelfs stevige daken kon je ernee maken.

En nu decennia later is de consensus toch wel, wat een mooi produkt is dat asbest toch gebleken. Veel schuurtjes hebben nog altijd zo'n mooi asbest dak. Vergaat gewoon niet.
En beide zijn compleet fictie?
voor ons en nu, ja fictie.
maar over 100jr misschien niet meer
Of als de film Stealth, wat veel dichter bij is aangezien er al vol op word getest met een zelf lerend AI gevechts vliegtuig (X-62A ACE)
Misschien zijn ze to het besef gekomen dat een LLM helemaal niet leidt tot een AI die de wereld zal overnemen. Een LLM is maar een machien die voorspelt wat het volgende woord zal zijn, niet iets die rationeel kan denken en daarmee beslissingen kan nemen (ik besef dat dit nogal een vereenvoudiging is van wat een LLM is).
Exact dit dus, ik roep het al een paar jaar. Ik begrijp dat huidige AI tools niet technische mensen hun fantasie wild doet laat lopen en het gevoel geeft alsof er echt intelligentie aan het ontstaan is. Maar het zijn enkel voorgeprogrammeerde algoritmes, niets meer niets minder. Het leert niet, het wordt niet slimmer uit zichzelf. Als jij in een conversatie aangeeft dat het een fout antwoord heeft gegeven dan reageert het erop, maar geeft net zo goed gewoon weer het foute antwoord de volgende keer dat je dezelfde vraag stelt. Er is niets intelligents aan.

Ik zeg het al vaker, dit is geen intelligentie. Mijn inziens zijn al deze tools als LLM en Image generation etc helemaal geen AI, maar gewoon voorgeprogrammeerde reken modellen. Maar goed de wereld is nu zo in de ban ervan, men wil het niet eens meer horen. We zijn iig nog echt wel 20 jaar verwijderd van een echte Skynet. De hele bangmakerij van de grote AI leiders is alleen maar om ons het idee te geven dat het veel meer is dan het daadwerkelijk is. Angst is vaak de beste marketing tool!

[Reactie gewijzigd door ro8in op 22 juli 2024 13:28]

AI leert wel degelijk, alle informatie die er in word gestopt en het zelf verzameld leert het algoritme van, of het doel nou is om menselijker te kunnen communiceren, of om beter iets te kunnen beoordelen.
Leren is observeren, concluderen en fundamenteel begrijpen en dat begrip toepassen.

Voer een AI structureel met foute info en het kan kan niet beredeneren dat die info ook fout ís en zichzelf corrigeren. Simpelweg omdat 99% van zijn info zegt dat 1+1, 3 is en dus dat het antwoord 2 slechts 0.01% kans heeft om goed te zijn
En als je bij een kind het zelfde doet krijg je het zelfde resultaat...
Genoeg voorbeelden van kinderen die ons grote westerse sprookjesboek met de paplepel hebben ingegoten gekregen, maar zich daar nu van distantiëren.
Maar dat doen ze ook pas later als ze genoeg informatie hebben vergaard om dat soort beslissingen zelf te nemen, ik verwacht dat het met AI niet heel anders zal zijn.
Dat is niet waar, het model moet opnieuw getrained worden seperate van de werking.

Een mens moet analyseren aan de hand van invoer data dat het model een verkeerd antwoord geeft en dan de training data aanpassen en het model opnieuw trainen zodat dat in het vervolg niet meer gebeurd.

Jij die zegt dat het antwoord fout is, zegt het model niks. Het heeft geen begrip. Het is enkel een woord kans berekening. Het zou zichzelf dus ook nooit verbeteren, dat moet door mensen gedaan worden.

Dat is ook bijv de reden dat je steeds ziet van hij heeft informatie tot dec 2022, omdat de trainingsdataset maar tot die datum loopt. Jij kan vervolgens wel aan chatgpt allemaal info geven over na die periode, maar daar doet het niks mee. Pas als een mens de training data update en vervolgens weer een nieuw model trained zal het deze info bevatten.

Het is niet intelligent en daarmee dus ook geen kunstmatige intelligentie

[Reactie gewijzigd door ro8in op 22 juli 2024 13:28]

Dat is dus exact wat ik zeg. Een AI systeem weet alleen wat je er in stopt. Een mens kan aan de hand van de geleverde data zelf !!! gaan experimenteren, concluderen en corrigeren. Voorbeelden: Galileo die observeerde dat de zon in het middelpunt van ons stelsel moest staan. Een berg quantum fysici aan het begin van de twintigste eeuw etc.

Toegegeven, de meeste mensen zijn niet zó slim, maar slim genoeg om de tools die er uit voortkomen te gebruiken. Mocht AI ooit zelf iets gaan bedenken dan gebruiken mensen dat weer als tool.
Dat probeer ik ook uit te leggen als in het leert niet zelf. Mensen kunnen leren ervan en vervolgens de werking aanpassen. Maar uit zichzelf zal het nooit leren of aanpassen en is daarmee mijn inziens dus geen intelligentie. Mensen doen dat wel!
We zijn het volkomen eens ;)
GPT-4o is al geen LLM meer maar een maar multimodal model.
Dus nog steeds een model
Er gaat ergens in de nabije toekomst een heel vervelend moment komen voor alle ‘AGI is niet haalbaal is met de huidige technieken’ roepers.

Een ‘told you so’ van jewelste.

Een die ik liever niet wil uitspreken. Het is geen kwestie van of, maar wanneer.

Eerlijk gezegd geniet ik nog van de tijd die we hebben. En wens onze AI overlords veel succes met onze opvolging.
De ironie is: hoe meer we toegeven dat we op machines lijken, hoe meer we kunnen leren over de verschillen tussen mens en machine; en hoe meer we ontkennen dat we op machines lijken, hoe onwetender we zullen blijven over de verschillen tussen mens en machine.
De clou gaat me even de pet de boven eerlijk gezegd.

Wat ik bedoel is door de ontwikkelingen in AI, ik letterlijk een stok achter de deur heb om de dingen te doen die ik nog wil doen. Geen moment van uitstel meer. Een beetje zoals je leeft als je een terminale ziekte hebt. Mijn eigen geluk nastreven, en zoveel mogelijk positieve ervaringen opdoen die ik kan. En dat neem ik heel serieus.

Ik val niemand meer lastig met mijn verhaal over AI (krijg je louter opgetrokken wenkbrauwen). Ik wil ook niets meer over de laatste ontwikkelingen weten. Behalve af en toe hier op de frontpage een berichtje plaatsen. Iedereen die het er niet mee eens is, prima. Ik ga er niet met je in discussie.

Mocht AGI niet in mijn leven tot stand komen, ben ik louter blij. Mocht het zover komen dan kan ik met een glimlach ons einde tegemoet zien. Dan heb ik er alles uit kunnen halen.
Zal wel een doemdenker zijn, maar ik verwacht dat er heel veel banen op de tocht komen te staan door AI. Nu hoor ik in mijn omgeving steeds,: "ja, maar dat is goed, iedereen aan de UBI, en iedereen kan zijn leven naar eigen wens invullen met hobbies, studies, werk of simpelweg niets, want er toch een overschot van alles."

Nu heb ik mijn dienstplicht vervuld en verwacht dat iedereen in zo'n leefomgeving zal worden geduwd, want efficient. Leuk is echter heel anders. En dat "gelijkheid, blijheid"-idee staat mij niet zo aan. Ook verwacht ik dat diegenen die nu macht en weelde hebben verzameld dat niet zonder slag of stoot op gaan geven. Met alle gevolgen van dien. Mix daar alle verschillende AI-spelers doorheen met hun eigen agenda en ik moet helaas concluderen dat we niet op een utopische wereld uitkomen, zoals getoond in Star Trek.

Eerder een maatschappij gevuld met personen die nog amper wat kunnen als AI even onbeschikbaar is. Niet vanwege kennis/diensten die even niet beschikbaar zijn, maar amper nog voor zichzelf kunnen denken zonder de AI. Zulke schade is al groot zodra we 1 generatie verder zijn, de 2e generatie zal nog minder kunnen, doordat zij geen mentoring meer krijgen van voorgaande generaties en hun kennis/kunde. Onderschat dat verlies aan kennis niet. Of hoe snel het menselijk brein denkt dat het niet zonder een bepaald medium kan functioneren. Neem iedereen onder de 35 zijn/haar telefoon weg en je weet precies hoe dat in zijn werk zal gaan.

Voor AI zullen mensen na de 2e generatie niet anders worden beschouwd als hoe de mens op dit moment vee/lastdieren beschouwd. Vee eindigt tegenwoordig vooral op ons bord. Die nood heeft AI niet, wel electriciteit, dus we zullen al gauw leren op welke leeftijd het menselijk lichaam ideaal is om als stookblok te worden gebruikt voor de energiecentrale(s) van de winnende AI.
Die snap ik niet; geen werk maar de rest van je leven je hobby’s uitoefenen en quality time met familie en vrienden! Dat klinkt mij een stuk beter dan je hele leven werken. Als je je daar helemaal niets bij kunt voorstellen dan zit je op een andere golflengte dan mij en zullen we het nooit eens worden.

Maar wees niet bevreest; dat zal nooit gebeuren. Eerder een flinke oorlog zodat the powers that be flink kunnen snoeien in het aantal mensen op aarde. En vervolgens de resterende grondstoffen op aarde in een veel langzamer tempo opmaken.
Wat de één werk noemt is voor de ander hobby, creativiteit en nieuwsgierigheid en andersom
Ik snap wat je bedoelt. Werken kan een hobby zijn.

Dan nog ken ik genoeg mensen die roepen dat werk alles voor hen is, en dag en nacht werken. Dat vind ik geen gezonde hobby eerlijk gezegd. Want alles draait om werk. Familie moet wijken. Vakantie moeten wijken. Vrienden zijn personen die ze vanuit hun carrière hebben leren kennen en die louter over werk kunnen praten. Dan kun je werken een hobby noemen inderdaad. Ik zie het echter als een manier om bepaalde onzekerheden weg te drukken. Vaak een minderwaardigheid complex compenseren met status en geld. Deze mensen hebben een allergie voor ziekte, zwakte en kwetsbaarheid.

Ik ken ook mensen die daadwerkelijk van hun passie hun werk maken. Kunstenaars die hun hele leven wijden aan het maken van kunst. Totaal geen financiële zekerheid en vaak geen rooie cent te makken. Maar volhouden in hun hobby omdat ze diep van binnen weten dat dit is wat ze willen.

Dan zijn er mensen werken omdat er eind van de maand rekeningen moeten worden betaald, en eigenlijk nooit een beroep hebben gekozen. Die groep is het meest kwetsbaar om werkeloos te worden. Die weten niet wat ze met hun vrije tijd moeten doen.

De grootste groep mensen bevindt zich tussen deze spectrums. De een heeft wat meer van het een en de ander heeft wat meer van het ander.
Gelukkig ben ik een mix. Ik kan los gaan op een wetenschappelijk experiment, maar ook genieten van mijn hond in het bos of een barbecue met vrienden en familie. Inderdaad allemaal even belangrijk.

Ik hou dan ook de 33% regel aan. 1/3 werk, 1/3 vrienden en familie en 1/3 hobby en ontspanning. Soms combinaties
Niet werken maar wel hobby's en kwaliteit van leven. Dat is onbestaanbaar in deze kapitalistische wereld.
Neem iedereen onder de 35 zijn/haar telefoon weg en je weet precies hoe dat in zijn werk zal gaan.
Grappig dat je dit noemt. Naar aanleiding van het tv programma ‘no way back’ hebben we een soort van survival in de Ardennen gedaan met onze nieuwe studenten (18-20) als team building week. Alleen de basis zaken, basis materiaal en geen mobiel of geld.

Binnen twee dagen stond er een kamp, waren er eieren en melk van een lokale boer in ruil voor een paar klusjes en was er een soort van brug over het riviertje bij de kampeer plaats gemaakt. Ook een vuurtje met wat instructie was geen probleem.

Dit geeft aan hoe creatief men kan worden als alle basis weg valt. Een AI is helemaal niets als de stroom wegvalt.

Uiteraard kan je allerlei matrix achtige doem scenario’s bedenken, maar die zijn gewoon niet reeel

[Reactie gewijzigd door fenrirs op 22 juli 2024 13:28]

You best believe in dystopian nightmares.... You're in one.
Dewelke dan wel?
So it begins. John Connor waar ben je? ;)

Op dit item kan niet meer gereageerd worden.