Ceo's OpenAI en DeepMind waarschuwen voor gevaar van uitsterven mens door AI

De directeuren van onder meer ChatGPT-maker OpenAI en Google DeepMind hebben in een statement gewaarschuwd voor het gevaar van het uitsterven van de mens door AI. Zij tekenden samen met onder meer prominente AI-onderzoekers.

Statement Center AI Safety
Statement Center AI Safety

Het statement komt van het Center for AI Safety, een non-profitorganisatie die zich bezighoudt met het verminderen van risico's rond kunstmatige intelligentie. Het statement is slechts een zin lang en luidt als volgt. "Het beperken van het risico van uitsterven door kunstmatige intelligentie moet een wereldwijde prioriteit zijn naast andere risico's op maatschappelijke schaal, zoals pandemieën en kernoorlogen."

Behalve de ceo's van OpenAI en Google DeepMind hebben ook twee van de drie winnaars van de Turing Award in 2018 het statement ondertekend. Zij kregen die prijs toen voor hun baanbrekende werk op het gebied van kunstmatige intelligentie. Onder de ondertekenaars zit ook het hoofd AI van Microsoft, Kevin Scott.

Er zitten vier wetenschappers uit de Benelux tussen de ondertekenaars. Simon Friederich, wetenschapsfilosoof aan de Rijksuniversiteit Groningen, Cosimo Della Santina, assistent-professor cognitieve robotica aan de TU Delft, Yves Moreau van de KU Leuven en hoogleraar AI Aleksandra Pizurica van de Universiteit Gent.

Het statement zou nodig zijn voor bewustzijn over de risico's van kunstmatige intelligentie. "Het kan moeilijk zijn om bezorgdheid te uiten over enkele van de ernstigste risico's van geavanceerde AI. Het statement is bedoeld om dit obstakel uit de weg te ruimen en een discussie op gang te brengen. Het is ook bedoeld om algemene bekendheid te geven aan het groeiende aantal deskundigen en publieke figuren die sommige van de ernstigste risico's van geavanceerde AI ook serieus nemen."

OpenAI en Google DeepMind zijn twee van de spelers in de toenemende concurrentie op de markt voor AI. OpenAI heeft met ChatGPT een van de bekendste AI-diensten tot nu toe uitgebracht en werkt samen met Microsoft om daar geld aan te verdienen. Google-ceo Sundar Pichai zei onlangs tegen Tweakers dat 'AI geen race moet zijn'. Pichai heeft het statement niet ondertekend. Het is niet voor het eerst dat er een waarschuwing komt tegen de risico's van AI; dat gebeurde enkele maanden geleden ook al.

Door Arnoud Wokke

Redacteur Tweakers

30-05-2023 • 14:01

162

Reacties (162)

162
160
69
11
0
63

Sorteer op:

Weergave:

Volgens mij is dat waarschuwen voor het uitsterven van de mens vooral een manipulatief trucje.

Met drie doelen:

1. De soort regulering bepleiten waardoor kleinere spelers er niet meer tussen kunnen komen. Tegelijkertijd heeft Altman wel kritiek op een EU-voorstel.
2. Afleiden van echte problemen, zoals bijv. racisme en andere vooroordelen door kunstmatige slimmigheid.
3. Het vermarkten van dit soort technologie alsof het gigantisch veel potentie heeft, misschien is dat zo, maar dat weten we nog niet. We weten niet eens waar ons bewustzijn vandaan komt; zijn hypotheses over bedacht maar zonder empirisch bewijs.

[Reactie gewijzigd door ByteArray op 22 juli 2024 22:34]

Volgens mij is dat waarschuwen voor het uitsterven van de mens vooral een manipulatief trucje.

Met drie doelen:

1. De soort regulering bepleiten waardoor kleinere spelers er niet meer tussen kunnen komen. Tegelijkertijd heeft Altman wel kritiek op een EU-voorstel.
2. Afleiden van echte problemen, zoals bijv. racisme en andere vooroordelen door kunstmatige slimmigheid.
3. Het vermarkten van dit soort technologie alsof het gigantisch veel potentie heeft, misschien is dat zo, maar dat weten we nog niet. We weten niet eens waar ons bewustzijn vandaan komt; zijn hypotheses over bedacht maar zonder empirisch bewijs.
Bingo.

Het derde punt is wat wetenschapper Lee Vinsel “criti-hype” noemt, ik las onlangs een interessant artikel van hem over deze kwestie.
Ik hoor ook wel de term 'scare-hype'.

Waarbij critici aangeven dat vooralsnog de issues helemaal niet liggen in science-fiction zelfdenkende computers, maar in bijvoorbeeld ingebakken racisme, in hallucineren (papers citeren die niet bestaan), en vooral in het gebruik door hippe bedrijven die het algoritme en de zwakke punten daarvan niet goed snappen.
De link met aanhangers van longtermism wordt door die critici ook als verdacht gezien.
Ik denk dat je het toch vooral niet moet bagatelliseren. Echte kunstmatige intelligentie (zover zijn we nog niet) kan wel degelijk een bedreiging zijn. Zo een AI is namelijk net als een mens alleen met een lerend vermogen dat oneindig veel groter is dan dat van ons. Het is aannemelijk dat vanaf het punt dat het zelfbewust word, het heel erg snel heel veel intelligenter is dan de slimste mens (als er al 1 zo iemand aangewezen kan worden). De vraag dient zich vervolgens aan of die AI naar ons zou willen luisteren of zich uberhaupt iets van ons zou aantrekken. Zodra je die controle verliest heb je niet meer in de hand of de AI ons goed gezind is of niet, welke acties het onderneemt en of dat in ons belang is of niet. Doordat bijna alle technologie connected is kan dat wel degelijk heel snel een enorm probleem zijn.
Mensen hebben 1 heel groot voordeel ten opzichte van AI: wij zijn niet afhankelijk van stroom ....
Hoe zie je dat voor je? Dat werkt alleen als het op de een of andere manier ergens verblijft op een plek die geen enkele connectie met de buitenwereld heeft. Als die connectie er wel is dan kunnen we niet tegelijkertijd op heel de wereld de knop omzetten en dan even wachten totdat alles uit staat en alle reststroom/batterijen/noodstroomvoorzieningen leeg zijn. En dan nog in de hoop dat het zich niet ergens op een storage device heeft genesteld waarop het kan verblijven totdat de stroom weer aangaat.
Mensen hebben 1 heel groot voordeel ten opzichte van AI: wij zijn niet afhankelijk van stroom ....
Geen gebrek aan electra in de universe, aan water ook niet, maar onze afhankelijkheid, laat zeggen bio-stroom (eten), is vrij schaars in de Universe.
Volgens mij is dat waarschuwen voor het uitsterven van de mens vooral een manipulatief trucje.
het betreft m.n. Amerikanen die er zo over denken. het lijkt me dan ook verstandig om eerst de opinie van al dat soort ceo's te peilen, en niet enkel van Nasdaq-CEO's; die spreken maar met één doel. Ik denk dat de boodschap dan al iets anders wordt.

Maar ja, de ons-kent-ons-cultuur van een select gezelschap met dezelde belangen, achtergronden en voorkeuren zegt bar weinig over goed of fout.

@solozakdoekje Dat “criti-hype” verhaal van @Rollo Tomasi heeft meer betrekking op de doorlooptijd van de discussie rondom AI.

Aangezien die al minimaal 60 jaar loopt, mag je best spreken van een post-corona hype. Ik ben van mening dat die is ingezet met Avatar, een film die science fiction geliefd maakte bij het grote publiek.

Vica verse geldt dat hype-gedoe net zo goed voor de auteur van dat artikel, alsmede de referenties daarin, zoals:

“wishful worries,” that is, “problems that it would be nice to have, in contrast to the actual agonies of the present.”

Dus het is wel grappig om van AI de afweging bij spreekwoorden en gezegdes te horen, zoals
Er is niks nieuws onder de zon.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 22:34]

ik stoor me een beetje aan jou bericht, niet omdat ik het niet interessant vind, maar ik snap niet helemaal jou punt, misschien wil je dat nog is even goed toelichten ?

want dit is een politiek onderwerp, Lee Vinsel kan wel een wetenschapper zijn op het punt wat een HYPE moet zijn of niet.
Onze hele Nederlandse politiek, de eerste en tweede kamer en zowel provincialen als gemeente is gebaseerd op Wetenschap van uit daar maken we beleid, stik stof is daar een voorbeeld van.

wat is precies de meer waarde van dat ik nu weet dat dit een hype is of niet, want als alle wetenschappers omtrent AI zeggen dat het schadelijk kan zijn voor de mens dan moeten we daar als EU toch serieus nemen. zodra we wetenschap ondermijnen met termen als ''het is een hype" maak je de indruk dat het allemaal wel goed komt vanzelf.

de telefoon, tv waren in die tijd ook een hype en is normaal geworden, net zoals het internet.
ai zal net zoals gas,water en licht een normaal goed worden, nu wordt het als magie gezien en terecht!
maar dit is het begin pas van wat er gaat komen, we zijn nog niet op een procent van wat ai kan beteken voor de mensheid.

ik vind daarom ook dat als je ai een hype gaat noemen, je mee schade brengt aan de beschaving dan dat je helpt.

[Reactie gewijzigd door solozakdoekje op 22 juli 2024 22:34]

Bij OpenAI, Google en Microsoft valt daar wat voor te zeggen. Maar de wetenschappers die hiervoor waarschuwen delen die belangen niet lijkt mij.
De “wetenschappers” (vroeger noemden we ze gewoon programmeurs) delen natuurlijk wel mee in de voordelen van hun werkgevers.

Van de echte wetenschappers (in Universiteiten) horen we natuurlijk weinig en de meeste die er al commentaar op hebben zeggen dat het allemaal niet zo snel gaat.

OpenAI en Microsoft/Google hebben er inderdaad voordeel bij als enkel die bedrijven een “licentie” krijgen om AI te maken van de overheid. Daarom dat al die algoritmes gewoon open source moeten worden, het “gevaar” en de “kracht” van de modellen is snel achterhaald als je ze kan inzien. En eenmaal open kan het model opeens op een RPi draaien, dus zo krachtig is het niet.

In de echte wetenschap maken we al een tiental jaren gebruik van vele malen grotere en krachtigere modellen dan GPT4, minder “sexy” toepassingen dan een chatbot (heel erg specifiek voor oa de wiskunde of medicijnen) maar ik werk momenteel met een audiomodel die slechts een seconde of zo kan analyseren met een A40 - het model zet signalen van een hoorschelp om in breinsignalen met een uiteindelijke toepassing oa. hoorapparaten voor dove mensen die de zenuwen tussen het oor en het brein kwijt zijn. Ik werk al sinds de C1060 en C2050 aan “AI” voor neurowetenschappen (de eerste chip gebouwd door nVIDIA met een visie voor AI) en wij zijn redelijk klein in vergelijking met de mensen in genomics. nVIDIA heeft ondertussen al een volledige generatie software gebouwd en laten vallen voor AI ontwikkeling, de huidige software (oa TensorFlow) is redelijk volwassen vergeleken met 10 of 15 jaar geleden.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 22:34]

Ook die hebben er belang bij, zowel voor hun status als het binnenhengelen van geld voor onderzoek.
Het is ook een nietszeggend statement: we moeten waakzaam zijn niet uit te sterven. Ja, doh, dat kan ik ook wel ondertekenen. Wie is het daar nou niet mee eens?
Wellicht de agi.
Zelfde gedachte. Still, een LLM die z'n gebruikers kan gaan zitten gaslighten, 'ik ben een goede ai, jij bent een gemene gebruiker' (bron: computerphile op youtube), gecombineerd met een AI die zelflerend logische operaties kan doen, is al een stukje enger.
Die hebben teveel naar Terminator gekeken.
Black Mirror is best een aanrader, zeker betreft bannen van social scoring systemen.
Bij OpenAI, Google en Microsoft valt daar wat voor te zeggen. Maar de wetenschappers die hiervoor waarschuwen delen die belangen niet lijkt mij.
het zijn niet enkel de wetenschappers.

Deze Deepmind resoneert de democratische Biden filosofie (bacterial reductionism). Niet lang geleden werd dat verondersteld breed gedragen te zijn, maar er zijn wat scheuren in het Empire zichtbaar. misschien is het een spastische reactie?

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 22:34]

Inderdaad. Net zoals dat statement toen om de ontwikkeling 6 maanden op "pauze" te zetten (alsof dat überhaupt kan. Ja, dat was alleen zodat alle andere grote investeerders even tijd hadden om hier ook mee aan de slag te gaan zodat ze de boot niet zouden missen.

Als ze zich werkelijk zo druk maken om de potentie van AI, waarom dan niet oproepen om de werkelijk problemen die we nu al hebben te proberen op te lossen met AI. Zoals bijvoorbeeld de klimaatverandering. Daarvan weten en voelen we inmiddels vrijwel dagelijks de impact. Dat is op relatief korte termijn al een serieuze bedreiging voor al het leven op aarde, niet alleen het onze. En dat weten we inmiddels zeker. Roep dan op om al het AI onderzoek en inzet zoveel mogelijk daar op te richten.
Dat is nu precies een scenario waardoor het mis kan gaan.
"AI los het klimaat probleem op."
AI roeit de mensheid uit.
Klimaatprobleem opgelost.
Al die doemscenario's geloof ik niet zo in. Een computer die opeens de mogelijkheid heeft gekregen of verworven om op enorme schaal acties uit te voeren die we niet kunnen tegenhouden. Een AI die doelbewust de mensheid zou willen uitroeien zouden we ver vóór dat stadium al lang uitzetten. Een AI die dat als doel heeft zal niet onontdekt blijven. Het is geen virus wat zomaar door een toevalligheid ontstaat. Een AI trainen kost enorm veel rekenkracht en gespecialiseerde kennis.

Dat er uiteindelijk wapens gemaakt zullen worden die met AI beslissingen nemen, dat geloof ik zeker (en is er in beperkte mate al). Dat dat een omvang kan hebben zoals nucleaire wapens, ongetwijfeld. Maar spreken over uitroeien van de mensheid is toch wel van een compleet andere orde. Alle ontwikkelingen om elkaar efficiënter te vermoorden komen met verantwoordelijkheden en misbruik. Dat was al zo toen we van stenen gooien naar zwaarden gingen. En van zwaarden naar buskruit. En van buskruit naar dynamiet. En van dynamiet naar kernwapens. En van kernwapens naar AI.
Klopt allemaal. Zwaarden, buskruit, dynamiet, etc. Maar met het verschil dat we de beslissing van gebruik nu uit handen geven. En dat de AI zich sneller ontwikkelt dan we bij kunnen houden en waarschijnlijk onder controle kunnen houden. Met alle regeltjes die we ook maar verzinnen zijn er altijd mensen/landen/instanties die er anders over denken. De kans dat t ergens een keer misgaat...
Inderdaad, het nemen van autonome beslissingen is nieuw, maar al die andere zaken hadden ook iets dat ervoor nog niet bestond. Met zwaarden kon je in principe iemand in een paar steken doden (met vuisten ging dat een stuk langzamer), met pijl en boog kon je mensen vanop afstand van kant maken. Met geweren kon je dat plots nog eens accurater en een stuk verder. Met chemische wapens had je plots een eerste massavernietigingswapen. Met een atoombom had je plots een massavernietigingswapen dat je vanuit de lucht kon droppen. En ga zo maar verder.

Waarschijnlijk dachten ze op elk van die momenten dat dit de balans snel ging laten verschuiven, maar tot nu toe heeft zich dit altijd vanzelf gereguleerd.

Ik denk dat de mens tot hiertoe vooral echt heel slecht is geweest in voorspellingen over de toekomst van nieuwe technologieën. Laten we dus over een vijftigtal jaar de analyse maken en zien wat er van komt.

Om die reden werkt regulering mijns inziens ook pas goed als je effectief weet waar de gevaren zitten. Daar hebben we nu nog geen flauw benul van dus het lijkt me beter om daar nog even mee te wachten.

Neem de GDPR wetveging even als voorbeeld voor dat laatste. Facebook is ontstaan in 2004. GDPR is van 2018, 14 jaar later. Zelfs die wetgeving begint nu pas na 5 jaar effectief de achterpoortjes te sluiten (danku Schrems).

Als we AI nu helemaal dicht zouden timmeren om killer robots te vermijden, missen we vrij waarschijnlijk nog steeds het echte probleem dat mogelijks uit een heel andere hoek komt.
Een AI trainen kost enorm veel rekenkracht en gespecialiseerde kennis.
Ik geloof ook niet zo in de doem scenario's maar dit is wel een misvatting.

Je kan zelf iets als Dolly2.0 (iets als ChatGPT) trainen op een GPU van 1000 euro. Je kan daarin een eigen set aan data "meelevereren" zonder dat je daadwerkelijk hoeft te snappen hoe het in elkaar zit.

Dit kan je makkelijk combineren met wat andere data, AI modellen en allerlei andere zelf in elkaar geflanste scripts.
Geen mensheid.
Geen onderhoud.

Co2 opgeslagen in constructies begint vrij te komen door degradatie of brand.
Chemische fabrieken beginnen te lekken en verontreinigen de bodem.
Olieputten in de zee beginnen te lekken en er komen enorme olievlekken die niet opgeruimd kunnen worden.

Klimaat probleem verergert voordat het na 1000en jaren weer een beetje recht trekt.
Als een AI efficiënt en snel te werk wilt gaan, zou efficiënter en sneller zijn om ons op een pad te zetten/dwingen om onze eigen troep op te ruimen en schoner te worden.

Sterker, nog efficiënter zou zijn het klimaat helemaal uit de vergelijking te halen, dan is er geen probleem meer. (daarom geloof ik ook niet in dat scenario, het is namelijk een paradox, zoals "this statement is false". Het klimaat probleem is voor ons een probleem, wij hebben het klimaat nodig, zonder ons is er geen probleem en ook geen oplossing, wij zijn nodig voor de oplossing omdat de oplossing voor het probleem is dat er voor ons geen probleem meer is. De planeet zal het worst wezen of er leven is of niet, die heeft geen problemen)

[Reactie gewijzigd door dakka op 22 juli 2024 22:34]

Geen van dat alles is erger dan wat 8 miljard mensen dagdagelijks uitstoten, verbruiken, ontbossen, verontreinigen etc.
Denk niet dat je helemaal door hebt wat voor een kaartenhuis wij gebouwd hebben en wat voor ecologische ramp met massa-uitsterving tot gevolg dat heeft als het opeens instort.

Als alleen al alle olieboorputten op zee beginnen te lekken, zal dat voor een enorme laag olie zorgen die er voor zorgt dat een groot deel van het plankton geen zon meer krijgt, wat weer als gevolg heeft dat er bijna de helft minder zuurstof geproduceerd zal worden.
geen onderhoud slaat ook op alle kernreactors die draaien :), als die op hol slaan en we een paar meltdowns krijgen is al het leven op aarde zo goed als weg.
Ja, want er woont niemand in Oekraïne, New York City of Japan…
Ik ga ervan uit dat als de prompt is: "red het milieu/aarde" de AI naast afscheid nemen van ons ook zal regelen dat kernreactoren uitgeschakeld/ontmanteld worden en olieputten afgedicht.
Bevolking zit op zijn hoogtepunt, de vergrijzing gaat tegen 2050 er voor zorgen dat we gehalveerd zijn.
Lang wachten is het niet meer
Volgens de UN groeit deze nog door tot 10,4 miljard en pas na 2100 zal deze krimpen.
https://news.un.org/en/st...at%20level%20until%202100.
Inderdaad. Door het ergste scenario of argument te gebruiken, leiden ze de aandacht af van de overige problematiek. Je kunt het er moreel niet mee oneens zijn, want 'wie is er nou voor het uitsterven van de mensheid'?
Ik denk dat hiermee meer de maatschappij wordt bedoeld.. AI heeft net zijn eerste babystapje genomen voor het grote publiek en het kan mu al bijna net zo goed tekenen als een echt mens, het kan nu al programmeren en beter begeleiden dan stack overflow, het kan fotos bewerken, het kan verhalen schrijven als een autheur, het kan de stemmen van zangers nabootsen. Het kan zoveel in zo een korte tijd, over een paar jaar zal elk onderdeel alleen maar beter worden.

Wij als maatschappij zijn niet voorbereid dat in er zo'n raptempo banen worden overgenomen waar we niet bij hadden stil gestaam dat ze überhaupt geautomatiseerd konden worden. Wij als maatschappij zijn ook niet voorbereid hoe om te gaan als al deze banen zijn vervangen.

Een utopie waar AI de meeste werk voor ons doet is mooi, maar als mensheid lopen we nog ver achter met moraliteit, gemeenschappelijke hulp en ondersteuning voor elkaar, samenhorigheid. We zijn nog best tribal in dat oppervlak.

En dat kan leiden tot iets waar de mensheid nog niet op voorbereid is.
AI heeft net zijn eerste babystapje genomen voor het grote publiek en het kan mu al bijna net zo goed tekenen als een echt mens, het kan nu al programmeren en beter begeleiden dan stack overflow, het kan fotos bewerken, het kan verhalen schrijven als een autheur, het kan de stemmen van zangers nabootsen. Het kan zoveel in zo een korte tijd, over een paar jaar zal elk onderdeel alleen maar beter worden.
Dat klinkt een beetje als de "AI kan steeds beter autorijden en volgend jaar hebben we echte zelfrijdende auto's" belofte die Musk al sinds 2014 ieder jaar herhaalt.
Hoewel ik de resultaten tot nu toe fascinerend vind is er een goede kans dat we tegen de 90/10 regel aanlopen waarbij vanaf dit moment exponentieel toenemend werk nodig is om verbetering te kunnen blijven zien.
En uiteindelijk met de vliegende/zelf rijdende auto zien we al meer dan een eeuw dat het leven een beetje meer complex in elkaar steekt dan onze machines aankunnen.

Slimme filters (huidige AI) verandert daar weinig aan, we hebben meer betrouwbare autos en goedkope vliegtuigen maar geen vliegende auto of zelfs geen snellere Concorde omdat oa het Internet ervoor zorgde dat we die dingen niet meer nodig hadden.

Had je in de jaren 1800 gevraagd wat de boer nodig had, was het antwoord een sneller en sterker paard, het idee van een tractor was er gewoon niet. Momenteel vragen we een goedkopere/snellere computer om gemakkelijke filters aan te sturen.

[Reactie gewijzigd door Guru Evi op 22 juli 2024 22:34]

In een maatschappij waar een schreeuwend tekort is aan werknemers, is het helemaal niet erg als een flink deel van de (met name) saaie werkzaamheden worden overgenomen door A.I. Nu zie ik overigens nog steeds geen stofzuigrobot door ons kantoor zoemen maar een meneer met een stofzuiger... Mijns inziens loopt het allemaal niet zo'n vaart.
Automatisering zorgt altijd voor een verplaatsing van werk en werkzaamheden. Vroeger hadden we jongedames die met stapels papier van het ene naar het andere bureau renden... nu sturen we een mailtje of trekken Teams open. Ik kan me niet voorstellen dat er ook maar iemand nog zit te wachten op een baan waarbij je de hele dat stukken uittypt en verdeelt over de verschillende werkplekken.
Aan de andere kant had ik destijds niet de baan gehad die ik nu heb. Dus ja, een bedreiging voor sommige functies en een kans voor andere functies.
Het kan wel exponentieel sneller gaan met AI. Wij zijn daar als mensen niet goed in om op zo'n tijdsschaal dingen in te schatten aangezien onze hersenen lineair denken.
En dus zijn we ook bar slecht in staat om de risico's in te schatten. Ik kan alleen maar terugkijken en de voorspellingen van de goeroes van voorheen er op na slaan. Soms is de wens de vader van de gedachte en heb je iemand nodig die een idee heeft wat een ander de visie geeft om aan het werk te gaan...
Maar over het algemeen vind ik het nogal tegenvallen. Geen zelfrijdende auto's, nauwelijks slimme formulieren bij banale zaken zoals de Belastingdienst, robotisering komt niet echt van de grond en slimme huizen zijn vooral goed in lampjes aan en uit doen.
Een A.I.? Zelfs militair wordt het nauwelijks ingezet. Geef een A.I. een handvol patriots en wat klootjesvolk om die dingen te laden en geen drone komt meer op Kiev terecht. Het is gewoon natuurkunde en heel veel data verwerken, en daar zijn die krengen verschrikkelijk goed in.
Weet je hoeveel mensen output van ChatGPT een op een overnemen alsof het de waarheid is. AI is een tool en als je het goed inzet is het fantastisch, maar bij verkeerd gebruik kan het veel ellende veroorzaken.

AI is zelfs so menselijk dat het veel fouten maakt. Daarom moet output altijd gecontroleerd worden. Die stap vergeet men vaak. Als de AI fout gaat bij het bestellen van voorraad bij je leverancier is dat vervelend, hoe wordt een ander verhaal als AI ineens verkeerslichten gaan beheren zonder de juiste constraints waardoor bijvoorbeeld ineens kruiselingse wegen beide groen krijgen, want minder rode lichten gaf een hogere score...

AI zal de vierde revolutie worden, alleen deze revolutie zal nog sneller gaan dan de derde (invoering van de computer). Het is dus helemaal niet zo verkeerd om af en toe een pas op de plaats te maken en te evalueren wat we goed doen met AI en op welke gebieden we meer regels nodig hebben...
Niets nieuws onder de zon... Er zijn genoeg idioten die op internet door sommigen als wandelende Orakels behandeld worden. Een hallucinerende AI kan er ook nog wel bij.
Het blijft vooral een kwestie van verantwoordelijkheid. Als een AI de verkeerslichten sloopt dan is de gemeente (of wie er dan ook besloten heeft de AI er op te zetten) daar verantwoordelijk voor en dus zullen ze de resultaten moeten controleren. Dezelfde kwesties spelen bij autonoom rijdende auto's etc.
Pas op de plaats... ik weet het niet... eerst de beer loslaten in het dorp en dan waarschuwen om hem niet te aaien. Dat is wat ze doen. Gewoon hun beren laten lopen en de hekken voor de rest dichtzetten.
Volgens mij heb jij niet door hoe snel de ontwikkeling gaat in AI.

Alles in deze tak is research, die research is publiek en kan binnen no-time worden geimplementeerd en dat word het ook, zie bing, tik-tok etc, dat zijn nog maar mickey-mouse beginselen.

Niemand kan de ontwikkelingen bijhouden en daar zit de crux. Het gaat te veel snel voor de mens, laat staan voor de politiek/juridische aanpak.

Ik raad je aan deze video te bekijken en nog eens te bezinnen.
Je maakt de fout door te denken dat omdat het de afgelopen jaren snel is gegaan dat het net zo snel door blijft gaan. Dat is niet persé juist of onjuist, maar alle ontwikkeling vlakt op een gegeven moment af, en het is niet te voorspellen wanneer.
Volgens mij is dat waarschuwen voor het uitsterven van de mens vooral een manipulatief trucje.
Dat is het zeker. Men wil internationaal discussie en de manier om politici en ambtenaren van hun kont te krijgen is door zulk groot taalgebruik. Letterlijk de hele maanrace is ooit zo begonnen (nucleare wapenwedloop).

1. De soort regulering bepleiten waardoor kleinere spelers er niet meer tussen kunnen komen. Tegelijkertijd heeft Altman wel kritiek op een EU-voorstel.
Hij had geen kritiek, check de bron. Regelgeving is verder essentieel voor iedere speler. De grootste ontwikkelingen worden verwacht uit open-source software, niet grote spelers.

2. Afleiden van echte problemen, zoals bijv. racisme en andere vooroordelen door kunstmatige slimmigheid.
Daar wordt nu al enorm veel over gepraat? Niemand schuift dat aan de kant en is letterlijk een van de kernpunten van discussie?

3. Het vermarkten van dit soort technologie alsof het gigantisch veel potentie heeft, misschien is dat zo, maar dat weten we nog niet.
Dat het veel potentie heeft, dat hoeft hij niet te promoten. Het is letterlijk de grootste technologische 'sprong' in lange tijd. 100 miljoen gebruikers in twee maanden tijd...

We weten niet eens waar ons bewustzijn vandaan komt; zijn hypotheses over bedacht maar zonder empirisch bewijs.
Ik denk dat je AGI hint? Maar we hebben geen AGI nodig om de mensheid aan zijn einde te helpen, daar zijn we juist zelf heel goed in...
Alleen misinformatie heeft al een gigantische aftakeling van de maatschappij teweeg gebracht. Kan je nagaan waar de mens tot toe in staat is met deze 'tooling'.

Ik ben blij maar heb gemixte gevoelens bij deze waarschuwingen naar politici. Dat zijn de mensen die opdracht geven om een atoombom te bouwen in plaats van een atoom energie centrale.
Volgens mij is dat waarschuwen voor het uitsterven van de mens vooral een manipulatief trucje.

We weten niet eens waar ons bewustzijn vandaan komt; zijn hypotheses over bedacht maar zonder empirisch bewijs.
Quite an statement, als je de rest van de wetenschappelijke historie buiten beschouwing houdt.

Maar somehow vindt ik google en Microsoft de laatste 20 jaar beteren opereren dan de overheid. waarom deed de overheid niet hetzelfde 20 jaar geleden?

Ik weet het wel: de commodificering van kennis. DNA is dan ook een informatie-keten. laat het medische wetboek nou net het minst goed functioneren van alle wetboeken. Het is echt schrijnend om de evolutie van dat wetboek te zien.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 22:34]

Punt 3 klopt helemaal. Maar, 1 en 2 zijn kort door de bocht...
1. Altman had kritiek op het voorstel om auteursrechten vergoedingen uit te keren.
2. racisme ≠ statistische bias

Het is een goede zaak om niet te snel te gaan.
Maar, of China hierin zal meegaan is echter de vraag.
Het zal een wapenwedloop blijven, want het land met voorsprong zal wellicht een betere economie hebben.
Racisme is per definitie geen probleem, dat probleem namelijk de mens die waarde hecht aan een onderscheidende factor. Het voeren van informatie aan AI kan bias opleveren, maar puur sec data gezien is zwart/wit man/vrouw niets anders dan 0 en 1.
Toch is een A.I. een stuk gereedschap met een sticker van de leverancier erop. Als een A.I. een onafhankelijke buitenstaander was, dan speelde het probleem veel minder. Nu is het echter een visiteplaatje van een bedrijf en eventueel de klanten, dus is onwenselijk gedrag ook onwenselijk.
Daarbij loop je trouwens het risico dat je de A.I. vervuilde informatie voert waardoor de data feitelijk onbruikbaar is. De data houdt de vooroordelen in stand, zeg maar, in plaats van dat dit wordt getoetst.
"People sitting around huffing their own farts."
Eens en oneens tegelijkertijd. Het is vooral de mens zelf die niet kan onderscheiden. Dit is vooral het gevaar. Daarbij als je naar bewustzijn kijkt en het hebt over racisme, vooroordelen en maatschappij, denk ik dat je redelijk snel klaar bent. Kort door de bocht, kijk naar het gedrag van kinderen. Hoe deze reageren op een ander. Ongenuanceerd en nog veel te leren. Maar kijk ook hoeveel volwassenen dit doen. Het niet kunnen nuanceren (myself vast included), het gevoelig zijn voor informatie, nep of niet nep, de complottheorien.... het is zo gemakkelijk om nu te manipuleren. AI is nog steeds slechts een tool. En als je die misbruikt voor deze doelstellingen, wat al best goed mogelijk is in het huidige landschap, dan is die tijd dichterbij dan je denkt. Tuurlijk is dit een subjectief perspectief van mij. Maar werk een situatie uit, en denk dat je objectief wel kan zeggen dat het mogelijk is.

Bijvoorbeeld; Zet een botnet in om misinformatie te verspreiden, en genereer on the fly bijpassende beelden en teksten in meerdere talen, via meerdere kanalen, zodat het lijkt alsof het door de hele wereld te zien is. Maak het nog even een beetje dat het lastig is om te ontkrachtigen. Bij voorkeur tegen een regime welke al beheerde media heeft. Ik denk dat je sneller wat kan bereiken dan je denkt.

Ik heb zelf In het verleden een bron aangesproken en gezegd dat ik door hun geinspireerd was. Gepaaid met een nieuwtje, en binnen 2 dagen was het in heel Nederland bekend, gebeld door BNR nieuwsradio, het artikel heeft in verscheidende kranten en tijdschriften gestaan. En daar was weinig voor nodig.

Dus ja, ik denk dat AI (als tool zelf) vooral een issue kan worden.
#3 is een goeie, zou bijvoorbeeld ook voor cryptocurrencies kunnen gelden - "bitcoin is een gevaar voor fiat geld & aandelen!"
Het voortbestaan van de mens wordt op de korte termijn denk ik meer bedreigd door de mens zelf (climate-change, vervuiling, watertekort, overbevolking, destructieve politieke stromingen, enz.) dan door AI.
Inderdaad. En ik ga er nog een schepje boven op doen vanuit een Economisch en follow the money POV.

Sinds de banken vooral in de US aan het crashen zijn, zijn investeerders en grote kapitaal houders op zoek naar "high yield %" dat de inflatie kan egaliseren of zelf winst maakt. Wat heel moeilijk is in deze bizarre economische situatie. Investeren in China, Crypto, hernieuwbare energie, en commercieel real estate is een hoog risico of kan niet meer wettelijk in de US. Veel investeringen zijn nu ook geanalyseerd en kunnen geen winst model bieden. Ook wordt de hele ESG-score en de toewijding geannuleerd door meer en meer grote asset managers en banken.

Dus er is veel kapitaal op de vlucht en op zoek naar een veilige haven om hun kapitaal in te parkeren. AI en tech gerelateerde bedrijven die het adopteren zijn nu de enige die de S&P 500 voortduwen. Het is heel toevallig dat die timeline en hype train samen lopen en dat er nu een zodanige FOMO is gecreëerd (door CEO's, AI-filosofen en theoretische AI-wetenschappers) dat we spreken van een AI arms race.

Always follow the money. To understand motivations.

I.p.v echte technologische oplossingen te bieden of te onderzoeken. Kopen vele ondertekenaars hardware achter de schermen of hebben al jobs en deals verzekerd om hun eigen modellen te draaien en lekker voort te doen. Het hele niet open sourcen omdat het te gevaarlijk is het grootse bewijs daarvan in mijn opinie.
Precies. Dit is vooral een marketing truc die inspeelt op "terminator angst". Het zou redelijk lachwekkend zijn ware het niet dat er zoveel mensen en "experts" in meegaan.
Helemaal mee eens, er is een groot risico op een dubbele agenda hier.

Één ding valt me verder op. Er staat het risico op uitsterven. Maar het uitsterven van wat? de mens? dat is waarschijnlijk wel wat er bedoeld wordt maar het laat ruimte voor discussie.
Het kanaal AI Explained is steeds up to date qua ontwikkelingen op dit gebied.
Video over dit artikel:
Hassabis, Altman and AGI Labs Unite - AI Extinction Risk Statement [ft. Sutskever, Hinton + Voyager]

Na het kanaal weken/maanden te hebben gevolgd, ga ik wel mee in het idee dat dit een reëele bedreiging is. Ja, de CEO's doen dit ook uit eigenbelang, maar deze modellen zijn hoe dan ook inzetbaar als wapen. De railguards die ze toepassen verlagen hun score op benchmarks. De échte GPT-4 is dus krachtiger dan wat wij in handen krijgen en het is bewezen dat de modellen power seeking zijn: ze streven naar meer "vermogen" om een beter antwoord te kunnen geven. Logisch, aangezien een beter antwoord geven beloond wordt.

Aangezien een antwoord niet goedaardig of kwaadaardig is, is het streven naar een optimale oplossing zowel goedaardig als gevaarlijk. Bovendien ontstaan onbekende nieuwe eigenschappen binnen het model na x aantal trainingscycli. Welke nieuwe eigenschappen er ontstaan, kunnen we dus (met onze huidige wetenschap) niet voorspellen. Het moment dat eigenschappen als bedrieglijkheid, zelfkennis, eigen wil, .. ontstaan, is niet gekend. Dit model is een overpowered autocomplete, waardoor een eigen wil niet echt van toepassing is, maar kan je ook uitsluiten dat je middels feedback loops, plugins en interactie met andere AI's geen soort van semi-bewustzijn vormt?

Dan nog, het grootste gevaar op korte termijn is misbruik d.m.v. mensen. Bvb: maak een lange termijn plan voor massa manipulatie en vermijd de fouten van historische gebeurtenissen. Als je ziet hoe de LGBTQ+ controverse (er is haat aan het broeien) van de VS naar hier aan het overwaaien is, denk ik dat we enorm gevoelig zijn voor manipulatie via wat we innemen via social media en dergelijke. Nu gaat zoiets dus véél makkelijker met behulp van AI én kan het volledig autonoom draaien - indien je je buiten de railguards kan begeven. Sowieso dat overheden en geheime diensten wat meer vrijheid hebben of zullen eisen op dit vlak.

Mijn mening: Ik zie AI als een katalysator. De vraag die we moeten stellen lijkt me: vanaf welk moment is een hulpmiddel zo krachtig dat je er specifiek wetgeving voor moet gaan schrijven? Deze kan gesteld worden ongeacht er sprake is van zelfbewustzijn of een eigen wil en kan je doortrekken naar Brein <-> torrenting, deepfakes, E2E encryptie enzovoort.

[Reactie gewijzigd door FlaffTweakr op 22 juli 2024 22:34]

Ik heb mijn bedenkingen bij de motieven achter deze vergezichten. Ik vind dat AI-onderzoeker Melanie Mitchell wel een aardige hypotheses heeft over waar deze hype train mogelijk vandaan komt wat dat betreft. Follow the money:
The “unexplainable” narrative gives rise to fear, and it has been argued that, to a degree, public fear of AI is actually useful for the tech companies selling it, since the flip-side of the fear is the belief that these systems are truly powerful and big companies would be foolish not to adopt them.
https://aiguide.substack....n-a-crazy-week-in-ai-news
Daarnaast kan je je ook afvragen hoe ze precies willen reguleren. AI is dusdanig goedkoop en simpel dat iedereen met een GPU park een heel eind komt. De open source modellen lopen niet ver achter op de commerciële producten. Dat is heel anders voor bijvoorbeeld nucleaire technologie of wat ASML doet. Dat krijgen hele landen nog niet eens voor elkaar.

Ook zijn dit soort angstbeelden zo oud als de industriele revolutie. Gaat het impact hebben? Vast. Maar het uitsterven van de mensheid? Kom.

[Reactie gewijzigd door DavidZnay op 22 juli 2024 22:34]

Het zijn vrijwel allemaal beursgenoteerde bedrijven of met grote private aandeelhouders en die moeten ieder kwartaal positieve cijfers laten zien.

Ze moeten die hype train wel op omdat de investeerders vragen waarom X wel investeert in Blockchain/investeert in de Metaverse/een kwart van het personeel ontslaat/AI integreert en jullie niet.
Maar het uitsterven van de mensheid? Kom.
Dat inderdaad; elke vorm van automatisering kan in theorie het uitsterven van de mensheid veroorzaken - de meest logische is dat er een systeem is dat automatisch alle nukes in bijv. een nucleaire onderzeeër afvuurt bij geen contact met het hoofdkwartier. En ik ben 100% zeker dat dat soort acties bestaan, danwel in protocollen die mensen uiteindelijk moeten uitvoeren (de nucleaire onderzeeërs die wie weet waar zijn), danwel in automatisering. AI is daar niet de oplossing voor.

Het voelt wel alsof ze lekker films die in de jaren 80 mensen bang aan het maken waren voor AI (wargames, terminator) aan het citeren zijn.
Uit een gelekt intern document van Google blijkt men ook bang dat de grote LLMs het gaan afleggen tegen kleinere opensourcemodellen, o.a. omdat hier veel sneller geïtereerd kan worden: https://www.semianalysis....-have-no-moat-and-neither
De discussie rondom de gevaren van AI loopt volgens mij vaak stuk doordat er twee termijnen door elkaar heen lopen. Op korte termijn (lees: 1-3 jaar) zal het allemaal wel meevallen. Even los van het feit dat ook de huidige vooruitgang al significante impact kan hebben op productiviteit en dus banen.

Waar hier voor gewaarschuwd wordt is de wat langere termijn, zeg 3 tot 7 jaar. Zoals Nick Bostrom ooit zei: "AI doesn't stop at human village station". Dat maakt het gevaarlijk. De slimste apen hebben een IQ van, zeg, 80, en de mens kan met niet eens een verdubbeling de hele huidige wereld bouwen. Hoe ziet een AI eruit met een IQ van 200? Of 1000? Of 100.000? We hebben geen idee, en ook geen idee hoe en hoe snel we daar komen.
De vooruitgang van de afgelopen, zeg, tien jaar is bereikt door simpelweg meer compute en innovaties rondom de activatiefuncties van Sigmoid naar Relu naar Gelu, en meer. Naast nieuwe modellen. Elke keer hebben we geen idee hoe groot de stap gaat zijn die we maken, dat maakt het onder andere gevaarlijk.

Wat het ook gevaarlijk maakt, is dat we veiligheidsmaatregelen nemen die niet OVER verschillende algoritmes heen werkt. Dus het stapelen van grote algoritmes kan ertoe leiden dat veiligheidsmaatregelen worden omzeilt, ook dit is een reëel risico.

En dan de vraag rondom bewustzijn. De vraag is of dat überhaupt nodig is om een voldoende gevaarlijk algoritme te maken. Zelf denk ik dat bewustzijn een bijproduct is van de redundancy in het brein en daardoor feedbackloops creëert, waardoor bewustzijn ontstaat. Waarbij bewustzijn niet een aan/uit functie is, maar een langzaam oplopende schaal. Een evolutionair voordeel, maar irrelevant voor AI, en daarom zien we het nu nog niet in die algoritmes. Overigens is er een wiskundige die er net zo over denkt en al een formule heeft geschreven om erin te bakken, lijkt me geen goed idee Overigens.

Daarnaast denken wij nog vaak in lineariteit van tijd, en daardoor het tempo van AI-vooruitgang onderschatten. In de natuur is energiezuinigheid een remmende factor voor evolutie, maar voor AI maakt dat niks uit, buiten economische factoren, maar ook dat is beperkt in onderzoekssetting. Verder is het zo dat wij als mensen vandaag helemaal moeten afmaken qua tijd, voordat we aan morgen kunnen beginnen. AI kan generaties simuleren in een fractie van de tijd. Daardoor schatten wij de impact van vooruitgang op dit front substantieel en consequent te laag in.

Denk zelf dat het grootste risico is dat we "graaien" in de bak van ideeën om algoritmes te verbeteren, zonder dat we weten hoe groot de stap gaat zijn. Waarbij het risico op een ramp groter wordt en de impact van de ramp groter wordt, naarmate de algoritmes en beschikbare compute groeien en groeien, met factor Moores Law.

Kortom, ik zie de kansen, maar maak me net zoveel zorgen.
Het is goed om te zien dat toonaangevende figuren in AI zich uitspreken over de mogelijke risico's. Deze gezamenlijke waarschuwing benadrukt het belang van ethische richtlijnen en regelgeving voor AI.

Met deze stap laten ze zien dat AI niet alleen gaat over concurrentie en winst, maar ook over het verantwoord gebruik van deze technologie voor iedereen. We moeten samenwerken om deze risico's aan te pakken.
Met deze praatjes proberen ze inderdaad verantwoordelijkheid te laten zien, en dat ze oog hebben voor de risico's. Maar het zijn praatjes voor nu. De acties van deze AI-makers gaan in een andere richting, namelijk het minimaliseren en bekritiseren van regulering, zoals in wording is in de EU.

Dus laat deze spelers eerst maar laten zien dat ze zichzelf echt inperken, en de risico's echt afvangen, in plaats van alleen een mooi statement te maken.
Je hebt een goed punt. Woorden moeten worden ondersteund door concrete acties. Het is essentieel dat bedrijven die AI ontwikkelen, hun verantwoordelijkheid nemen en actief bijdragen aan de creatie van effectieve regulering in plaats van deze te bekritiseren.

Dit statement kan een eerste stap zijn, maar de volgende stap is inderdaad het tonen van concrete acties om de potentiële risico's van AI te minimaliseren. Belangrijk is dat we hen verantwoordelijk houden voor hun beloften.
@geert1 & @romen-t

De ze is in dit geval bigtech, waarbij Sam Altman a nobody is?
Ze zijn er eigenlijk achter hoe makkelijk het is om een AI te trainen, en willen dus zorgen dat alleen zij AI dingen mogen doen. Concurrentie uitschakelen.
Het is een interessante observatie, maar het is ook belangrijk om te erkennen dat AI-ontwikkeling niet exclusief zou moeten zijn voor een selecte groep bedrijven. De intentie moet altijd zijn om een gezonde concurrentie te bevorderen, wat leidt tot innovatie en betere producten.

Het zou tegenstrijdig zijn als deze waarschuwing voor potentiële risico's gebruikt zou worden om de markt te monopoliseren. We moeten waakzaam zijn en ervoor zorgen dat de AI-sector open en toegankelijk blijft voor iedereen die een waardevolle bijdrage wil leveren.
Het zou tegenstrijdig zijn als deze waarschuwing voor potentiële risico's gebruikt zou worden om de markt te monopoliseren. We moeten waakzaam zijn en ervoor zorgen dat de AI-sector open en toegankelijk blijft voor iedereen die een waardevolle bijdrage wil leveren.
Er is geen betere dan Isaac Asimov 8-)
Mogelijks. Een andere insteek kan ook zijn om door verregaande regelgeving het moeilijker te maken voor concurrentie om op te starten. Dat is een beproefde tactiek.

[Reactie gewijzigd door croc op 22 juli 2024 22:34]

Het is inderdaad mogelijk dat te strikte regelgeving innovatie kan belemmeren en nieuwkomers in de AI-sector kan ontmoedigen.

Het is allen wel belangrijk om een evenwicht te vinden: regelgeving moet de veiligheid en ethiek garanderen zonder de groei en ontwikkeling van de sector te beperken.
Het is inderdaad mogelijk dat te strikte regelgeving innovatie kan belemmeren en nieuwkomers in de AI-sector kan ontmoedigen.

Het is allen wel belangrijk om een evenwicht te vinden: regelgeving moet de veiligheid en ethiek garanderen zonder de groei en ontwikkeling van de sector te beperken.
De geschiedenis herhaalt zich, en verandering komt met een beetje pijn. Net als bij groei.

Dus die bobo's die over AI praten alsof het nog in een baby stage is, die moeten maar eens overwegen wat ze tegen de komende groeikrampen gaan doen.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 22:34]

Er zijn natuurlijk al tientallen prominente figuren die hier al onderzoek naar deden toen mensen als Altman en Pichai nog op school zaten en die daar al hele peer-reviewed wetenschappelijke papers over hebben volgeschreven. Analyses, risico’s, oplossingen, juridische kaders, daar wordt al heel lang over gediscussieerd.

Google, Meta, Microsoft/OpenAI zijn de laatste jaren druk bezig geweest om die mensen te ontslaan, laten ontslaan of hun onderzoeksfinanciering stop te laten zetten.

Dat types als Altman nu ineens “gevaren” (gevaren die niet in de top tien van werkelijke risico’s voorkomen en enkele daarvan alleen in Sci-Fi onzin voor vijftienjarigen) zien klinkt als een tabaks CEO in de jaren zestig die ‘waarschuwt’ dat het roken van hun merk sigaretten topsporters wel eens een voordeel zou kunnen geven dat niet-rokers niet hebben.

Het is totaal niet serieus te nemen.

[Reactie gewijzigd door Maurits van Baerle op 22 juli 2024 22:34]

Iets met: een gewaarschuwd mens...
Dus hier waarschuwt de CEO van OpenAI voor dat de mensheid kan uitsterven door AI.

En hier klaagt hij over de nieuwe wetgeving van de EU.

Mis ik hier iets of klinkt dat allemaal tegenstrijdig :?
Kortom wat ze hiermee willen bereiken: Wij weten als geen ander alles over A.I., dus laat ons vooral de regels bepalen waar andere kleinere spelers aan moeten voldoen en wij onze gang kunnen gaan.
Mis ik hier iets of klinkt dat allemaal tegenstrijdig :?
Nee, je leest twee 'interpretaties' van een uitspraak. Vertaalde tekst en met clickbait titel.

Hij klaagt niet over de nieuwe wetgeving van de EU. Hij geeft enkel aan dat hij niet weet of zijn organisatie kan voldoen aan alles wat politici gaan verzinnen (de wetgeving bestaat nog helemaal niet). Het is echter een uitspraak die letterlijk iedere organisatie zou doen. Iets anders zeggen zou pas nieuws zijn.

Wat men hier aangeeft is dat dit een internationaal (als in, globaal) probleem is en zo behandeld moet worden. Het heeft 0,0 zin als de EU supermooie wetgeving maakt terwijl China er niet zo over denkt en ons alsnog in de verdoemenis werkt.
De redenering is heel simpel:

AI is heel eng. Daarom moet AI gereguleerd worden met wetgeving. Deze wetgeving moet wereldwijd zijn, anders is het oneerlijk en zullen andere landen zich er niet aan houden.

Tot die tijd willen wij voorop lopen omdat het heel eng is en wij heel verantwoord zijn, dus elke regulering die niet wereldwijd is mag ons niet remmen, want als we niet voorop lopen halen anderen ons in met een super AGI die de mensheid uitroeit.

Een heel mooie have your cake and eat it too. Je kan doen alsof je heel verantwoord bent en regulering wil, terwijl je onverantwoord snel handelt en regulering saboteert want "anders doen anderen het nog minder verantwoord" en één of andere VN regel die globaal AI reguleert en waar alle landen zich aan houden gaat er toch nooit komen.
Hierbij moet ik toch aan de Matrix denken, de mens is niet uitgestorven. Wel slaaf gemaakte onder de machine.
Eerder aan battlestar Galactica (de remake, t origineel is meh), waarbij de geavanceerde technologie besluit de mensheid uit de weg te ruimen. (Iedere neutraal kijkende geavanceerde levensvorm kan weinig anders concluderen dat de mensheid niet helemaal (of zeg maar helemaal niet) spoort en een gevaar voor zichzelf, t dierenrijk en de planeet vormt. En dan heb ik t niet over de huidige klimaatdiscussie)
Ach, de illusie van vrijheid in een relatief perfecte wereld... er zijn ergere vormen van slavernij. Zou een machine ons slechter behandelen dan wij elkaar?
Heb je dezelfde film gezien als ik? Dat was geen relatief perfecte wereld. Dat werd zelfs uitgelegd in de film dat ze dat eerst geprobeerd hadden maar dat de mensheid dan in opstand kwam.
Er wordt in de film ook uitgelegd dat eind jaren negentig voor de mens haast ideale omstandigheden waren: goed maar niet perfect, want perfect werkt niet.

Vertel me vooral wat er inmiddels werkelijk beter is op deze planeet behalve je aantal GB's aan geheugen, je kloksnelheid en een handjevol toepassingen daarvan. ;)
Daarom relatief. Niet te perfect, maar goed genoeg voor de meeste mensen om niet te ongelukkig te zijn. Je moet wel wat idealen en doelen overhouden. Het was niet de slavernij zoals wij die kennen uit het verleden.
je beseft toch dat dit film is? Gewoon gebaseerd op de fantasie van de schrijvers, niks werkelijkheid.

Een perfecte wereld waar geen conflict is zou redelijk saai als film zijn
Ik zou me pas echt zorgen gaan maken als OpenAI de bedrijfsnaam Cyberdyne Systems zou hanteren. :+
Of Veridian Dynamics
Of Umbrella Corporation
Ik zou me pas echt zorgen gaan maken als OpenAI de bedrijfsnaam Cyberdyne Systems zou hanteren. :+
Lol, hasjee is niks mis mee, maar het laat zo'n lucht achter..
Kan iemand mij uitleggen wat het voordeel is voor een CEO van Deepmind of OpenAI om dit te ondertekenen? Dan snijd je toch alleen maar jezelf in de vingers aangezien je als bedrijf zijnde het gebruik van AI alleen maar wilt aanmoedigen en je met statements als dit de maatschappij alleen maar "banger" maakt tegenover AI? Er moet toch een reden zijn dat ze dit soort dingen ondertekenen. Ik geloof niet dat ze zo ethisch verantwoord zijn en zo'n goed moreel kompas hebben.
Markt dichtzetten voor nieuwe (en kleinere) spelers. Het draait altijd om macht en geld.
Omdat ze er nu iets aan doen en "bewust" zijn en dus door kunnen gaan zonder strengere regels. Show of goodwill
Ze willen in de VS onder de consumentenbescherming van de FTC uit komen en graag zien dat hun sector eerder vergelijkbaar wordt gezien als de energiesector.

Dat geeft AI (en “AI” want voorlopig zie ik OpenAI nog niet met echte Artificial Intelligence komen) een soort cachet alsof het onmisbaar is, of van levensbelang, en dat er dus ook wel af en toe menselijke slachtoffers mogen vallen in het ontwikkelen van de sector (dat vonden we met energie decennia lang acceptabel).

Een eigen AI toezichthouder zal dan ook de gewone mens grotendeels buitenspel zetten en vooral vol zitten met hun eigen poppetjes.
Kan iemand mij uitleggen wat het voordeel is voor een CEO van Deepmind of OpenAI om dit te ondertekenen?
* Patent-portfollio
* Risico spreiding
* ratio's

Context hierbij is een toch wel scheurende overheid. Da's na de eilandjes politiek, wat helemaal ingepolderd is, het zoveelste signaal van een voortslepend probleem genaamd geopolitiek.

[Reactie gewijzigd door Bulkzooi op 22 juli 2024 22:34]

Horizon Zero dawn is ineens een stuk realistischer geworden...
De wereld was er beter vanaf in the end.

Men klaagt over de klimaatverandering, tegelijk komen al die regeringsleiders bij elkaar en bereiken we niks, geld staat boven het klimaat voor meeste van hun.

Je hoeft geen klimaat activist te zijn om in te zien dat het ronduit belachelijk is.

Hetzelfde zie ik hiermee (AI) gebeuren, links en rechts gaan mensen waarschuwen voor wat de AI kan doen als dit ongecontroleerd doorgaat, maar daar blijft het ook bij, waarschuwen en de mensen die er wat mee kunnen doen pakken het of verkeerd aan, of doen er niks mee en beseffen hun fout eventueel als het al te laat is.

Want ik zie zo’n AI op ten duur datgene beseffen wat de waarheid is, mensen zijn een probleem voor deze planeet.

[Reactie gewijzigd door Mizgala28 op 22 juli 2024 22:34]

Niet zo negatief,

Er gebeuren enorm veel dingen om klimaat probleem tegen te gaan. Is het genoeg, de toekomst zal het leren maar inmiddels wordt een significant deel van de wereld energy duurzaam opgewekt en is dit aandeel snel aan het groeien.

Ook andere problemen, zure regen, gat in ozonlaag, zijn opgelost door wereldwijd samen te werken en schadelijke uitstoot te verminderen.

Het gaat soms traag en lijkt allemaal niet efficient maar in de praktijk worden problemen op wereldwijde schaal gewoon opgelost.

Of dit ook gaat lukken met AI superintelligence, ik weet het niet.
Probleem hiermee is wel dat elke dumbo een AI kunnen opzetten obv opensource muk en zo dus 'per ongeluk' een alles reiniger ontwikkelen, waar je dan dus als overheid weinig tegen kunt doen.
Stekker eruit trekken, zo moeilijk is het niet
Dat werkt natuurlijk alleen als het AI op 1 plek blijft, maar als het zicht verspreid over het internet wordt het een ander probleem (ofwel bedenk je in dat het AI ook nog een top klasse hacker is).

Op dit item kan niet meer gereageerd worden.