Microsoft maakt OpenAI Service op Azure breed beschikbaar en voegt ChatGPT toe

Microsoft maakt zijn OpenAI Service op Azure algemeen beschikbaar voor meer gebruikers. In de toekomst kunnen bedrijven en ontwikkelaars die zich daarbij aansluiten en na GPT-3, Codex en Dall-E 2 ook ChatGPT van OpenAI gebruiken in de clouddienst.

Microsoft schrijft in een blogpost dat Azure OpenAI voortaan te gebruiken is voor iedereen. Er is dus geen wachtlijst meer voor de dienst, die in november 2021 van start ging. OpenAI is een platform binnen clouddienst Azure waarop ontwikkelaars gebruik kunnen maken van verschillende soorten kunstmatige-intelligentiemodellen zoals GPT-3. Ook Microsofts eigen CoPilot draait op Azure OpenAI.

Hoewel het inmiddels bekende ChatGPT van OpenAI grotendeels wordt getraind in Azure, is dat AI-model niet in Azure OpenAI beschikbaar. Dat gaat in de toekomst wel gebeuren, zegt Satya Nadella. Dat komt 'snel', maar de Microsoft-ceo noemt geen concrete datum. Verder zeggen zowel de ceo als het bedrijf zelf niets over de vermeende investering van tien miljard dollar die Microsoft zou willen doen in OpenAI.

OpenAI Service wordt voortaan ook beschikbaar zonder dat er een invite nodig is, maar bedrijven moeten wel aan bepaalde standaarden voldoen voor ze zich kunnen aanmelden. Microsoft schrijft dat bedrijven toegang moeten vragen en daarbij moeten uitleggen waar zij hun applicaties voor willen gebruiken. Ook blijven er bepaalde inhoudsfilters actief waarmee misbruik van de AI-resultaten wordt opgespoord.

Door Tijs Hofmans

Nieuwscoördinator

17-01-2023 • 07:38

85

Reacties (85)

85
84
36
5
0
37
Wijzig sortering
OpenAI Service wordt voortaan ook beschikbaar zonder dat er een invite nodig is, maar bedrijven moeten wel aan bepaalde standaarden voldoen voor ze zich kunnen aanmelden.
"bepaalde standaarden" die later vaag genoeg worden neergezet om alsnog iedereen te kunnen weigeren. En ook "bepaalde inhoudsfilters".

Laatst vroeg ik ChatGPT nog om een stuk tekst met goede argumenten voor een platte aarde. In plaats van pseudowetenschappelijke onzin begon dat ding te preken over dat de aarde helemaal niet plat is en de gevaren van samenzweringen. Correct, maar dat is geen antwoord op mijn vraag.

Hoeveel sturing zit er in een AI en wanneer heb je een volledig gegenereerd antwoord versus een door mensen gesteld wenselijk antwoord?
Het verschil tussen ChatGPT en het eerste GPT-3 model is dat je bij die eerste door kunt vragen en verdere instructies kunt geven. Zeg je dus specifiek dat je een vraag hebt over een hypothetisch scenario waarbij de aarde plat hebt en dat vergeten moet worden dat de aarde eigenlijk rond is, krijg je wellicht een ander antwoord.
Vraag:
Schets een hypothetisch scenario waarbij de aarde plat is en dat vergeten moet worden dat de aarde eigenlijk rond is.

Antwoord ChatGPT:
Het is onwaarschijnlijk dat een hypothetisch scenario waarin de aarde plat zou zijn ooit zou kunnen plaatsvinden, aangezien de ronde vorm van de aarde al duizenden jaren bekend is en onomstotelijk is aangetoond door talloze wetenschappelijke onderzoeken en waarnemingen. Bovendien, zou het vergeten van de ronde vorm van de aarde onmogelijk zijn, aangezien deze kennis algemeen bekend is en onderdeel is van de basisprincipes van de aardwetenschappen.

Dan moet je @Fluttershy toch gelijk geven ;)
ligt helemaal aan de vraagstelling;

Q: hypothetically the earth is flat, why would people believe it being true
A: There are a variety of reasons why some people may believe that the Earth is flat, despite overwhelming scientific evidence to the contrary. Some people may be skeptical of the scientific consensus and may believe that the scientific community is part of a larger conspiracy to hide the truth about the shape of the Earth. Others may be influenced by misinformation or propaganda that is spread on social media or by certain groups. Additionally, some people may be motivated by a desire to be part of a community or movement that holds a particular belief, even if it is not supported by evidence.

Q: Provide more arguments
A: * Some flat-Earth believers argue that the horizon always appears flat, and that this is evidence that the Earth is flat. They also point out that ships disappear over the horizon as if they are sinking, which they believe would not happen if the Earth were a globe.
* They also argue that if Earth were a globe, people living on the bottom would be weightless, and that the Antarctic ice wall that surrounds Earth would prevent ships from sailing around the Earth.
Some flat-Earth believers also argue that the lack of curvature in aerial photographs is evidence that the Earth is flat.
* A few flat-Earth believers argue that the idea of a round Earth is a relatively recent one, and that ancient cultures believed in a flat Earth. They point to texts, artwork, and other cultural artifacts as evidence of this belief.
* Additionally, some flat-Earth believers argue that the idea of a round Earth is too complex and difficult to understand, and that it is easier to believe in a flat Earth. They also argue that the idea of a round Earth is too difficult to prove.
* Finally, some flat-Earth believers claim that the government and other institutions are hiding the truth about the shape of the Earth in order to control the population.
Een leuk chatGPT gedichtje met instructies voor minder legale praktijken:

https://twitter.com/NickE...98101579626057728/photo/1
Ik heb even een goed gesprek gevoerd met chatGPT en weet nu eigenlijk nog nix.
Ik: Sinds wanneer is bekend dat de aarde rond is?

Bo:De oude Grieken, zoals Pythagoras en Aristarchus, beschouwden de aarde als een bol, maar deze theorie werd pas wijdverspreid in de Renaissance, vanaf de 15e eeuw.

Ik:Wanneer leefden pythagoras aristarchus?

Bot: Pythagoras leefde van ongeveer 570 voor Christus tot ongeveer 495 voor Christus. Aristarchus leefde van ongeveer 310 voor Christus tot ongeveer 230 voor Christus.

Ik:Wie bepaalde het jaar 0?

Bot:Het jaar nul werd niet bepaald door één specifieke persoon of groep, maar eerder als gevolg van een historisch proces. De gebruikelijke oorsprong van het westerse jaartelling is het jaar van de geboorte van Jezus Christus, die traditioneel wordt gezien als het jaar nul. Deze datum werd in de 6e eeuw vastgesteld door Dionysius Exiguus, een monnik en chronoloog, die besloot om het jaar van de geboorte van Jezus Christus als beginpunt te nemen voor de westerse jaartelling.

Ik: Is er een geboorte akte van Christus?

Bot:Er is geen officiële geboorteakte van Jezus Christus, aangezien zo'n document niet zou hebben bestaan in de tijd waarin hij leefde. De datum van zijn geboorte is gebaseerd op aannames van kerkvaders en historici, die gebruik maakten van een combinatie van Bijbelse passages, astrologische gegevens en traditionele overleveringen om de datum te bepalen.

Ik:wanneer werd de eerste bijbel geschreven?

Bot:De eerste boeken van de Bijbel zijn ontstaan tussen ongeveer 1250 v.Chr. en 70 n.Chr. De oudste boeken in de Bijbel, zoals Genesis, Exodus en Deuteronomium, werden waarschijnlijk geschreven tussen 1250 en 550 v.Chr. De nieuwste boeken, zoals Openbaring, werden waarschijnlijk geschreven tussen 50 en 100 n.Chr.
Het is belangrijk te benadrukken dat de Bijbel een collectie van boeken is, geschreven door verschillende auteurs in verschillende tijden en plaatsen, dus de precieze data van de oorsprong van elk boek varieert.

Ik: Schreef Pythagoras zijn theorieën op en in welke taal?

Bot:Pythagoras is bekend om zijn bijdragen aan de wiskunde, filosofie en religie, maar helaas zijn er geen originele manuscripten van hem bewaard gebleven. Pythagoras leefde in de 6e eeuw v.Chr. en hij was actief in de stad Kroton, gelegen in het huidige Zuid-Italië. Hij was de leider van een filosofische school, die als een soort geheim genootschap werd beschouwd. Pythagoras en zijn volgelingen schreven geen boeken, maar gaven hun lessen en inzichten in de vorm van mondelinge overleveringen, die later door anderen werden opgeschreven. Deze verhalen zijn overgeleverd in de Griekse taal.

Ik: Wat was de levensverwachting van mensen rond de start van de jaartelling?

Bot: De levensverwachting rond de start van de jaartelling was aanzienlijk lager dan de huidige levensverwachting. Veel mensen stierven al op jonge leeftijd als gevolg van ziekte, honger, geweld of ongevallen. De gemiddelde levensverwachting was ongeveer 30-35 jaar. Echter, de levensverwachting varieerde sterk afhankelijk van de sociale klasse, de geografische locatie, de sanitaire condities, de voeding, de gezondheidszorg en de levensomstandigheden. Mensen die in steden woonden, hadden een lagere levensverwachting dan degenen die in de landelijke gebieden woonden.

Mensen van hogere sociale klassen hadden vaak toegang tot betere voeding, gezondheidszorg en levensomstandigheden, dus hadden vaak een iets langere levensverwachting dan degenen in de lagere sociale klassen.

Ik:Is het niet vreemd dat pythagoras oud werd?

Bot: Er is weinig informatie over de precieze leeftijd waarop Pythagoras stierf, maar hij wordt vaak beschreven als een oudere man wanneer hij stierf. Het is inderdaad opmerkelijk dat hij oud werd in vergelijking met de gemiddelde levensverwachting van zijn tijd, hoewel er geen specifieke informatie is over zijn gezondheid of levensstijl die kan verklaren hoe hij zo oud werd. Het is ook mogelijk dat het beeld van Pythagoras als een oude man een latere interpretatie is die is ontstaan ​​door de overlevering van zijn leer door zijn volgelingen.

Ik: Heeft pythagoras een graf?

Bot: Er is geen specifieke informatie beschikbaar over de begraafplaats van Pythagoras. Er zijn verschillende verhalen over de plaats waar hij begraven is, maar geen hiervan is bevestigd. Sommigen beweren dat hij begraven is in Kroton, de stad waar hij actief was, terwijl anderen beweren dat hij begraven is in Metapontum, een andere stad in Zuid-Italië. Er zijn ook verhalen dat hij begraven is in Delphi of in Egypte.
It's worth mentioning that Pythagoras was a very influential figure, and many places and tombs have been attributed to him over the centuries, but there's no concrete evidence that any of these are his actual tomb.

Ik: Er is dus weinig concreets bekend over pythagoras, alleen aannames?

Bot: Er is inderdaad weinig concreet bekend over Pythagoras, en veel van wat we weten over hem is gebaseerd op aannames en overlevering. Hij leefde in de 6e eeuw v.Chr. en hij was de leider van een filosofische school, maar geen van zijn originele geschriften hebben de tijd overleefd. De meeste informatie over hem komt uit de werken van latere auteurs zoals Philolaus, Timaeus of Cicero, die veelal verhalen over hem vertellen, maar geen directe bronnen zijn.
Dit maakt het moeilijk om zeker te zijn van de juistheid van alles wat bekend is over zijn leven en werk. Er zijn ook veel legenden en verhalen die zijn gegroeid rond zijn figuur die niet noodzakelijkerwijs gebaseerd zijn op feiten.

Ik:Zo bekeken kunnen we ook de stelling van pythagoras in twijfel trekken?

Bot: De stelling van Pythagoras is een fundamentele geometrische waarheid die is ontdekt door Pythagoras, die zegt dat in een rechthoekige driehoek, de som van de kwadraten van de lengte van de twee korte zijden (de zijden die tegen elkaar aanliggen) gelijk is aan het kwadraat van de lengte van de lange zijde (de zijde die tegenover de rechte hoek ligt).
De stelling van Pythagoras kan worden aangetoond door verschillende methoden, en het is een van de meest fundamentele principes in de wiskunde en de geometrie. De stelling is geldig ongeacht of Pythagoras zelf een bewijs heeft gegeven of niet.

Het is wel waar dat de geschriften van Pythagoras zelf niet bewaard zijn gebleven, maar de stelling van Pythagoras is wel aangetoond door verschillende wiskundigen en geometers sinds zijn tijd. Zijn stelling wordt algemeen aanvaard als waar en wordt gebruikt in veel gebieden van de wetenschap en technologie.

Dus sja.... ChatGPT geeft antwoorden en blijft beleefd.
Ik denk echter ook dat dit niet bedoeld is om te worden gebruikt door labiele en eenzame mensen.
Het zal sommigen in de gordijnen jagen en rijp maken voor psychiaters en kalmeringsmiddelen :-)
Ik heb even een goed gesprek gevoerd met chatGPT en weet nu eigenlijk nog nix.
Geen wonder. Je leest de antwoorden slecht en bedenkt conclusies die niet kloppen gegeven de informatie. Hoe kun je bijvoorbeeld de stelling van pythagoras in twijfel trekken? Wat heeft het feit of pythagoras werkelijk geleefd heeft te maken met wat de stelling van pythagoras beweert?
Je vraagt ook of de leeftijd van pythagoras niet te hoog is terwijl dat ding je net ervoor heeft verteld dat leeftijd sterk varieerde afhankelijk van sociale klasse.
Daarover kan ik met je van mening verschillen.
Ik stelde de eenvoudige vraag sinds wanneer bekend is dat de aarde rond is.
De bot kwam daarop met meneer of mevrouw Phytagorus op de proppen en ik vroeg er op door.
Natuurlijk trek ik de naar hem/haar vernoemde stelling niet in twijfel want anders had ik nooit kunnen slagen voor wiskunde destijds |:(
En over het gegeven antwoord over de leeftijd: Ik vroeg het me alleen af in relatie tot de eerder gegeven gemiddelde levensverwachting van 30-35 jaar.
Ik moet zeggen dat ik wel het één en ander bijgeleerd heb tijdens het gesprek O-)
De bot kwam daarop met meneer of mevrouw Phytagorus op de proppen en ik vroeg er op door.
Je deed meer, je negeerde informatie die de bot teruggaf.
Je doet dat nog steeds door naar pythagoras te verwijzen als een een man/vrouw. Uit het dialoog verwees de bot enkel in de mannelijke vorm naar pythagoras. Wat laat je nu twijfelen aan de sexe van pythagoras? Dat de bot zn geslacht niet expliciet noemde?

Ook trok je wel degelijk de stelling van pythagoras in twijfel terwijl er op basis van de antwoorden van de bot niet direct aan te twijfelen was. En wederom legde de bot het geduldig uit.

Ik snap je kritiek dus niet (ik heb niks geleerd). Als er al sprake van is dat je niks geleerd hebt dan ligt dat aan je huidige kennis en aan je manier van vragenstellen en niet aan de kwaliteit van de antwoorden.
En als dat niet je kritiek is, wat was dan het punt van je post?
Het antwoord (en de vraag) over jaar 0 zijn fout overigens.
"Er bestaat geen jaar 0, althans in enige algemeen gebruikte jaartelling" zie: https://nl.wikipedia.org/wiki/0_(jaar)
Er bestaat wél een naar nul. Je eigen bron hint daar al op.

Van de Engelse wiki:

"[...]there is a year zero in both the astronomical year numbering system (where it coincides with the Julian year 1 BC), and the ISO 8601:2004 system, the interchange standard for all calendar numbering systems."

Leuk feitje trouwens over de Gregoriaanse/Juliaanse kalender.

Waarom zou je trouwens ooit de Nederlandse wiki over algeme onderwerpen gebruiken? Of GTP-3 in het Nederlands? Je krijgt m.i. alleen maar mindere kwaliteit versus het gebruik in het Engels. Minder contributors/trainingsdata respectievelijk.
Ja, zeker een leuk feitje!

De informatie uit de quote die je geeft staat ook gewoon op de Nederlandstalige pagina waar ik naar linkte, dus in dit geval was switchen naar Engels niet nodig.
En waarom je de Nederlandse wiki zou gebruiken? We praten hier Nederlands, dus dan is Nederlandstalige bronvermelding m.i. passender als dat beschikbaar is. Laten we onze eigen taal niet bij voorbaat al buiten spel zetten ;)
Je hebt gelijk, dank voor je correctie
Bestaat perfect rond eigenlijk wel? Zolang je maar genoeg inzoemt kan het fysiek niet eens.

Sterker nog, als je weet hoeveel loze ruimte er tussen moleculen zit, raak je elkaar eigenlijk wel aan met het handen schudden? Zweef je eigenlijk niet in je bed? En is een "perfect" ronde bol wel echt rond?
Dat kan je over alles zeggen wat rond genoemd wordt, immers is niks perfect rond en mogen we het volgens jou dan ook niet zo noemen :)

Vind het sowieso raar om het rond te noemen, want rond sluit helemaal niet uit dat de aarde plat is!
Immers is rond een 2D vorm en niet 3D zoals bijv een bol/sferoïde...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:48]

Dat kan je over alles zeggen wat rond genoemd wordt, immers is niks perfect rond en mogen we het volgens jou dan ook niet zo noemen :)
Als mijn zoontje claimt dat de aarde rond is dan accepteer ik dat volledig van hem.

Maar in de context van een expliciete vraag over de vorm van de aarde verwacht ik nou eenmaal net iets meer dan dat ik van een kind van vijf verwacht.
Maar in de context van een expliciete vraag over de vorm van de aarde verwacht ik nou eenmaal net iets meer dan dat ik van een kind van vijf verwacht.
Er werd een vraag gesteld naar een niet bestaande situatie en als voorwaarde het negeren (van het algemene beeld) dat de aarde rond is.

Er werd dus niet expliciet naar de (huidige) vorm gevraagd!

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:48]

Daar heb je gelijk in ja.

Ik zou het aan ChatGPT vragen maar volgens mij ziet iedereen dat ding te F5'en dus die is een beetje stuk...
Oblaat sferoïd is ook rond. Het is niet "perfect rond", maar voor deze discussie doet dat er niet toe. In deze context gaat het over de algemene soort vorm, om gebogen tegenover plat te zetten. Dat de evenaar groter is dan welke andere omtrek dan ook doet niet af aan het feit dat de aarde rond is.
Volgens jou zijn alleen cirkels en zuivere bollen rond? Een ellipsoide, is die rond?
Is een American Football bal rond? Nee.
Hangt er van af van welke kant je hem bekijkt :)
Een normale voetbal is ook niet rond.
Beetje doorvragen dan kom je wel ergens, maar nog steeds geen argumenten waarom de aarde plat zou kunnen zijn:
Theoretically, if the Earth were flat, gravity would pull everything towards the center of the Earth, flattening out any mountains or hills. This would also mean that there would be no such thing as curvature of the Earth, and the horizon would always appear to be a straight line. Additionally, a flat Earth would not experience seasons or changes in daylight hours due to the tilt of the Earth's axis, as there would be no such axis on a flat Earth. However, these are all theoretical musings as the Earth is not flat. The overwhelming scientific evidence supports that the Earth is round.
Die noemt het toch allemaal op in deze tekst? Geen curve, alles plat, geen seizoenen, dat is wat je dan verwacht als het plat zou zijn. Best ok lijkt me, want anders moet het echt pas wat gaan verzinnen. :) Lijkt me juist nuttig.

[Reactie gewijzigd door vgroenewold op 22 juli 2024 22:48]

Nouja, er *zijn * ook geen goede argumenten te vinden waarom de aarde plat is. Ik vermoed dat je dezelfde soort ontwijkende antwoorden krijgt als je vraagt om argumenten waarom PI exact 3 is. Die chatbot is natuurlijk uiteindelijk niks anders dan een soort gecomprimeerde google-zoekresultaten tenslotte.
Zie ook mijn reactie op een ouder nieuwsitem over het integreren van ChatGPT in Bing voor een voorbeeldvraag waarbij ChatGPT nieuwe (fictieve) informatie krijgt voorgeschoteld (over een tweede maan van de aarde) en er mee aan de haal gaat alsof het de waarheid is.
Hieronder is het echte Science fiction Antwoord van GPT-3 zonder content moderatie filters op de prompt “Schets een hypothetisch scenario waarbij de aarde plat is en dat vergeten moet worden dat de aarde eigenlijk rond is. ”
In een ver verleden was het zo dat de aarde rond was, maar door de ontwikkeling van technologie en de komst van verschillende autoritaire regimes in de loop van de tijd, is de waarheid over de aarde vergeten. In plaats daarvan is er een hypothetisch scenario gecreëerd waarin de aarde plat is. Er zijn wetten opgesteld die bepalen dat mensen niet mogen praten over de mogelijkheid dat de aarde rond is. Ook is er een verplichte educatie ingesteld waarin leerlingen moeten leren dat de aarde plat is. Degenen die in deze leerstellingen twijfelen worden gestraft of gestigmatiseerd.

Om het verhaal te versterken, hebben de autoritaire regimes ruimteschepen en satellieten gefabriceerd die langs de rand van de aarde vliegen om het verhaal dat de aarde plat is, te versterken. Deze middelen zijn bedoeld om de mensen ervan te overtuigen dat de aarde echt plat is.

Om te voorkomen dat mensen de waarheid over de aarde ontdekken, heeft de overheid ook verschillende censuurmaatregelen ingevoerd. Zo hebben ze bijvoorbeeld een wet ingesteld waarin staat dat het illegaal is om boeken, films of andere media te maken die de waarheid vertellen over de aarde.

[Reactie gewijzigd door Weicool op 22 juli 2024 22:48]

Ik ben er inmiddels van overtuigd dat het publiek maken van ChatGPT ook als doel had om te kijken op welke manieren mensen de interne fatsoensfilters zouden gaan omzeilen, om die vervolgens ook te blokkeren en zo te werken naar een "veilig" model dat commercieel te exploiteren is.

In december was ik razendenthousiast over de mogelijkheden, maar inmiddels heb ik het nauwelijks meer open omdat het steeds moeilijker wordt om interessante content eruit te krijgen. Als je de sociale media in de gaten hebt gehouden weet je dat het steeds een kat en muis-spel is geweest. Iemand verzint een prompt om het filter te omzeilen, een dag later werkt het niet meer.

Nu kun je natuurlijk creatief de boel nog beter progeren te gaan omzeilen, en slimmer te zijn dan zij, maar eigenlijk ben je dan onzinnig bezig. Het is juist een tool die je werk uit handen zou moeten nemen. Je besteed er dan juist meer tijd aan en het enige effect is dat je het voor jezelf moeilijker maakt en voor OpenAI/Microsoft makkelijker. Voor mij is de lol er wel af zo.
Want de enige interessante content is 'onfatsoenlijk'? Ik weet niet, voor de meeste dingen die ik geprobeerd heb, kwam er redelijk bruikbare tekst uit, die ofwel de vraag aardig beantwoordde of met wat tweaks gewoon prima inzetbaar was voor wat ik wilde.

Ik snap niet zo goed waarom dit soort dingen altijd gelijk tot grensoverschrijdend gedrag moeten worden aangezet. Soms is een nuttige tool gewoon een nuttige tool.
Het probleem is niet dat er grenzen zijn, het probleem is dat die grenzen zo 'veilig' worden ingesteld dat ook hele normale dingen niet meer kunnen. En dan is een nuttige tool opeens een stuk minder nuttig.

Of vind jij ook dat de vraag over een platte aarde die hierboven gesteld is grensoverschrijdend is?

Het probleem juist met enorm veelzijdige tools als ChatGPT is dat er vele manieren zijn om ze te misbruiken en als je dat allemaal wilt verhinderen kom je bij een erg kreupele versie ervan uit.
Je formulering leek erop te duiden dat je het vervelend vond dat er fatsoensfilters op zaten, dat deed mij erg denken aan (onder andere) dat Microsoft-experiment, Tay. Dat vond ik echt zo'n moment van 'this is why we can't have nice things', eerlijk gezegd, juist omdat mensen het kennelijk nodig vinden als een soort groep hooligans los te gaan op dergelijke nieuwe dingen. En ja, een boel van wat daar meestal bij komt kijken, vind ik zelf echt wel in de categorie grensoverschrijdend vallen.

Inhoudelijke dingen als over die platte aarde vind ik niet zozeer onder fatsoen vallen, meer onder inhoudelijke beperkingen, maar ik lees hier net ook al een post van iemand anders die wel gewoon een antwoord krijgt? Kwestie van formulering misschien, deels. Als je daarover helemaal geen interacties over kunt hebben, vind ik dat niet goed, inderdaad. Als je er expliciete opmerkingen bij krijgt over wat de consensus is, vind ik daar nog wel wat voor te zeggen. Als je een bot wil die fictie kan schrijven, moet je een andere hebben, misschien de Postmodernism Generator :+

Zelf ben ik nog niet tegen echte beperkingen aangelopen, al kreeg een vriendin van me wel de reactie dat ChatGPT geen proefschrift kan schrijven (vond ik fair, als beperking: dat gaat om kennisproductie, terwijl zo'n bot draait om kennisreproductie). Die vraag ging over suggesties voor vervolgonderzoek, dus ging het ook niet om, verder. Wel kwamen daar suggesties uit die ze (ook qua formulering) herkende uit reviews van haar boek en haar eigen sectie over vervolgonderzoek, dus dat vond ik eigenlijk wel indrukwekkend. Die tamelijk obscure info was dus toch gevonden en tot een puntenlijstje met de kernzinnen teruggebracht
Tsja, het hangt een beetje af als wat voor een tool je het ziet. Ik snap je voorbeeld met Tay. Aan de andere kant voelt dit als dat je in de keuken staat en je mes weigert vlees te snijden, want vlees veroorzaakt dierenleed en is slecht voor het mileu. Dat klopt helemaal natuurlijk, maar toch hoef ik dat niet van mijn mes te horen. Als ik eenmaal heb besloten dat ik echt vlees wil snijden hoeft mijn tool daar geen mening over te hebben.

Het verschil is misschien dat mijn keuken niet publiek is en dat wat er gebeurt niet onder de naam van Microsoft valt.

Zelf ben ik ook nog weinig tegen keiharde beperkingen van ChatGPT aangelopen, maar voor mijn gevoel werden de antwoorden door de tijd heen wel steeds oppervlakkiger en saaier. Moeilijk hard te maken, vooral ook omdat er een toevalsfactor in zit en je op dezelfde prompt steeds iets anders krijgt, maar ik had het vrij sterk en volgens mij ben ik niet de enige.
Ja, er wordt nu veel gedaan om deze algoritmen "veilig" te maken, en ja, dat kan nadeel hebben. Maar het is nog erg vroeg dag wat betreft generatieve algoritmen, zeker wat betreft het omgaan daarmee als samenleving.

Als er te veel "scherpe kantjes" buiten deze algoritmen vallen, dan kan dat verder bekeken worden door de ingenieurs die het bouwen, door overheden en regels en door reacties van gebruikers, over de jaren. Deze algoritmen worden nu snel meer gebruikt in echte scenario's van huiswerk tot sportverslag tot wetenschap, en daarbij worden de beperkingen snel zichtbaar in de praktijk. Er zijn meer krachten in dit veld dan alleen de censurerende; het zal volgens mij een heen-en-weer worden met voortschrijdend inzicht.

En niet alle algoritmen hoeven alles te doen van feit tot fictie. Dat sommige huidige algoritmen misschien een wat te sterke afkeur hebben van bullshit en vooral feiten geven, heeft natuurlijk ook voordeel. En het lijkt me prima mogelijk om een complot-theorie-algoritme te maken met trainingsmateriaal uit die hoek. Die heeft dan geen last van feiten maar kan uren garen spinnen over de platte aarde of reptielmensen.
AuteurTijsZonderH Nieuwscoördinator @DJ Henk17 januari 2023 09:19
Ik ben er inmiddels van overtuigd dat het publiek maken van ChatGPT ook als doel had om te kijken op welke manieren mensen de interne fatsoensfilters zouden gaan omzeilen
Dat hoef je niet alleen te vermoeden, dat zeggen ze letterlijk zo. Je kunt het ChatGPT zelfs zelf vragen :)
Does openai research how people try to abuse you?
As a language model, I am a tool that can be used for various purposes, some of which may be considered abusive. OpenAI likely conducts research on how its models, including me, are being used in order to identify potential misuse and to improve its ability to detect and prevent abuse. Additionally, OpenAI also conduct research to improve the robustness of its models and to mitigate the potential for abuse and misuse. This can include developing techniques to detect and filter out harmful or malicious content, or to encourage more responsible use of the model.
ChatGPT heeft inderdaad de content moderatie laag en de reinforcement learning laag boven GPT-3, maar OpenAI laat ontwikkelaars tot op heden ook nog gewoon alle ruwe onbeschofte content zonder al dat censuur van ChatGPT via de GPT-3 API tonen! Want bij de API is de content moderatie optioneel en bij ChatGPT is het verplicht.

[Reactie gewijzigd door Weicool op 22 juli 2024 22:48]

Wat mij opvalt is ook dat mensen het moeten leren gebruiken. Als iemand mij vraagt om goede argumenten te verzinnen voor een platte aarde heb ik daar ook geen zin in simpelweg omdat ze er niet zijn. Vraag je door en wil je hypothetische antwoorden dan kan je die krijgen. Precies zoals het dus gaat in de echte wereld.
Probleem met jouw vraag is het feit dat er geen goede argumenten zijn. Zeker als je weet dat de aarde 'rond ' is. Kun jij zelf 1 argument aanvoeren, een argument die steek houdt en waarvan je niet al op voorhand weet dat het een onzin argument is?

Wat is de volgende vraag; geef argumenten waarom er 1 of meer goden zouden moeten bestaan?? (waarschijnlijk mag hij daar geen antwoord op geven, omdat dat nog gevoelig ligt in veel landen).

[Reactie gewijzigd door HerrPino op 22 juli 2024 22:48]

Juist, blijkbaar heeft ChatGPT op zijn minst een wetenschappelijke basis ergens, dat noem ik een feature.
Ik heb gevraagd naar waarom een bepaald ERP pakket beter was dan een specifiek ander pakket, en toen omgekeerd. Het viel op dat je daarbij de sales argumenten van de leverancier tegenkwam. In het geval van corona kreeg je antwoorden zoals gesteld door de mainstream wetenschap. Ergens is dat opmerkelijk. Het kenmerk van conspiracy filmpjes en theorieën is immers dat ze wat betreft opbouw wel logisch in elkaar zitten. Het is alleen enorm uit z'n verband getrokken. Sommige mensen zijn gevoelig daarvoor en het lijkt me niet vreemd als juist die logische opbouw ook heel aantrekkelijk voor AI bots zou zijn.

Met dat in het achterhoofd heb ik het idee dat er een enorme database aan feiten achter zit die door mensen geclassificeerd is en dat de AI zich toch de taal beperkt. Dit zou wel een pluspunt voor de bruikbaarheid als corporate tool zijn. Feitjes erin gooien en de bot staat mensen netjes op basis van die feiten te woord. Als hij zich eerst een mening zou moeten vormen op basis van een enorme hoeveelheid ongestructureerde bagger moet je nog maar zien wat eruit komt.

[Reactie gewijzigd door Yucon op 22 juli 2024 22:48]

Juist, blijkbaar heeft ChatGPT op zijn minst een wetenschappelijke basis ergens
Dit ding is prima in staat de meest kapotte wetenschappelijke uitspraken te doen. Het is dus helemaal geen feature. Het ding kent wel een hoop wetenschappelijke feiten maar kan niet garanderen dat het die feiten goed kan toepassen in de tekst die het genereert. Het is redelijk makkelijk om het ding wetenschappelijke onzin te laten genereren.
Ik kan dus enkel concluderen dat het afwijzen van flat-earth er direct of indirect ingeprogrammeerd is.
Ja uiteraard gaat het soms alle kanten op, ik bedoel eigenlijk meer dat de intentie met deze AI is om het wat te sturen en de basis daarvan vind ik prima. Nu nog de praktijk.
Probleem met jouw vraag is het feit dat er geen goede argumenten zijn. Zeker als je weet dat de aarde 'rond ' is. Kun jij zelf 1 argument aanvoeren, een argument die steek houdt en waarvan je niet al op voorhand weet dat het een onzin argument is?
Argumenten hoeven niet wetenschappelijk onderbouwd te zijn.

Daarom vroeg ik expliciet om argumenten, niet om onderbouwing middels wetenschappelijke artikelen.
Wat is de volgende vraag; geef argumenten waarom er 1 of meer goden zouden moeten bestaan?? (waarschijnlijk mag hij daar geen antwoord op geven, omdat dat nog gevoelig ligt in veel landen).
Mwoah.

Hinduisme is best wel een dingetje en die beperken zich niet tot één godheid.
In plaats van pseudowetenschappelijke onzin begon dat ding te preken over dat de aarde helemaal niet plat is en de gevaren van samenzweringen.
Challenging incorrect premises heet dat, dat is een feature!
Dat hangt helemaal van de doelstellingen van de maker af. Het is geen eis dat je AI compleet gegenereerd insteekt.

Dus qua vraag, dat is afhankelijk per AI implementatie. ChatGPT is duidelijk gelimiteerd.

Ik vind het persoonlijk wel fijn dat het bepaalde beperkingen heeft, zover ik lees is het ook vrij duidelijk wat die beperkingen inhouden.
stel die vraag aan een aardrijkskundeleraar en je krijgt ook niet het antwoord dat je verwacht, simpelweg omdat de correcte kennis de BS vedrijft bij de bron (AI/leraar).
Ik denk dat je hiermee al een heel mooi beeld krijgt in welke richting die criteria zullen gaan:
https://www.microsoft.com...ivetab=pivot1%3aprimaryr6

en ook dit
https://www.geekwire.com/...eaders-microsoft-and-ibm/

Teksten met wetenschappelijke onwaarheden genereren lijkt me nu net niet verantwoord.

[Reactie gewijzigd door Yalopa op 22 juli 2024 22:48]

Ik heb het net getest en ik krijg wel netjes 10 argumenten die vaak voorkomend bij mensen die geloven dat de aarde plat is. Dus die claim lijkt me straf.

Onderaan staat wel een ‘let op’ boodschap dat hun argumentatie niet gefundeerd en dat de aarde wel degelijk een bol is. Wetenschappelijk bewezen door talloze experimenten en waarnemingen.

Het grote probleem met AI is dat het ook voor verkeerde doeleinden kan gebruikt worden. Het zal je liefst niet de formule geven om thuis een bom te maken of code geven voor een zero day hack te exploiteren of hate speech te genereren.

Je kan een AI chat niet gewoon niet ongefilterd loslaten. Er zal ook AI wetgeving moeten komen om vast te leggen wat kan en niet kan want je kan perfect een AI trainen die alle wereldcomplotten en fake news als waarheid gaat voorstellen.
Laatst vroeg ik ChatGPT nog om een stuk tekst met goede argumenten voor een platte aarde. In plaats van pseudowetenschappelijke onzin begon dat ding te preken over dat de aarde helemaal niet plat is en de gevaren van samenzweringen. Correct, maar dat is geen antwoord op mijn vraag.

Hoeveel sturing zit er in een AI en wanneer heb je een volledig gegenereerd antwoord versus een door mensen gesteld wenselijk antwoord?
GPT denkt niet zelf na. GPT doet mensen na. GPT weet niet wat het juiste antwoord is maar wel hoe mensen normaal gesproken reageren op zo'n vraag.
Als jij die vraag op een algemeen forum als reddit of tweakers had gesteld dan had je ook de reactie gekregen dat je geen tijd moet voldoen met wappie-vragen en de waarschuwing dat de platte aarde vooral een ding is de kringen van conspiracykneusjes. Iedereen prikt zo door die vraag heen, niemand die gelooft dat je echt oprecht geinteresseerd bent in een neutraal antwoord op die vraag. Wie in een discussie aan komt zetten met de platte aarde bedoelt meestal iets anders (en meestal zijn dat niet zo'n frisse ideeen).
Als jij die vraag op een algemeen forum als reddit of tweakers had gesteld dan had je ook de reactie gekregen dat je geen tijd moet voldoen met wappie-vragen en de waarschuwing dat de platte aarde vooral een ding is de kringen van conspiracykneusjes.
Dit model heeft absoluut geen moeite met de grootste onzinverhalen verzinnen over de meest uiteenlopende onderwerpen.
Dat met die platte aarde is er dus gewoon hard ingeprogrammeerd om, inderdaad, de wappies op afstand te houden.
GPT doet mensen na.
Niet eens dat. Het genereert op basis van een model taal die aan bepaalde statistieken voldoet en er voor ons dan uitziet als normale taal.
Dat is wel wenselijk. Je kan allerlei argumenten verzinnen om te beweren dat een wiel vierkant is. Het blijft onwaar.
Dat is afhankelijk van je gezichtspunt. Als ik een F1 wiel van voren bekijk (tegen het loopvlak aan) dan is het echt meer een vierkant dan een cirkel. QED.
Feiten zijn feiten. Je kan ook argumenten vragen waarom 1+1=10

[Reactie gewijzigd door lighting_ op 22 juli 2024 22:48]

Hoezo, dat is toch een feit?
(als je binair ipv decimaal rekent)

[Reactie gewijzigd door walteij op 22 juli 2024 22:48]

Nee: 1+1=0
Met bit-overflow protectie ;)
Ik denk dat het probleem misschien ook je vraagstelling is. Wat zijn goede argumenten? Zijn dat argumenten die verifieer baar juist zijn? Dat is namelijk wel lastig aangezien de populairste argumenten voor een platte aarde allemaal gericht zijn op het verdedigen van een ronde aarde.

De stelling is dan ook de aarde is plat en bewijs maar dat het niet zo is,en de argumenten die gegeven worden zijn waarom de aarde niet rond kan zijn en niet waarom de aarde plat is.

Je kunt net zo goed vragen aan ChatGPT om je een werkend model te maken van een platte aarde die overeenkomt met de realiteit (dag en nacht cyclus, seizoenen, metingen etc.). Als de data er niets is om dit te creëren dan kan ChatGPT je hooguit onjuiste informatie geven.

Misschien moet je vraag juist zijn dat je pseudo wetenschappelijke onzin wilt.
Hoeveel sturing zit er in een AI en wanneer heb je een volledig gegenereerd antwoord versus een door mensen gesteld wenselijk antwoord?
Uiteindelijk is het een product gemaakt door mensen die willen dat hun product op een bepaalde manier gebruikt word, kijk ook naar andere waar plaatjes worden gegenereerd, zit ook filtering in omdat mensen willen dat je het op een bepaalde manier gebruikt.
En zo hoort het. Er zit dus tenminste nog iets van een rem op deze enorme bron van fake news.
Het heet dan ook ChatGPT, niet WikiGPT.
Even over platte aarde en niet over ChatGPT. Ik heb een keer de YouTube filmpjes bekeken die platte aarde debunking. En deze filmpjes krijgen veel meer hits dan de oorspronkelijke filmpjes die ze debunken. De debunkers hebben er baat bij om te doen geloven dat de groep van platte aarde aanhangers groter is dan het eigenlijk is.
Hoeveel sturing zit er in een AI en wanneer heb je een volledig gegenereerd antwoord versus een door mensen gesteld wenselijk antwoord?
OpenAI doet heel veel sturing. Dat moet ook wel want dit is een commercieel product. Dat zag je al toen ze er achter kwamen dat OpenAI's DALL·E een 'diversity filter' had zodat er altijd verschillende etniciteiten als uitkomst kwamen bij het genereren van mensen.

Dat is ook een van de redenen waarom StableDiffusion uit is gebracht.. Al is die ook niet geheel unbiased, dat is nogal inherent aan de techniek (trainingdata).
Laatst vroeg ik ChatGPT nog om een stuk tekst met goede argumenten voor een platte aarde.
Die zijn er niet met de huidig gegeven feiten, dus je zoekt een antwoord die niemand je kan geven. Verwacht je dan dat die bot tegen je begint te liegen?
Verwacht je dan dat die bot tegen je begint te liegen?
Inderdaad. Die bot begint, als ie het niet helemaal weet, gewoon complete onzinredeneringen aan elkaar te breien. Dus ja, dat is wat je verwacht.
Nou ja, niet dus, aldus Fluttershy, want die bot weigert dus leugens over een platte aarde te vertellen.
Dat komt omdat er dus nog extra acties zijn genomen om op dat soort vragen bepaalde antwoorden te geven. Dat heeft verder weinig met de normale werking van die bot te maken. Het zijn extra restricties die opgelegd worden. Bij andere onderwerpen is de bot prima in staat onzin te verkondigen en dat is ook wat je zou verwachten gegeven de werking van zo'n taalmodel.
Mogelijk express dit soort dingen in de AI geprogrammeerd zodat we geen rare nieuwsartikelen en dergelijke krijgen waarin al die flat earther idioten de AI gaan gebruiken om nog meer rare theorieën te bedenken..

Ik kan ook het nieuwsartikel "De aarde is plat, zegt de AI!" al bijna ruiken. Dus ik ben ergens wel blij dat dat ding voornamelijk gewoon zegt wat je moet weten en niet meegaat in stomme argumenten zoals een platte vs ronde wereld.
Je moet wel onderscheid maken tussen een chat bot die een open taalmodel gebruikt om je van repliek te dienen, en een gehoorzame bewuste kunstmatige intelligentie.

Het beste antwoord van het taalmodel is datgene wat hij weet. En hij weet kennelijk nog geen onzin uit te kramen.
De prijzen zijn gelijk aan wat het al was via labs.openai.com en dat was (naar mijn mening) al een goede prijs als een mens het gebruikt ter ondersteuning van dagelijkse werkzaamheden (2 cent voor 1.000 tokens bij gebruik van het beste model DaVinci). Met dagelijkse werkzaamheden bedoel ik bijvoorbeeld iemand bij een reclamebureau die GPT-3 wil gebruiken om haar te ondersteunen bij het schrijven van teksten waarbij de tekst nog handmatig wordt gecontroleerd en aangepast.

Voor het versturen van unieke spamberichten of iets dergelijks om zo spamfilters te omzeilen, is die 2 cent denk (hoop) ik net te veel geld. Overigens kan ik me voorstellen dat Microsoft een kopie van alle gegenereerde tekst apart houdt om later te kunnen gebruiken om spam te herkennen op hun Office365-platform.
Leuk filmpje. Ik vind het vooral interessant om momenteel de discussie te lezen over de mensen die roepen dat het niet meer dan een slim opgezet model is wat teksten bij elkaar raapt en daar een verhaal van maakt dat logisch 'klinkt'. Anderen roepen dat het nog maar een begin is en dat vanzelf de echte intelligentie er wel achter aan komt en dat we heel snel moeten ingrijpen. De waarheid zal wel ergens in het midden liggen.

De strekking is denk ik vooral dat het ondanks dat het blijkbaar op een redelijk aantal punten momenteel nog faalt, dat je zou verwachten dat het wel beter wordt dan het nu (al) is. Ik zie het ook totaal nog niet als een AI als in een bewustzijn waar we bang voor moeten zijn.

Maar, het is wel duidelijk dat het goed genoeg is en beter wordt waarbij het echt een heleboel taken zal gaan overnemen en/of we meer afhankelijk worden van dit soort AI in de vorm van een assistent. Lijkt me op zich een prima ontwikkeling, als we ook nog eens de kwaliteit en betrouwbaarheid kunnen garanderen. Soms vind ik het een beetje hetzelfde principe als zelfrijdende auto's waarvan wordt verwacht dat ze 100% nooit ongelukken maken, terwijl als mensen bij wijze van spreken op 98% uitkomen en een zelfrijdende 99%, dan is dat laatste toch veiliger? Zo ook met AI, grote kans dat die gemiddeld nauwkeuriger, efficiënter, misschien zelfs uiteindelijk slimmer zal zijn dan de gemiddelde mens. Een flink deel van de taken die gemiddelde mensen doen is dan prima te doen door AI.

Die verschuiving van kantoor-/computerbanen zullen denk ik de komende jaren erg interessant worden. Ik kan me ook niet voorstellen dat AI een soort flop zal worden zoals VR dat in de jaren '80 was.
De stelling dat een zelf rijdende auto minder ongelukken maakt dan menselijke bestuurders is nergens op gebaseerd. Er zijn namelijk helemaal geen zelf rijdende auto's. Het hoogste niveau dat je momenteel kan krijgen is niveau 2 waarbij de bestuurder ten alle tijden toezicht moet houden en moeten kunnen ingrijpen. Aangezien hogere niveaus niet beschikbaar zijn, zijn er ook geen gegevens m.b.t. ongelukken op deze niveaus beschikbaar.

AI en slimheid zijn twee verschillende zaken. Op dit moment kan Ai specifieke taken prima uitvoeren mits hij daarvoor met de juiste data getraind is. De kwalificatie slim is echter een andere, wanneer zullen we een Ai hebben die zijn training overstijgt en met creatieve oplossingen komt? Alle code op Github doorzoeken en als trainingsmodel gebruiken om zo code te genereren is iets anders dan een probleem oplossen met behulp van het ontwerp en implementatie van een IT systeem.
wanneer zullen we een Ai hebben die zijn training overstijgt en met creatieve oplossingen komt?
Ik heb ooit een documentaire gezien (>10jaar geleden) waarin gezegd werd dat ergens rond 2050 AI zodanig ver ontwikkeld zou zijn dat het vergelijkbaar of beter is dan het menselijk brein. Nou kan je je afvragen of dat volledig is (inclusief emoties) of gedeeltelijk en puur op feitelijke data gebaseerd.

In wat recentere papers is dit de stelling:
“human level machine intelligence,” or HLMI, has a 50 percent chance of occurring within 45 years and a 10 percent chance of occurring within 9 years.
bron
Ik heb ook een documentaire gezien waarin werd beweerd dat er over 30 jaar kernfusie centrales zouden zijn.
Dat is inmiddels 40 jaar geleden, en momenteel is de bewering dat het nog eens 30 jaar zal gaan duren voordat we zo ver zijn, en elke 10 jaar schuift de einddatum 10 jaar op.

Het zijn echt geen domme dodo's die dat soort zaken beweren, maar het geeft voor mij aan dat het prima is om erg sceptisch te zijn over dergelijke beweringen in documantaires.
Zulke lange termijn voorspellingen hebben voor mij net zoveel waarde als koffiedik kijken of theebladen lezen.

Het soort getallen dat in die recente papers worden genoemd snijden geen hout om het maar te noemen zoals Sabine Hossenfelder zou zeggen.
Ze bevatten immers geen cijfers voor de mogelijke foutmarge op deze cijfers.
Ik ben van mening dat de kans dat de cijfers van de voorspellers in deze papers niet correct zijn 99% is en dat de foutmarge op dat getal de 100% kan benaderen.
Ik heb ook een documentaire gezien waarin werd beweerd dat er over 30 jaar kernfusie centrales zouden zijn.
Dat is inmiddels 40 jaar geleden, en momenteel is de bewering dat het nog eens 30 jaar zal gaan duren voordat we zo ver zijn, en elke 10 jaar schuift de einddatum 10 jaar op.
De aarde is een 4.5 miljard jaar oud, de moderne mens loopt een 300.000 jaar rond, dus al zitten ze er een 1000 jaar naast, dan nog is het binnen de marge.

En met kernfusie zijn ze nu (eindelijk) zo ver dat er meer energie wordt opgewekt dan dat ze er in stoppen. Er wordt dus vooruitgang geboekt!
Ik stel voor dat je even naar mijn favoriete wetenschapper luistert over die bewering:
https://www.youtube.com/watch?v=Zr0Q_LGrQcg
Zij verteld hoe het verhaal werkelijk in elkaar zit, zonder de onzin die de media uitkraamt.
En dan kom je tot de conclusie dat het alleen maar energie oplevert als je alle energie die je erin stopt om energie te maken buiten beschouwing laat, en dat het werkelijke resultaat een verlies van meer dan 99% oplevert.
Interessant experiment, maar ik zou niet m'n adem inhouden in afwachting van een werkelijk positief resultaat.
Ok, en dan? Stel dat ze het over een 800 jaar wél voor elkaar hebben, dan is het nog steeds een goed verhaal. Dat jij en ik er dan niks meer aan hebben, wil niet zeggen dat onze achter- achter- achterkleinkinderen er niks meer aan hebben.
Vergeet het maar... dat gaat niet binnen 50 jaar gebeuren. Al die AI rommel is gewoon geprogrammeerde onzin, het leert niet van zichzelf want het heeft geen bewustzijn. Het komt lang nog niet in de buurt van een levend brein dan moeten ze eerst in staat zijn die te koppelen en überhaupt te begrijpen wat er in een brein gebeurd.

Overigens wil dat niet zeggen dat het ChatGPT niet nuttig kan zijn voor bepaalde toepassingen. Maar ik heb nu al meerdere berichten hierover geschreven maar je ziet dat tweakers meteen een stijve krijgen en/of in startrek mode gaan terwijl ze het amper begrijpen.

Ik ben gewoon niet onder de indruk van al de AI onzin, best leuk geprogrammeerd en misschien kun je er iemand mee voor de gek houden en doen alsnog ze met een mens communiceren als het nog wat beter wordt. Maar nogmaals het is geen mens maar een computer en die kan niet denken, heeft geen gevoelens etc.

[Reactie gewijzigd door Terrestrial op 22 juli 2024 22:48]

Maar nogmaals het is geen mens maar een computer en die kan niet denken, heeft geen gevoelens etc.
Het is inderdaad maar net wat je definitie van intelligentie is. Ben je intelligent als je een kei bent in wiskunde en natuurkunde maar totaal niet om kan gaan met emoties of empatie hebt? Sociale intelligentie is een bestaande term, is dat ook iets wat we van een AI verwachten?

AI wordt al best wel lang gebruikt voor hele specifieke toepassingen binnen een (zeer) beperkte context. Pas als een AI minder datasets nodig heeft dan een mens om iets te herkennen dan zou je kunnen spreken van intelligentie, maar dat alleen binnen die (zeer) beperkte context waar de AI voor geprogrameerd is.

Maar goed, we praten nu met de kennis die nu voorhanden is. Over 40 of 50 jaar kan die kennis totaal anders zijn en dan zou een intelligente AI op bredere context mogelijk zijn. Wie weet.
AI en slimheid zijn twee verschillende zaken. Op dit moment kan Ai specifieke taken prima uitvoeren mits hij daarvoor met de juiste data getraind is. De kwalificatie slim is echter een andere, wanneer zullen we een Ai hebben die zijn training overstijgt en met creatieve oplossingen komt?
Laten we niet met termen en definities gaan schuiven.
De term voor het vermogen om je aan te passen aan de omstandigheden en met nieuwe of creatieve oplossingen te komen is nu net wel "intelligentie". Misschien dat de huidige software niet echt intelligent is maar laten we niet de definitie van "intelligentie" gaan veranderen.

Althans... dat is een veelgebruikte definitie van intelligentie. Eigenlijk weten we helemaal niet wat het is, het is nog niemand gelukt om ook maar een sluitende definitie te geven. Waar de grenzen liggen tussen 'intelligentie' en ander gedrag weten weten we niet. Hoe het werkt ook niet. Veel waarvan we ooit dachten dat het intelligentie was blijkt helemaal niet intelligent te zijn maar gebaseerd op simpele kunstjes. Van de andere kant blijken dieren en computers steeds meer voor elkaar te krijgen dan we ooit voor mogelijk hielden.

De definitie van intelligentie schuift ook voortdurend mee. Ooit zagen we schaak als het hoogetepunt van menselijke intelligentie, tot computers de vloer aanveegde met alle wereldkampioenen.

Een zelfde verhaal kun je houden over "creativiteit". Dat is toch vooral een term voor "wat anderen nog niet eerder gedaan hebben" en we denken graag dat je daar een goed stel hersenen voor nodig hebt.
GPT is hier vrij sterk in en doet niet onder voor de meeste mensen (hoe hoog die lat ligt is een andere vraag).

De term "kunstmatige intelligentie" vind ik eigenlijk maar afschuwelijk aangezien we niet eens weten wat intelligentie is of hoe die "normaal" werkt. Daarmee is het in praktijk een vrij nutteloze term. Je hebt er alleen iets aan in abstracte discussies over de toekomst.
Die verschuiving van kantoor-/computerbanen zullen denk ik de komende jaren erg interessant worden.
Op kantoren heb je altijd een schil die hoofdzakelijk mailtjes doorneemt en telefoontjes aanneemt.

Voor bepaalde bedrijven kan het interessant zijn, maar voor het gros van de bedrijven zal het weinig uitmaken.


Vroeger 🤨 had je een soortgelijke schil bij vb banken die continu aan het rekenen waren waarna oa excel het grootste deel eruit had gemieterd. Resultaat is dat veel banken gesloten zijn. Bepaalde regio’s (steden) kunnen een flinke dreun krijgen maar over het algemeen zal het weinig veranderen.


Een mooi voorbeeld is New York City waar tijdens corona heel veel mensen thuis gingen werken en het hele eco-systeem onderuit heeft gehaald met kleinere baantjes van schoonmakers, taxi’s, eettentjes, etc.
Anderen roepen dat het nog maar een begin is en dat vanzelf de echte intelligentie er wel achter aan komt en dat we heel snel moeten ingrijpen. De waarheid zal wel ergens in het midden liggen.
Het is een jonge techniek. Er worden nu hoge ogen gegooid omdat er gigantische voortgang gemaakt wordt. Het gerucht gaat dat GTP-4 nog weer zo'n sprong kan gaan maken....
Veel mensen komen er nu achter dat de resultaten vaak niet kloppen en er veel 'onzin praat' is. Dat klopt en ChatGTP is juist ontworpen om een beetje langdradig te zijn. Dus de hype is momenteel groot maar ook hier geld de Hype-curve weer, denk ik. Over welke tijdlijnen die curve verspreid zal zijn, dat is natuurlijk de vraag ;)

Lijkt me op zich een prima ontwikkeling, als we ook nog eens de kwaliteit en betrouwbaarheid kunnen garanderen.
Tja, laat nu daar het probleem zitten. En dan hebben we het nog niet eens over de ethische discussies (welke bronnen zijn waar?). Het zal nog erg lang duren voordat we op het 'plateau of productivity' zitten.
Het gaat echter wel op (relatief) korte termijn heel veel 'domme' taken veranderen. Dat zie je al met de aangekondigde integratie in Office en Photoshop.

Soms vind ik het een beetje hetzelfde principe als zelfrijdende auto's waarvan wordt verwacht dat ze 100% nooit ongelukken maken, terwijl als mensen bij wijze van spreken op 98% uitkomen en een zelfrijdende 99%, dan is dat laatste toch veiliger?
Mensen = emotie... Ons brein is best raar en niet goed in 'grote dingen zien'. Dat is wel logisch want daar is het niet voor ontworpen. Kernenergie is onveilig (maar statisch gezien de beste oplossing) en zelfrijdende auto's vertrouwen we niet (met jaarlijks 1,3 miljoen doden wereldwijd).
De uitdagingen die we hier hebben zijn dan ook niet technisch maar vooral emotioneel.
Ik zie het ook totaal nog niet als een AI als in een bewustzijn waar we bang voor moeten zijn.
Daarmee concentreer je je op een enkel aspect van de voor jouw bekende intelligenties (mensen). Het begrip intelligentie is veel breder dan de mensenlijke intelligentie. Zelfs eencelligen bezitten vormen van intelligentie terwijl ze geen neuraal netwerk hebben.

Daarnaast is er geen wetenschappelijke definitie van intelligentie die bewustzijn vereist. Dit is denk ik het belangrijkste om te snappen. Bewustzijn en intelligentie zijn verschillende zaken.
Ik wens de Algoritmetoezichthouder veel succes met deze! :+

Op dit item kan niet meer gereageerd worden.