OpenAI's medeoprichter en voormalige 'chief scientist' begint nieuw AI-bedrijf

Ilya Sutskever, de medeoprichter en voormalige 'chief scientist' van OpenAI, begint een nieuw bedrijf. Dat bedrijf heet Safe Superintelligence Inc. en gaat zich richten puur op het ontwikkelen van veilige kunstmatige intelligentie.

Sutskever kondigt het oprichten van het nieuwe bedrijf aan op sociale media. In een statement zegt het bedrijf te werken aan het maken van een krachtige 'superintelligentie', waarbij veiligheid vooropstaat. Het benoemt daarbij de externe prestatiedruk waar grote bedrijven mee te maken hebben. "Onze enkele focus betekent dat we niet worden afgeleid door managementoverhead of productcycli", aldus SSI. "Ons bedrijfsmodel betekent dat veiligheid, beveiliging en vooruitgang niet onderhevig zijn aan commerciële druk op de korte termijn.".

SSI wordt door Sutskever opgericht in samenwerking met Daniel Gross en Daniel Levy. Eerstgenoemde is het voormalige AI-hoofd bij Apple, terwijl Levy hiervoor ook werkte bij OpenAI als technicus. Het nieuwe bedrijf heeft naar eigen zeggen kantoren in Palo Alto en Tel Aviv.

Ilya Sutskever was tot eind vorig jaar bestuurslid bij OpenAI en werkte mee aan het plan om ceo Sam Altman te ontslaan, merkt Reuters op. Dagen later gaf hij aan spijt te hebben van zijn medewerking en riep de raad van bestuur juist op om Altman weer aan te nemen. Sutskever stopte als bestuurslid toen Altman terugkeerde.

In mei vertrok hij bij OpenAI, maar de topman gaf daarvoor geen reden. Hij hintte toen al wel op de komst van een nieuw project. Kort daarna vertrok ook onderzoeker Jan Leike bij OpenAI, naar eigen zeggen omdat veiligheidprocessen rondom het ontwikkelen van AI-modellen volgens hem 'op de achtergrond' waren geraakt 'door glimmende producten'.

Door Daan van Monsjou

Nieuwsredacteur

19-06-2024 • 21:03

57

Lees meer

Reacties (57)

Sorteer op:

Weergave:

Zou zeggen niets meer aan doen. Duidelijke boodschap en geen afleidende grafische pracht en praal O+
Duidelijke boodschap? De tekst is duidelijk te lezen maar wat bedoelen ze met veilige AI? Veilige verwerking van uw gegevens of maken ze AI die antwoorden van andere AI moet testen of accuraatheid? Wat is een super intelligence? Willen ze een LLM maken die info cross checked zodat het ‘bewust’ wordt wat wat er geschreven was? Zouden ze iets inbouwen dat voorkomt dat AI wordt ingezet voor propaganda of virus code? Ze blijven onduidelijk en wazig.
Dit is niets meer dan een aankondiging; oftewel een coming soon pagina. Het is een bedrijf in wording.
Inderdaad, een functionele website. Doet precies wat ie moet doen (informeren) en dat zonder javascript of andere kermis dus snel en zonder trackers en social buttons en alle santekraam. Dat zouden meer websites eens moeten overwegen, om de boodschap weer voorop te zetten.
Als je de HTML code bekijkt...
  • Geen lang in html tag
  • H1 ontbreekt, foutieve structuur
  • Gebruikt een <div> ipv <main> voor inhoud pagina
  • CSS inline styling met mix css in head tag
  • br tag sluiten niet en incorrect gebruik van <br/>. Is voor onder andere gedichten, niet voor visueel meer witruimte te creëren.
  • Geen minify van html & css alsook weird formatting
  • font-family serif?? gebruik op zijn minst sans-serif
  • ...
Zelfs zo'n simpele website en dan nog slecht geschreven. Waarschijnlijk door hun geweldige Superintelligence AI geschreven zoals hij het zo mooi omschrijft :+ .
Bijna al je punten zijn niet per se fout volgens specificatie 🤷
Ik zou zeggen solliciteer bij hun, staat onder contacten op hun pagina.
For those interested in joining our company: join@ssi.inc.

For comms questions: comms@ssi.inc.

[Reactie gewijzigd door iSpace_61 op 22 juli 2024 13:20]

ik heb toch liever dark mode websites :+
daar heb je deze voor ;D
Dark Reader add-on
Edge
https://microsoftedge.mic...pdcdoeenechcleahebpibofpc
Chrome
https://chromewebstore.go...kopoojfekhnkhdbieeh?pli=1

[Reactie gewijzigd door DigitalMesh op 22 juli 2024 13:20]

My goodness. Geen Ads of andere afleiding? Niks noppes nada.
_/-\o_
hij was toch eigenlijk de AI wonderboy bij OpenAI... (type Wozniak bij beginnend Apple zeg maar)?
Ilya was de troefkaart van Musk (heeft hem weg weten te halen bij Google) waardoor OpenAI kon uitgroeien tot wat het nu is. Zonder Ilya hadden we geen LLM's op het niveau zoals we ze nu hebben en was AI nog steeds abstract voor de massa en was een film als Her nog vergezochte Sci-fi.
Bron? Want uit mijn eigen ervaring is AI een team effort. En ik kom al jaren op AI conferenties.
Het is niets meer dan in het gat springen om de kritische mensen tegen AI te winnen. Oftewel, trap er niet in. Huidige AI zijn imo nog steeds ongeleide projectielen die van alles mogen verzinnen onder het mom van hallucinaties. Maar ondertussen stikt de openbare kennisbank genaamd interweb het er vol mee. Zelfs Google komt steeds vaker met onverklaarbare antwoorden.

Laatst zochten mijn vrouw en ik het antwoord hoe lang het duurt voordat een liter water je blaas bereikt. Volgens Google zou dat ineens 7 dagen zijn. Ok, ik ben geen dokter of wetenschapper, maar dat antwoord slaat echt nergens op. Want als je blaasontsteking hebt en je drinkt dan veel
water dan duurt het geen week voordat je urine minder geconcentreert is zodat het plassen wat fijner aanvoelt.
Laatst zochten mijn vrouw en ik het antwoord hoe lang het duurt voordat een liter water je blaas bereikt. Volgens Google zou dat ineens 7 dagen zijn. Ok, ik ben geen dokter of wetenschapper, maar dat antwoord slaat echt nergens op. Want als je blaasontsteking hebt en je drinkt dan veel
water dan duurt het geen week voordat je urine minder geconcentreert is zodat het plassen wat fijner aanvoelt.
Dus je gaat aan een tekst generator die antwoorden geeft alsof het een persoon is een medische vraag stellen en dan verwacht je een 100% correct antwoord. Of je verwacht dat het eerste hit van google ook de juiste hit is. Het lijkt wel alsof je nieuw bent op internet. Wat je van google krijgt is niks meer dan een lijst van websites waar je mogelijk antwoord kan krijgen op je vraag. Wat je van een AI krijgt is een wiskundige truuk die bepaald welke woorden gegenereerd kunnen worden uit de vraag (prompt) die jij stelt. De antwoorden zijn net zo waar/onwaar als de input die je de AI geeft. Net zo waar of onwaar als het antwoord die je tegen kan komen op link nummer 14 uit de lijst van google.

Wil je het antwoord op je vraag? ga vooral naar een degelijke bron zou ik zeggen. Voor de rest moet je een AI gegenereerde antwoord altijd wantrouwen, want er is geen bron te vermelden, tenzij je de wiskundige modellen erachter als bron kan bestempelen.

Edit:typo

[Reactie gewijzigd door david-v op 22 juli 2024 13:20]

Eeen medische vraag? Hallo hey, het was gewoon een vraag wat bij ons opkwam zo laat op de avond. Nee, ik zal voortaan meteen een specialist bellen daarvoor ja. Pff.
je hoeft daar geen specialist voor te bellen, alleen een betrouwbare bron gebruiken. Of je gebruikt een AI die alleen getraind is met data uit medische documentatie. Dan is de kans (want dat is wat een LLM doet, kansberekening/voorspellen) groter dat het antwoord klopt.

[Reactie gewijzigd door david-v op 22 juli 2024 13:20]

Er is een term voor SLM (Small Language Model), deze heeft een subset van gespecialiseerde data.

https://aimresearch.co/un...redefining-nlps-landscape
Maar zit daar niet juist het probleem? Jij en ik weten dat we een goede bron moeten zoeken maar veel mensen gebruiken AI wel voor kennis. Dus wat @Yzord zegt is zo gek nog niet.

En laten we hopen dat alle data die AI uitpoept niet opnieuw gebruikt wordt om AI te trainen, want dan gaat het wel echt mis natuurlijk.
Het probleem heeft zeker wel een sociaal aspect. Je geloofd eerder iets als het overtuigend gezegd of geschreven is. LLMs zijn zeer goed bedreven in het schrijven van tekst en dat maakt het ook zo moeilijk voor mensen om te snappen dat het geen waarheid of ethisch verantwoorde tekst is.

De toepassingen van gespecialiseerde LLMs is wel iets wat steeds meer naar voren komt (SLM is een term die hierboven genoemd is) zijn wel meer gericht op correcte of feitelijke antwoorden. Copilot voor een ontwikkelaar bijvoorbeeld.

Dus ja, er is zeker een gevaar dat mensen een algemene LLM zoals chatgpt gaan beschouwen als een soort guru die antwoord geeft op al je vragen.

Maar net zoals met alles wat je online leest moet je wel opletten dat het antwoord klopt. Als je feitelijk iets wil weten kan je het beste een LLM vermijden. Wil je een "idee" laten genereren (ook voor programmeren heel handig), tekst herschrijven of resumeren, dan is een LLM echt ideaal.

Met tekst naar spraak zie ik een LLM ook als een uitstekende gespreks partner voor mensen die eenzaam zijn. Een dergelijke toepassing heb ik nog niet gezien maar verwacht ik wel binnenkort.

Edit: typos

[Reactie gewijzigd door david-v op 22 juli 2024 13:20]

En hoe weet je (je, als in: het algemene publiek) wat een betrouwbare bron is?

Zoals ik jouw reactie interpreteer: een LLM kan een correct antwoord geven en dan is het superhandig/-nuttig, maar kan even goed een onzinantwoord geven en dan moet je maar een betrouwbare bron gebruiken. Maar daarmee is een LLM dan meteen niet meer nuttig.

[Reactie gewijzigd door jessesteinen op 22 juli 2024 13:20]

En hoe weet je (je, als in: het algemene publiek) wat een betrouwbare bron is?
Betrouwbaar is en relatief begrip helaas. Is wat de minister president zegt betrouwbaar of politiek gemotiveerd? De website van een nieuws organisatie is redelijk betrouwbaar, al moeten ze soms ook correcties publiceren over iets wat toch niet klopt.

Je kan nooit 100% zeker zijn, maar bron vermelding of peer review zoals in de link die ik stuurde over de medische vraag helpt wel.

Uiteindelijk zul je zelf moeten bepalen wat redelijk betrouwbaar is of niet. Meerdere bronnen raadplegen kunnen daar bij helpen. Het wordt pas ingewikkeld als elke bron iets anders zegt (bijvoorbeeld corona was een ware hel wat dat betreft)
Het was ook een retorische vraag van mij. Je weet, praktisch gezien, niet of een bron betrouwbaar is. Daar kun je je inderdaad wel enigszins voor inspannen maar dat is niet realistisch voor 1) elke zoekopdracht die je doet en 2) voor het publiek in het algemeen.

Het is waar, wat je zegt, dat je betrouwbare bronnen moet gebruiken, maar het is geen nuttig antwoord op wat @Yzord stelde, vind ik.
Het model hertrainen is vaak niet nodig; je kunt ook Retrieval Augmenten Generation (RAG) toepassen. Wat daarbij gebeurt is:

1. Je stelt een vraag over een onderwerp (water opname in het lichaam)
2. Een algoritme doorzoekt een database met documenten op relevante teksten daarvoor.
3. De relevante teksten worden in de prompt van het LLM gezet.
4. Het LLM wordt gevraagd om bij de antwoorden alleen de relevante teksten te gebruiken.
5. Je kunt het LLM ook vragen te verwijzen naar de gebruikte bronnen in het antwoord.

Door deze stappen toe te passen is de kans veel kleiner dat het LLM dingen compleet gaat verzinnen. Die kans is er uiteraard altijd, maar kun je zo dus flink verkleinen en het antwoord is ook makkelijker te controleren.

Wel is het algoritme in stap 2 bepalend voor het aanreiken van de juiste stukken tekst; dit algoritme moet je dus goed trainen!
Met die vraag is niks mis, maar je stelt deze vraag op de verkeerde plaats en je hecht teveel waarde aan het antwoord dat je krijgt. ChatGPT, om maar een AI te noemen, kan ongelofelijk veel, maar de antwoorden zijn van middelmatige kwaliteit. Dat kan genoeg zijn, maar is het vaak genoeg ook niet.

En old-school Google is niet meer dan een zoekmachine die kijkt waar je mogelijk een antwoord zou kunnen vinden, maar geeft niet zelf hét antwoord.

Zelf gebruiken wij ChatGPT de hele dag door, maar behandelen deze als een junior AI-medewerker. Alles zul je moeten controleren. Doe je dat niet, dan is dat jouw fout en echt uitsluitend jouw fout. Nooit fout van de AI, want je weet dat deze slechts een junior niveau heeft.

Doorvragen om nadere uitleg geeft vaak wel betere antwoorden. Maar nogmaals, "beter" wil niet zeggen "correct".
Zelf gebruiken wij ChatGPT de hele dag door, maar behandelen deze als een junior AI-medewerker.
Knap zonde van de tijd en middelen als je het mij vraagt. Waar gebruik je het dan zoal voor?
Onze omzet is meer dan verdubbeld, dat vind ik niet zonde.

Oa veel schrijfwerk, maken van testgevallen, etc. Vooral de dingen die we niet leuk vinden om aan te beginnen.
Blijft heerlijk dat mensen allerlei huis-, tuin- en keukengebreken gebruiken (in dit geval zelfs een vrij onsmakelijk voorbeeld) om A.I. af te doen als een marginale technologie om zichzelf gerust te stellen terwijl we stiekem allemaal weten dat we binnen 5 jaar het haasje zijn. Helaas snapt niet iedereen wat exponentiele groei betekent.

[Reactie gewijzigd door MakeItSo84 op 22 juli 2024 13:20]

De hoeveelheid data die als input voor de AI modellen beschikbaar is groeit toch niet exponentieel?
Nee, die groeit lineair. En de relatie tussen meer data en de kwaliteit van een LLM zal ook niet lineair zijn, noch zal meer data de limitaties wegnemen.
De groei zit hem in rekenkracht en optimalisatie. En data kan ook synthetisch zijn.
Wacht maar totdat bedrijven moeten betalen voor de trainingsdata die nu is geroofd van het internet. Dan is AI ineens heel wat minder leuk.

Nu maak ik er zelf wel gebruik van, maar draai een open source oplossing die ik lokaal draai. En nee, niet met GPU, maar puur CPU. Op een i3 (10e generatie) en 16 GByte (2400 MHz). Toch valt de snelheid van model 'bartowski/stable-code-instruct-3b-GGUF' dat ik in applicatie 'LM Studio' draai op die computer absoluut niet tegen. Heb je een nog meer recente generatie i3, i5 of i7 CPU en rapper RAM, dan is het puur en alleen op CPU gebaseerde AI stiekum al voldoende voor 70 tot 80% van de gebruikers die met AI werken.

Optimalizeren van modellen en het vergemakkelijken van trainen van modellen, daar zou men zich mee bezig moeten houden. Want dan kunnen veel personen een persoonlijke AI bij gaan houden. Om zichzelf, hun leven en hun werk te verbeteren.

Een werkgever/manager mag dan misschien denken dat AI een heleboel taken kan overnemen, maar men zou er beter aan doen om goede persoonlijke AI voor werknemers te regelen. En een aparte AI welke bedrijfsdata behandeld. En deze alleen te koppelen wanneer dat nodig is. Bedrijfsdata veilig(er) en beter presterend personeel.

Dan kunnen die managers denken dat zij minder personeel nodig hebben om hetzelfde werk te verzetten. Maar dat type manager is een sukkel. Men kan dan beter wat bedenken om het verbeterde personeel nuttiger en/of grootser in kunnen zetten. Of zelfs extra taken/zaken naar zich toe kunnen halen, oftewel diversiferen. Dan is het bedrijf een stuk toekomstbestendiger en vaak ook nog eens winstgevender. En daar wordt uiteindelijk iedereen in de maatschappij beter van.

Exponentiële groei is zeer zeker iets om rekening mee te houden, daar heb je gelijk in. Maar dat dient wel goed begeleid worden, anders word die groei heel snel ontspoorde chaos. Daar stapt je opmerking (te) snel overheen.
Moet het dezelfde liter water zijn? Want dan is 7 dagen misschien niet zo heel vreemd. Een menselijk lichaam bestaat voor 53% tot 65% uit vocht. Voor iemand van 60kg heb je dus al minstens 30liter vocht/water. Als je je aan de richtlijn van 2l water per dag zou houden, zou je pas na 15 dagen al het water in je lichaam hebben kunnen vervangen.

In de praktijk zal urine bestaan uit een combinatie van oud en nieuw water. Het water dat je drinkt zal ook niet volledig de blaas bereiken, maar op andere manieren het lichaam verlaten (bvb. zweet).

Hoewel ik het AI gebeuren ook nog wat wantrouw denk ik dat de vraag, zoals je die hier vermeldt, gewoon al verwarrend is en geen duidelijk antwoord kan hebben.
Het is gewoon een hele vreemde stelling. Want een mens kan maar max 3/4 dagen zonder water en dat strookt dan niet met dat na een week de helft van een liter uitgeplast wordt, dus halfwaardetijd van 1 week. Dus ongezien of het eenzelfde liter moet zijn die je uitplast, klopt er imo niet veel van de stellingen.
veel van het water in je lichaam is niet transitair, het maakt deel uit van de structuur van je lichaam. Als je per dag x aantal koppen koffie of glazen bier drinkt, dan zal dat veel van dat vocht overtollig zijn en direct terug worden afgevoerd. Die 2 liter water is dan ook maar eerder een guideline en geen absolute vereiste.
quest.nl zegt ongeveer hetzelfde.
ChatGPT 4O geeft een volstrekt normaal antwoord op deze vraag. De conclusie is dus dat de kwaliteit van de verschillende AIs best verschillend is.
Volgens mij heb je het juiste antwoord gewoon gevonden maar wel je het niet accepteren. ;)
Waar zocht je dit? Want naar weten heeft Google buiten Amerika (of engels talige gebieden) gemini nog niet uitgerold dus zou dat niets met AI te maken hebben gehad. Idem voor Google Assistent wat niets meer is dan speech to text (en andersom) en zogenoemde intents dat zin ‘x’ niets meer triggered dan ‘script y’ waarbij ook daar vragen beantwoord worden met web info en AI niet eraan te pas komt (of minstens niet zoals gemini of andere Ai modellen als gpt)
Ik chat vaak met chat gpt om te kijken hoe ver het is, en kom heel vaak onvolledige antwoorden tegen, of antwoorden die veranderen op basis van hoe je de vraag stelt, het is daarom echt nog verre van volmaakt.
Die gasten hebben zwaar geld en hardware nodig, ik vraag me af of dit de nieuwe Apple geallieerde tak wordt. Appel zou theoretisch dezelfde hardware kunnen inzetten als ze gebruiken voor hun Apple Intelligence servers en ze hebben geld zat genoeg... Ze kijken ook tegen zaken iets anders dan MS dat doet... Nu natuurlijk zal dat bedrijf nog niets kunnen neerzetten, maar met een aantal jaar zou dat anders kunnen zijn en de Apple Intelligence setup is flexibel genoeg om makkelijk te kunnen overstappen als er opeens een nieuwe speler op de markt verschijnt die iets meer in Appel's zak zit...
Interessant, maar we zullen moeten zien in hoeverre ze 'safe' als sausje gaan brengen of het serieus nemen. Ik kan alleen maar onderschrijven wat ze er zelf over zeggen, dat is een van de meest uitdagende vraagstukken van de huidige tijd. Ik denk dat er wel mogelijkheden zijn, maar dat zal radicaal anders moeten zijn dan de machine learning waarop bijvoorbeeld ChatGPT gebaseerd is.
Volgens mij zijn er twee problemen met de huidge aanpak:

1. De data die erin gaan is niet erg representatief voor onze kennis over de wereld.
2. Het eenheid van analyse is wel erg op detail niveau, namelijk delen van woorden.

Punt 1: De data die gebruikt worden komen grotendeels van het internet. De onderwerpen die daar (veel) besproken worden zijn populair, maar dat maakt ze nog niet "waar". De modellen voorspellen dus puur welke woorden *vaak voorkomen* gegeven een bepaalde context. Als de meerderheid op het internet claimt dat de aarde plat is, dan zal een LLM dat ook beweren...

Punt 2: Elk LLM heeft een limiet aan de context die het mee kan nemen, gemeten in tokens. Dit zijn vaak (delen van) woorden. Hoewel deze "context windows" steeds groter worden, vormen ze wel een beperking op hoeveel de modellen kunnen overzien. Wellicht zou het helpen als er op een hoger conceptueel niveau relaties gelegd kunnen worden, zodat de modellen beter begrijpen waar teksten over gaan.

Eerlijk gezegd denk ik dat vooral punt 1 een blokkade vormt; in principe lijkt me de aanpak van associaties vormen op basis van observaties me niet verkeerd. Zo leren mensen immers ook concepten aan elkaar te verbinden. Alleen wegen mensen observaties anders dan puur op basis van frequentie; wetenschappelijk literatuur vertrouwen wij bijvoorbeeld meer dan een Facebook post (althans de meesten van ons).
Ja, vooral punt 1 wordt veel te veel vergeten, hoewel het iets genuanceerder ligt: de doelstelling is wel gespecificeerd om een model te vinden met een lineaire relatie tussen aantal keer voorkomen en belang, maar het is niet zo dat de outputverdeling van het model die ook volgt.

Nog iets complexer is generatieve search zoals recent door Microsoft en Google geïntroduceerd, daarbij wordt wel degelijk een andere analyse gedaan om te selecteren welke informatie er het best een vraag beantwoord. Helaas is dit gebleken behoorlijk slecht te werken, het is toch niet zo makkelijk om te identificeren wat correcte en relevante informatie is.

Mensen leren volgens mij wel degelijk op basis van frequenties, maar niet lineair en zeker niet alleen maar uit tekst. Onze ervaringen zijn primair gegrond in sensorische ervaringen, die typisch heel erg waarheidsgetrouw zijn. Daarbovenop kunnen we abstractere zaken leren middels taal. Taalmodellen leren direct het abstracte want die hebben alleen taal beschikbaar. Dat is inderdaad nogal een beperkte bron van informatie.

Daarom is de verwachting van velen ook dat multi-modale modellen met beelden veel beter zullen zijn. Ze vergeten echter dat wij efficient kunnen leren uit visie en dat computers nog super veel stroom nodig hebben om beelden te verwerken. Daarmee is leren uit visie op wereldschaal volgens mij echt nog heel erg ver weg. Als laatste is er ook nog geen efficient mechanisme gevonden om logica in te zetten in het leerproces of zelfs maar in het genereren van outputs. Daarmee is reflectie en evaluatie van informatie om tot een output te komen nog volledig buiten beeld.
Ik vraag me toch af wat ze bedoelen met termen als "veilig" en "veiligheid".

Zoals ik het nu zie in het artikel zijn het holle frasen en marketing gezever zonder enige vorm van inhoud.

So what dat hij uitgekakt was bij OpenAI. Power to him dat hij een nieuw bedrijf aan het oprichten is, maar vooralsnog zegt het me helemaal niks anders dan een stel loze beloften.
Inderdaad, dat vroeg ik mij ook af. Wat wordt er bedoeld met "Safe" Wat is er veilig voor wie?

Eigenlijk geeft deze aankondiging meer inkijk over waar hij vandaan komt dan waar die naar toe wil.
Zo ik het las: we gaan een commercieel bedrijf oprichten. Met wat marketingpraat denken we dat we niet gevoelig is voor commerciële invloeden. We verwachten dat mensen hier hun geld in stoppen.
Ben ik nu echt de enige die geloofd dat AI niet bestaat?! Dat het commerciële kul is waar iedereen intrapt. Het begon met de domme onzin als slimme koelkast, en slimme thermostaat...echt... |:( |:(
Ga naar ChatGPT en probeer het eens.
Is het intelligent? Soms. Kan het helpen om je werk sneller, beter of completer te maken? Zeker! Kan het je inspireren, op andere gedachten brengen of een samenvatting voor je maken? Ja, heel goed zelfs; met een snelheid waar je eng van wordt! Kan het feiten goed weergeven? Nee; ChatGPT is echt vérre van accuraat qua feiten over openingstijden, prijzen, afstanden, leeftijden, jaartallen, conversiekoersen en dat soort zaken!

Het is meer een taalmodel dan een feitenbank. De afstand van "hier" tot aan Amsterdam kun je beter aan GoogleMaps vragen dan aan ChatGPT. Maar je kunt ChatGPT wel vragen om een rondleiding door Parijs met een beschrijving van alle highlights. En die is dan wel weer helemaal top, maar de entreeprijzen en openingstijden kloppen zeer waarschijnlijk niet(!). Of "Hoe maak ik een extra knop in WordPress die XYZ doet" en je krijgt een voorbeeld van wat mogelijk is met uitleg hoe het werkt. "Maak een excelformule voor cel B1 die van de waarde in cel A1 alles weghaalt na het eerste @ teken tenzij er 3 @ tekens in de cel staan". Klaar! Inclusief alle uitleg van alle subfuncties die gebruikt worden. Daar (programmeren = taal) is ChatGPT dan wel weer heel goed in.

Maar ook AI in ziekenhuizen: Beoordelen van problemen op röntgenfoto's. Met een hogere nauwkeurigheid dan 'levende artsen'. De robot wordt niet moe, beoordeeld alles gelijk, met een snelheid waar mensen niet aan kunnen tippen.

Het is zéker geen commerciële kul; miljoenen mensen gebruiken dit dagelijks om zaken beter te begrijpen of ideeën op te doen voor iets. Het is een prima hulpmiddel en heeft echt wel zo z'n doelen. Het kan je prima helpen om van iets wat je 80% begrijpt naar 100% te begrijpen. Maar je moet zeker zelf je verstand gebruiken en soms doorvragen of iets op een andere manier vragen, En je moet kritisch zijn op de antwoorden en verifiëren of het resultaat 'goed' is.

Ik zou *nooit* blind een complexe ChatGPT-generated-excelformule of informatieve tekstuele alinea doorgeven aan mijn baas als "Dit is het goede antwoord" zonder het eerst even zelf te checken. Ook al heb ik inmiddels al honderden formules correct laten genereren.

En dan heb ik het in dit stukje niet eens gehad over de grafische mogelijkheden... dat is weer een hele extra tak-van-sport in de AI-race.

[Reactie gewijzigd door Wisher op 22 juli 2024 13:20]

Het volgende is een AI gegenereerde tekst van mijn echte reactie op jouw post waarbij ik aan CHATGPT heb gevraagd om mijn reactie iets korter te maken zonder al teveel verlies van mijn voorbeelden:

Probeer ChatGPT eens uit.
Is het intelligent? Soms. Maar kan het je werk sneller, beter, of completer maken? Absoluut! Het kan je inspireren, nieuwe ideeën geven, of een samenvatting maken met een verbluffende snelheid. Feiten nauwkeurig weergeven is echter niet zijn sterkste kant; voor specifieke details zoals openingstijden, prijzen en afstanden is ChatGPT niet betrouwbaar.

ChatGPT is een taalmodel, geen feitenbank. Voor praktische vragen zoals routes kun je beter Google Maps gebruiken. Maar voor creatieve taken of gedetailleerde uitleg over bijvoorbeeld het maken van een knop in WordPress, blinkt ChatGPT uit. Ook voor complexe Excel-formules biedt het gedetailleerde en begrijpelijke oplossingen.

In de medische wereld toont AI zijn waarde door bijvoorbeeld röntgenfoto's nauwkeuriger te beoordelen dan menselijke artsen. Een AI wordt niet moe en werkt consistent en snel.

Het is zeker geen commerciële onzin; miljoenen mensen gebruiken AI dagelijks om zaken beter te begrijpen of ideeën op te doen. Het is een krachtig hulpmiddel, mits je kritisch blijft en de resultaten verifieert. Nooit blindelings een AI-gegenereerde formule of tekst doorgeven zonder zelf te controleren.

En dit is nog zonder de grafische mogelijkheden van AI te noemen, wat weer een hele andere tak van de AI-ontwikkeling is.
Zelfde input, maar dan met de prompt: Leg het uit aan een 10jarige:

Probeer ChatGPT eens uit.
Is het slim? Soms. Maar kan het je helpen met je werk of huiswerk? Zeker weten! Het kan je nieuwe ideeën geven, samenvattingen maken, en dingen snel uitleggen. Het is alleen niet zo goed in het precies vertellen van feiten zoals openingstijden of prijzen.

ChatGPT is eigenlijk een taalhulp, geen feitenboek. Voor vragen zoals hoe je ergens komt, kun je beter Google Maps gebruiken. Maar voor leuke dingen zoals het bedenken van een verhaal over Parijs of uitleg over hoe je iets in WordPress maakt, is ChatGPT superhandig. Ook als je een lastige Excel-formule nodig hebt, kan ChatGPT je helpen met een duidelijke uitleg.

In ziekenhuizen helpt AI ook. Het kan röntgenfoto's beter bekijken dan sommige artsen, en het wordt nooit moe.

AI is geen onzin; heel veel mensen gebruiken het elke dag om dingen beter te begrijpen of nieuwe ideeën te krijgen. Het is een geweldig hulpmiddel, maar je moet wel altijd zelf nadenken en de antwoorden controleren. Vertrouw nooit blind op een AI-antwoord zonder het zelf te checken.

En dan heb ik het nog niet eens over de coole dingen die AI met plaatjes kan doen! Dat is weer een heel ander spannend verhaal.
Als ik ChatGPT zonder mijn input vraag om een antwoord op jouw bericht dan zegt deze:

Het is begrijpelijk dat sommige mensen sceptisch zijn over AI, vooral gezien de hype en sommige misleidende marketingclaims. Echter, AI is veel meer dan alleen een commerciële gimmick. Hier zijn een paar praktische voorbeelden om te laten zien dat AI echt bestaat en in de praktijk wordt gebruikt:

Diagnose en Behandeling: AI helpt bij het vroegtijdig detecteren van ziekten zoals kanker en ondersteunt artsen bij behandelplannen. Zelfrijdende auto's: Tesla en Waymo ontwikkelen auto's die zelfstandig rijden met behulp van AI. Logistiek: AI optimaliseert routeplanning en voorraadbeheer. Fraudedetectie: Banken gebruiken AI om verdachte transacties op te sporen. Beleggingsadvies: Robo-adviseurs geven geautomatiseerd beleggingsadvies. Voorspellend Onderhoud: AI voorspelt wanneer machines onderhoud nodig hebben. Kwaliteitscontrole: AI detecteert productiefouten nauwkeuriger dan mensen.

Deze voorbeelden laten zien dat AI echt bestaat en een praktische impact heeft op diverse sectoren.
Als ik SSI hoor dan denk ik aan Scuba Schools International, PADI's grootste concurrent. Die bestaan al een hele poos. Beetje ongelukkige naam.
Dit is vast allemaal heel goed bedoeld, maar...
Zo begon OpenAI ook, en nu zijn er steeds meer mensen die daar weggaan omdat ze niet op de veiligheid letten.
En er waren eerst steeds waarschuwende stemmen dat de manier waarop het echt fout zou gaan zou zijn als bedrijven met elkaar gingen concurreren wie de eerste was en niet meer op veiligheid zouden letten. Dus nu zijn we precies op het slechtst mogelijke pad bezig, en degenen die voorzichtiger zouden willen zijn gaan weg bij de bedrijven die het gevaarlijke pad nemen.
Waar het gevaar bestaat uit: door AI gebruik neemt de hoeveelheid desinformatie snel toe en worden mensen makkelijker gemanipuleerd.
Best jammer dat wij mensen zo dom zijn. Hadden we maar echte AI. Oh nee.

Op dit item kan niet meer gereageerd worden.