OpenAI teaset aankondiging van GPT-5 op 7 augustus

Het lijkt erop dat OpenAI het nieuwe model van ChatGPT, GPT-5, op 7 augustus onthult. Het bedrijf kondigt een aankomende livestream aan die daarop wijst.

OpenAI schrijft op X dat er donderdag om 19.00 uur Nederlandse tijd een livestream plaatsvindt. In de post is de letter 's' in 'livestream' vervangen door een 5, wat erop lijkt te duiden dat het gaat om de aankondiging van GPT-5, de opvolger van GPT-4.5. The Verge schreef vorige maand al dat het nieuwe ChatGPT-model in augustus beschikbaar moet komen. Naar verluidt geeft OpenAI GPT-5 de redeneercapaciteiten van het in april geïntroduceerde o3-model, in plaats van die in een apart model te verwerken. De bedoeling zou zijn om de modellen meer samen te voegen, zodat gebruikers niet voor elke taak het juiste model hoeven te kiezen.

Door Kevin Krikhaar

Redacteur

06-08-2025 • 21:18

56

Submitter: Hemur Enge

Reacties (56)

56
54
21
1
0
24
Wijzig sortering
Beetje offtopic maar:

Wat echt een ai-revolutie zou zijn als ai betere creatieve beslissingen kan nemen dan mensen..
Bijvoorbeeld muziek/films/games die door AI gemaakt zijn, en die beter zijn dan de muziek/films/games met een 'menselijke' visie.
Tot nu toe zijn ai-modellen kwa creativiteit en out-of-the-box denken echt bijzonder slecht.

Gelukkig maar. Dat is een van de laatse dingen waarin we ons als mensen onderscheiden.

Nou vinden wij mensen onszelf bijzonder, wij hebben iets 'magisch' dat ons menselijk maakt..
Maar uiteindelijk is alles wat we zijn, en hoe we werken pure logica, en zal vroeger of later uitgevogeld worden door de wetenschap wat creativiteit en bewustzijn is.

Erg spannend of we in de nabije toekomst een (hypothetische) technological singularity mee gaan maken.
Tegelijkertijd zullen we niet de eerste zijn in het universum die een singularity meemaakt.
Het antwoord op de fermi paradox is vast niet dat we uniek zijn.
Denk wel dat er echt een paradigma verandering nodig is hiervoor. LLM's hebben nu eenmaal hun beperkingen en uiteindelijk is het gewoon het voorspellen van de volgende token.

Werkt bijzonder goed als zoekmachine maar als je echt wat nieuws probeert te maken dan merk je toch dat AI het niet goed meer snapt.

Met programmeren is dat bijv goed te merken zodra je in wat minder veel voorkomende code komt dan gaat de AI constant hallucineren.
Dit. Ik werk veel met JavaScript en Svelte. Antwoorden voor JavaScript zijn vaak best goed, maar voor Svelte is het niveau af en toe ver te zoeken. Svelte is sowieso al vrij niche, en daarnaast heeft het recent een major update gehad naar Svelte 5 waardoor veel oude syntax niet meer relevant is. AI geeft mij te vaak Svelte 4 code of een oplossing in verbose inefficiente JavaScript. Ook wijst het net te vaak gewoon compleet de verkeerde kant op waardoor ik antwoorden alsnog vaak moet Googelen of zelf moet knutselen. Dit gebeurt van Claude tot Gemini tot ChatGPT.

[Reactie gewijzigd door Zaanone op 7 augustus 2025 08:05]

Check even dat je mcp gebruikt, ik denk context7, zodat hij de nieuwste syntax kan vinden.
Probleem is dat de LLM niet weet wanneer context7 te gebruiken omdat de LLM het bestaan van de nieuwe versie van de taal niet weet en het dus ook niet via de MCP op zoekt.

Je moet het constant laten herinneren eerst even in context7 te kijken en dan alsnog schrijft hij vaak deprecated code omdat dan het eigen getrainde data zwaarder weegt dan de data uit context7.

Tot op het punt dat je het eigenlijk beter zelf kan schrijven.


Dat is de grote valkuil met LLM, een LLM denkt dat het alles correct weet en denkt dus dat het jou correcte code geeft zonder context7 uit zichzelf te hoeven checken.

[Reactie gewijzigd door Ricco02 op 7 augustus 2025 08:20]

Dit is toch prima op te lossen met een stukje prompt engineering?

Aangeven dat x zwaarder weegt dan y. En dat antwoorden alleen gegeven mogen worden als de data uit x komt.

En dat die zichzelf checked voordat die komt met een antwoord.

Dit stel je 1x in en dan heb je daarna elke keer profijt van.
En toch zal het niet altijd context7 raadplegen, en al doet hij dat wel zal hij alsnog zijn eigen getrainde data mixen met context7 data in de uiteindelijk code snippets die het geeft.

Dan word je er al weer snel aan herinnert dat het simpelweg een tekstgenerator is.

Daarnaast is het vaak zo dat als je de LLM vol pompt met context7 dat hij te snel aan zijn context window komt en dus delen alweer vergeet.
Met Angular merk je ook dat de kwaliteit van LLM tegenover React lager ligt.
Maar uiteindelijk is alles wat we zijn, en hoe we werken pure logica
Dat is wel erg makkelijk gedacht.
Mee eens, zo heb je tal van omgevingsfactoren (neuro-endocriene regulatie), hormonale respons, gedragsmodulatie en een bepaalde terugkoppelingsmechaniek wat direct invloed heeft op ons karakter, gedrag, stemming en ook de keuzes die we maken. Allemaal dingen die niet in pure logica zijn uit te drukken.
Er is al een AI revolutie, en daarvoor hoeven de modellen niet meer beter te worden. Er is heel veel dat huidige modellen niet kunnen, en die in de komende paar jaar gaan geen dingen kunnen die nu ondenkbaar zijn. Als je echter denkt dat de revolutie pas komt bij de volgende stap mogelijkheden, dan heb je het helemaal mis. De race is nu integratie en gebruik van wat er al is.
Ik vind jouw manier van denken eigenlijk wel sterk, maar dat kan mijn standpunt zijn. Momenteel wordt er lukraak AI toegevoegd aan dingen waar ik eigenlijk geen toevoeging zie (in Whatsapp bijv.). Een goede integratie voor een lokale (of zelf gehoste/gekozen) LLM voor o.a. het corrigeren van YAML-files (die vaak dezelfde structuur hebben) zou ik persoonlijk ideaal vinden.
Ik zit zelf niet in de chatbots om de mensenmassa van onzinnige antwoorden te voorzien, maar ik werk voornamelijk aan datawetenschap. Een 'agent' schrijven om bepaalde files door te nemen en te corrigeren is eigenlijk al peanuts om te programmeren. ChatGPT of Claude kunnen je zelfs begeleiden hoe je dat aan kunt pakken, geen Google search query meer voor nodig.

Ik heb laatst in enkele uren een app gebouwd met verschillende visualisaties van een verzameling wetenschappelijke papers, gebruik makende van Cursor. Zeker voor iemand als ik die wel educatie heeft in software engineering, maar niet heel vaak nog zelf code schrijft, werkt dit heel goed. Je kunt dit soort scriptingproblemen gewoon uitleggen aan de AI en dan komt het met code aanzetten die grotendeels goed is. Je werkt er dan iteratief problemen uit totdat het stabiel werkt.

De reden dat een AI dit kan is dat er niets bijzonders aan is, van dit soort 'apps' en de onderliggende code zijn er onwaarschijnlijk veel voorbeelden op het web. Om een dergelijk script te schrijven is een beetje mix & match van wat er bestaat inderdaad een oplossing, en AI brengt dat, waarbij dit mix & match stuk steeds beter werkt.

Het past op dit moment duidelijk geen best practices van software engineering toe. Ik instrueerde het bijvoorbeeld om een spectral embedding te maken en in plaats van een library te gebruiken (scikit-learn bijv.) schreef het een implementatie from scratch. Ook tussen functies herhaalde het code voor selecties op datatabellen in plaats van daarvoor nog een functie te schrijven zodat de selecties gegarandeerd hetzelfde zouden zijn. Je kunt dergelijke vereisten echter meegeven in de prompts en als het niet te ingewikkeld wordt doet het zijn werk vrij goed.

Ik vind het belangrijk om een onderscheid te maken tussen de technologie en het gebruik ervan. Ik ben akkoord dat veel van het zichtbare gebruik mijns inziens onwenselijk is. Ik zit niet op een AI-antwoord in Google Search te wachten, want als ik iets ga Googlen dan zoek ik bronmateriaal, geen antwoord. Ik gebruik geen chatbot voor advies over mijn leven of beslissingen daarin, en ik heb mijn Facebook en Instagram accounts vorig jaar opgedoekt, want als ik ergens niet op zit te wachten is het wel een virtuele versie van mezelf zodat mijn kennissen daarmee kunnen praten in plaats van met mij.
Wat is "beter"? Dit zal nooit echt werken imo, omdat "goed" subjectief is. De film / muziekmakers proberen al tientallen (of langer?) jaren hun product te optimaliseren, al dan niet dmv computermodellen, maar het resultaat blijft wisselend.

Als je een computerprogramma, AI of anderzijds vraagt, om "een goede film" te maken dan zul je iets krijgen dat geoptimaliseerd is volgens kennis vooraf (wat zijn films die het goed deden, en waarom was dat?), of iets dat door veel feedback-cyclussen gaat waarbij een proefpubliek een thumbs up / down geeft, totdat er iets uitkomt dat de meeste thumbs up krijgt.

Maar heb je dan een goede film, of eentje die statistisch de meeste likes kreeg of de meeste omzet genereert? Als dat is wat je als "goed" vind, dan "mission accomplished".

Maar goede films en de nummers die zeggen dat het een goede film was zijn niet hetzelfde. The Shawshank Redemption wordt gezien als een van de beste films aller tijden, maar in de bioscoop deed ie het keislecht. The Room wordt gezien als een van de slechtste films aller tijden, maar toch zijn er mensen die hem kijken en de maker heeft door de slechte reputatie toch nog enige faam enzo ontvangen.

Zal een AI dat kunnen doen? Misschien. Maar dan krijg je het andere probleem. Met AI kun je snel en onbeperkt films genereren obv bepaalde criteria. Maar als je honderden films op korte termijn kunt genereren, wie zou daarnaar kijken? Dat wordt dan al snel "slop", net zoals de "long tail" van gegenereerde clips op youtube, text-to-speech audiobooks, van Reddit geplukte content recyclers, etc.
GPT 4.5 was gemaakt voor creativiteit, heb je die geprobeerd? Want het blijkt dat veel mensen die over het hoofd hebben gezien en niet geselecteerd hebben.
Als iemand in de creatieve technische sector heb ik hier natuurlijk zelf bezwaren tegen, maar wat hier ook speelt is dat AI gemaakt is om dingen te kunnen leren gebaseerd op bestaande patronen en deze te kunnen repliceren. Dit is een vrij platgeslagen uitleg, maar wel relevant voor de discussie wat creativiteit is. Want creativiteit is juist kunnen afwijken van deze patronen DMV andere/ongebruikelijke technieken. En vaak is dit nooit meteen creatief, maar juist doordat er een aantal nieuwe stappen te koppelen die ongebruikelijk, en niet altijd logisch zijn (vaak met slechte resultaten tussendoor) word dit na een tijdje pas creatief. AI modellen werken met waarde systemen die goeie en slechte resultaten kunnen "kwantificeren" en daarop gebaseerd weten wat goede en slechte resultaten zijn. In de creatieve wereld zijn goede en slechte resultaten niet zo zwart wit, en al helemaal niet objectief te kwantificeren. Hier "gevoel" voor hebben zijn wij mensen gewoon absurd goed in omdat onze persoonlijke waardesystemen ons hele leven worden gevormd tot iets unieks.

[Reactie gewijzigd door D13DS3L op 7 augustus 2025 17:42]

Ik heb er al een weekje mee kunnen spelen. Er lijken steeds kleinere technologischere sprongen te zitten tussen de versies, maar kijkende naar diepgaande use cases, automation en de benchmarks (zelf wat testen uitvoeren), is dit een hele interessante stap. Ik ben nieuwsgierig wat ze qua pricing zullen doen
Wat was de reden dat je beta toegang hebt gekregen?
Die krijg je spontaan, ik heb al vaak weken voor een aankondiging hier een nieuw icoontje of model gekregen. En moet dan ook altijd even googlen of vragen wat dat icoontje doet en of andere dat ook al hebben.
Via de investeringsmaatschappij waar ik bij zit aangesloten. Ik begreep dat random users ook toegang hebben gekregen zoals @Ruffian schrijft. Veel mensen hebben ook vaker de optie gekregen om uit twee antwoorden te kiezen, dat was ook nog wat finetuning voor deze versie.
Nice! Zijn multimodaliteiten uitgebreid?
Ik verwacht dat het weer enige tijd zal duren dat er een grote doorbraak in de AI zal zijn. Er zullen wel verbeteringen zijn, maar het zal meer een evolutie zijn dan een revolutie. Zolang AI voornamelijk interpoleert, het laag hangend fruit aan data heeft opgepakt en vooral nu naar opschalen van resources gekeken wordt in plaats slimmer resources in te zetten.
Ik hoop dat het eindelijk eens de meest simple instructies op kan volgen én onthouden.

Volgens mij heb ik bijna honderd keer op verschillende manieren gevraagd om/gezegd dat ik antwoord wil in dezelfde taal als waarin ik mijn vraag stel...

Of als het weer eens een tekst voor me schrijft met vetgedrukte woorden en foutief hoofdlettergebruik, het dat in een keer aan kan passen in een tekst die wel de officiële taalregels volgt.

Of dat het vraagt om extra info ipv zelf dingen te verzinnen/in te vullen.

Volgens mij zijn de problemen inherent aan taalmodellen/generative AI, zodra die dingen echt goed werken is het (per definitie?) geen LLM meer?
Het zijn probabilistische modellen, ze zijn fundamenteel niet in staat om 100% van de tijd een instructie te volgen. Het hangt in de praktijk sterk van de vraag en overige input af of het een instructie kan uitvoeren. In zekere zin kunnen taalmodellen helemaal geen instructies volgen, maar per toeval gaat het vaak wel redelijk.
Mijn 2 centen:

Overweg googles ai. Die heeft grotere context dus onthoudt ook vragen van even geleden. Ook Kun je vaak aangeven in Onder andere chatgpt dat bepaalde tekst automatisch in elke vraag mee genomen moet worden ergens in de instellingen


Voor de rest, klopt. Het zuigt
Wel grappig dat je reageert op een vraag over foutief hoofdlettergebruik met een zin met foutief hoofdlettergebruik :)
Ik gebruik beide (dagelijks) en over het algemeen vind ik Gemini nog slechter...
Heel erg herkenbaar met het antwoorden in een taal,

Ik gebruik 3 talen op een dagelijkse basis, (hoog niveau) en 2 die ik soms raadpleeg om wat bij te leren,

Met die eerste 3 gaat het altijd mis, halverwege de zin springt die dan opeens over van taal, of ik stel de vraag in bijvoorbeeld het Spaans en krijg dan een Engels antwoord terug, leuk dat ik ze beiden beheers maar ik stel de vraag juist in de ene of de andere taal om het logisch te houden met woordenschat en tema, of omdat ik de informatie ergens voor nodig heb en niet ook nog een taak moet aanmaken voor een juiste vertaling, die ik dan ook weer moet controleren.
Al een geluk doet ie het goed op de talen die je nog aan het leren bent :+
Persoonlijk vind ik het heel erg jammer dat er niet 1 AI tool is die helemaal wordt doorontwikkeld zodat je eigenlijk niets anders meer nodig hebt. Er zijn zo veel verschillende AI tools.. om mijn gewenste antwoord te krijgen moet ik vaak 4/5 tools gebruiken of de output ervan combineren om tot het gewenste resultaat te komen (bijv. een wat ingewikkeldere Excel formule).
Tsja, ik denk dat dat leuker/makkelijker klinkt dan het is.

Ik zie ChatGPT als een stuk gereedschap, en net als ander gereedschap, zeg schroevendraaiers, heb je al snel tien verschillende nodig als je een beetje een tweaker of klusser bent?

Het grootste gemis aan chatgpt vind ik dat ze niet duidelijk maken welk model waar nu precies goed voor is. Een beschrijving als "goed voor de meeste taken" is toch compleet nutteloos?

En wat is het verschil tussen "uses advanced reasoning" en "fastest at advanced reasoning"? Niet dat ik ook maar een keer een chat heb gehad zonder logische/redeneer fouten, ongeacht het model.

Zolang het een taalmodel is dat gebaseerd is op voorspellingen en aannames zal het altijd dezelfde fundamentele fouten blijven maken?
Het grootste gemis aan chatgpt vind ik dat ze niet duidelijk maken welk model waar nu precies goed voor is.
Heb je dit aan ChatGPT gevraagd? Uit ervaring weet ik, mits je de vraag goed stelt, dat er een prima uitleg komt.
... maar als ie dat zo precies uit kan leggen dan kan je ook de keus automatiseren :P

En het is erg irritant dat je steeds moet schakelen, want ik heb vaak vervolgvragen die niet per se het vorige model nodig hebben. Laatst weer eens per ongeluk "dat klopt niet" tegen 3o gezegd en dan gaat ie het hele internet af om toch nog een beetje zijn idee door te drukken.

[Reactie gewijzigd door uiltje op 6 augustus 2025 22:56]

Mee eens hoor. AI doet van alles zelf, maar dit ...
Dan stel ik de vraag niet goed? En geloof me ik heb heb op tientallen manieren geprobeerd.

Mijn ervaring is dat het model waar je mee chat niet eens weet welke versie het is. Het blijft spreken over GPT Turbo, een versie die niet bestaat (in ieder geval niet voor het publiek)

Ook als ik algemene vragen over GPT zelf stelt krijg ik altijd 'gegenereerde' onzin antwoorden ipv dat het de informatie over zichzelf 'weet'.
Het grootste gemis aan chatgpt vind ik dat ze niet duidelijk maken welk model waar nu precies goed voor is. Een beschrijving als "goed voor de meeste taken" is toch compleet nutteloos?

En wat is het verschil tussen "uses advanced reasoning" en "fastest at advanced reasoning"? Niet dat ik ook maar een keer een chat heb gehad zonder logische/redeneer fouten, ongeacht het model.
Ik had laatst dezelfde vraag, en dacht het eens aan chatgpt zelf te vragen:
🧠 ChatGPT Model Lineup

1. GPT‑4o (Omni)
  • Strengths: Multimodal powerhouse—handles text, images, audio (and video in API). Real‑time, fast, cost-efficient, high usage limits for Plus users TeamAI+1Wikipedia.
  • Weaknesses: Not specialized for deep step‑by‑step logic or highly structured reasoning tasks Brin Wilson...+2Wikipedia+2.
2. GPT‑4 (including Turbo/4.1)3. GPT‑3.5 Turbo
  • Strengths: Fast, efficient, cheap. Solid for simple chat, translation, basic code, summaries TechTargetCoursera.
  • Weaknesses: Prone to errors with complex reasoning, limited context length and creativity compared to later versions.
🧩 Advanced Reasoning Series (“o” and reasoning models)

These models literally think more before responding—they generate internal chains of thought to reach more logical, reliable answers. Ideal if your task needs rigor.

o1 & o1-mini
  • “Uses advanced reasoning” refers to o1, introduced in late 2024. It constructs explicit internal chains of thought before answering, excelling at complex science, math, and programming tasks. It scored 83% on IMO exam versus 13% for GPT‑4o Brin Wilson...+13Wikipedia+13AI Business+13.
  • Mini version: smaller, faster, cheaper—good for STEM but with reduced general knowledge depth.
o3 & o3-mini / o3-mini-high
  • Released in 2025, o3 is the improved reasoning model surpassing o1 in benchmarks across math, software engineering, abstraction/generalization tasks Wikipedia+6Wikipedia+6Reddit+6.
  • Mini variants:
    • o3-mini: fast, structured thinking for data‑analysis, summarization.
    • o3-mini-high: “fastest at advanced reasoning” label—does more reasoning per token for higher logical accuracy, but remains snappy Wikipedia+2Brin Wilson...+2Brin Wilson....
o4-mini / o4-mini-high
  • Introduced April 2025. Smaller yet even more efficient. Supports text and images and chain-of-thought reasoning.
  • o4‑mini‑high does more advanced reasoning faster than o3-mini, ideal when both speed and accuracy matter RedditWikipedia+14Wikipedia+14Wikipedia+14.
✅ Quick Use Guide

Task TypeRecommended ModelFast, typical chat or casual Q&AGPT‑4o MiniRich, multimodal interactionGPT‑4oFormal reports, structured writingGPT‑4 / GPT‑4.1Complex reasoning (science, code, logic)o1 or o1‑miniFaster structured reasoningo3‑miniThe fastest yet capable reasoningo3‑mini‑high or o4‑mini‑high
Ik heb overigens precies dezelfde zienswijze al jou, chatgpt, diffusion, llm's, etc zijn allemaal gereedschappen met voordelen, nadelen en dingen waar ze wel goed in zijn en niet goed in zijn.
Gpt5 zou hier vooral verbetering in moeten hebben.
Hier een wiskunde argument: het maken van een keuze tussen modellen voegt informatie toe aan het systeem als geheel, waar je in principe statistische kracht uit kunt halen.

Het 'no free lunch' theorem is grofweg het omgekeerde daarvan: er kan geen algoritme bestaan dat altijd optimaal werkt (afhankelijk van enkele condities).

Er zit zeker nog wel groeicapaciteit in de modellen/tools, want er is nog wel ongebruikte data, optimaliseringsalgoritmen worden beter, meer trucs om nog informatie uit dezelfde data te halen, etc. Er zal echter altijd veel keuzeruimte blijven.
Geef het tijd, Word kon ook niet alles na 3 jaar van ontwikkelingen. We zijn daar al 20 jaar verder en sommige dingen zijn nog steeds kut :))
Word is van Microsoft.

Dan weet je genoeg.

Maarja als je alles in 1 keer oplost dan valt er niks meer te verdienen.
Het is best interessant om de output van chatgpt weer als input te gebruiken in bijv. gemini en visa versa.
Dit. Ik heb ondertussen zoveel apps en AI’s, ze hebben allemaal hun plus- en minpunten. Maar vooral: ik voel nog geen behoefte om te betalen. Want dan wissel je weer.

Er is te veel keuze. Dat zelfde gebeurde al eerder bij appstores. Zoveel nieuwe ontwikkelaars die (bijvoorbeeld) hun take voor een reminder app maken. En het zijn er zo veel met vooral gebreken dat je amper een keuze kan maken.

Terug naar AI, ik weet gewoon te weinig om ook een goede keuze te maken. De een zegt wat anders dan de andere. En ik heb geen idee welk model ik nu waar voor moet gebruiken…
Ik zou graag willen betalen, maar vervolgens denk ik, ChatGPT is niet de enige AI tool die ik gebruik. Google Gemini heeft soms ook hele goede antwoorden in vergelijking met bovenstaande. Maar dan heb ik een Tesla en die kan (hopelijk) binnenkort ook gebruik maken van Grok... enzovoort..
Mja, zelfs CoPilot maakt nog fouten als je het vraagt om een Excel-formule te schrijven.


En dan heb ik het niet over dat je als gebruiker onduidelijk bent, maar dat het antwoord niet-bestaande formules bevat. Die lijken dan, als je gaat googlen, slecht vertaald te zijn uit (bijvoorbeeld) de Duitse Excel of een hele andere spreadsheet.
Copilot in excel is gewoon GPT-4o trouwens, met wat automatische grounding.
Ah, weer die beruchte Thee-set. Kwam die van marktplaats, of misschien toch van Temu? xD
Van Mistress Mihaela in Revendreth of Darvel the Frugal in Oribos.
Sinvyr Tea Set.

[Reactie gewijzigd door Armselig op 6 augustus 2025 22:36]

Ik werd ook even op het verkeerde been gezet door de aankondiging van die teaset.
Tja, ze blijven het gebruiken, ondanks aangedragen alternatieven in het Nederlands, zoals "plaagt ons"
Product benaming totaal fail
Hoewel AI een hele handige hulp is met coding kom ik met de nieuwste en beste modellen toch heel vaak onzin implementaties tegen. Claude sonnet max die ineens niet snapt dat ik eigenlijk twee unsorted lists had in HTML ipv één en ging allerlei moeilijke CSS oplossingen bedenken. Of dat hij de default state van een uitklapmenuutje ineens niet kon veranderen. Hele rare simpele dingen die ineens helemaal mis gaan.

Ik heb nu een aardig project laten maken door background agents in Cursor. Heb nog niet gecheckt maar ben erg benieuwd of de 14.000 regels code werken :D
Zou fijn zijn als jullie een link plaatsen naar de aankondiging / tease nu moet ik het zelf gaan google.
Binnen de programmeerervaring merk ik een 'generatie'kloof; pré-AI en post-AI.
Pré-AI; programmeurs die zélf op zoek gaan om iets werkende te krijgen; Post-AI, 'programmeurs' die alles proberen op te lossen door ai, waarbij ik zeg: 'ai-ai!'.
Kwaliteit vd code is bij programmeurs sindsdien FORS op achteruit gegaan en daarom boeit AI me totaal niet bij het programmeren; ik moet tevéél tijd steken om de code van AI écht werkende te krijgen; tijd die ik beter zélf kan investeren om het zélf uit te werken én ik leer er zélf méér van bij dan van 'AI', IMHO 'opgeklopte $HIT' en deze technologie zou dan dé TOEKOMST worden FCOL?! Idd, TOEKOMST-muziek }>

Op dit item kan niet meer gereageerd worden.