Door Jasper Bakker

Nieuwsredacteur

AI‑video blijkt te duur om te bestaan: waarom OpenAI stopt met Sora

25-03-2026 • 17:00

68

Doek valt voor energievretend AI-videoapp Sora van miljarden verbrandend OpenAI

Het zat er in oktober vorig jaar al een beetje aan te komen. OpenAI beloofde toen aanpassingen aan zijn AI-videogenerator Sora 2 'om rechtenschendingen te voorkomen'. Terwijl dat in gebruik juist de killerapp leek te zijn. Nu valt het doek voor Sora 2, wat OpenAI dagelijks miljoenen dollars kost en waarvoor een duidelijk verdienmodel ontbreekt.

Eind september 2025 beloofde ChatGPT‑maker OpenAI een nieuwe revolutie met een AI‑toepassing. Het toen debuterende Sora 2 was het 'nieuwste AI-model voor het genereren van video's'. Het gehypte bedrijf presenteerde dit vlaggenschipmodel voor het maken van video en audio als 'fysiek nauwkeuriger, realistischer en beter controleerbaar dan eerdere systemen'.

Cowboy rijdend op paard op paard, AI-video van Sora 2 (bron: OpenAI)
Cowboy rijdend op paard op paard, AI-video van Sora 2. Bron: OpenAI

Na het debuut van Sora 1 in februari 2024 moest deze nieuwe generatie een sprong vooruit bieden die volgens OpenAI vergelijkbaar was met het verschil tussen AI‑model GPT‑1 uit 2018 en GPT‑3.5 uit 2022. Technisch gezien maakte Sora 2 dit misschien wel waar, maar dat maakt nu niet meer uit. Het doek valt nu voor deze AI-videogenerator. OpenAI trekt de stekker uit zowel de app als de api voor Sora 2.

Het bedrijf dat verwikkeld is in miljardendeals en ‑investeringen maakt officieel niet bekend waarom het nu stopt met deze veelbelovende AI‑toepassing. De abruptheid van deze beslissing en de geslotenheid van OpenAI geven in combinatie met bekende feiten wel wat weg. Energieverbruik, rekencapaciteit, rechtenkwesties, verdienmodellen en investeringsbehoeften zijn factoren die hier ongetwijfeld meespelen.

Mickey, Mario en Brad Pitt?

Daarbij spelen Mickey Mouse, Mario en andere bekende fictieve personages belangrijke rollen. Mogelijk hebben acteurs Brad Pitt en Tom Cruise ook een bijrol. De twee menselijke acteurs stonden vorige maand in de schijnwerpers door een AI‑deepfakevideo gemaakt met Seedance 2.0 van TikTok‑moederbedrijf ByteDance. Filmmaatschappij Paramount en mediaconcern Disney eisten direct een einde aan deze AI-videogeneratie. Waarna ByteDance hier gehoor aan lijkt te hebben geven.

Opvallend genoeg had Disney in december een driejarige licentiedeal gesloten met OpenAI voor AI-video. Meer dan 200 personages van de Amerikaanse entertainmentgigant zouden beschikbaar komen in Sora. Dit omvatte figuren van Disney, Marvel, Pixar en Star Wars, plus kostuums, voertuigen, omgevingen en voorwerpen uit franchises van het concern. Volgens de overeenkomst zou Disney 1 miljard dollar investeren in OpenAI en kreeg het de optie om een groter belang in de AI‑maker te kopen.

Exquisite Gaming Mickey Mouse
Mickey Mouse. Bron: Exquisite Gaming

Deze hele deal is nu van de baan. Disney had nog geen geld in OpenAI gestoken, meldt Reuters. Daarmee lijkt ook deze AI-deal eerder een intentieverklaring of voorbereiding op een latere kapitaalinjectie te zijn geweest. Disney was volgens de bronnen van Reuters verrast door het stopzetten van Sora 2. Het bedrijf verklaart openlijk zich neer te leggen bij het besluit van OpenAI om zijn prioriteiten te verleggen.

Mickey is niet de enige betrokken fictieve figuur. Sora 2 stuitte in Japan al op tegenstand. Een groep Japanse uitgevers en de Japanse overheid eisten dat OpenAI stopte met gebruik van auteursrechtelijk beschermd materiaal. Bekende namen als Studio Ghibli, Square Enix en Bandai Namco zagen misbruik van hun werk in de outputmogelijkheden van de AI-videogenerator. Gamereus Nintendo was niet direct betrokken, maar stelde dat het altijd stappen zet tegen inbreuk op zijn intellectuele eigendomsrechten.

Vage beloftes en vage deals

Vlak voor deze openlijke druk vanuit Japan deed OpenAI een belofte om intellectueel eigendom te respecteren. In oktober kondigde het bedrijf aanpassingen van Sora 2 aan die rechtenschendingen moeten tegengaan. Ceo Sam Altman beloofde rechtenhouders daarbij zeer gedetailleerde controle over de creatie van hun personages. Daarnaast hield hij een mogelijke omzetdeling in het vooruitzicht.

Altmans aanbod van financiële compensatie leek daarbij nogal een lokkertje. De hoogste baas van OpenAI had het over een niet nader gespecificeerde manier om geld te verdienen aan AI‑video's. Daarbij had de AI‑verkopende ceo het over de waarde die fanfictie kan hebben voor rechtenhoudende bedrijven.

OpenAI-ceo Sam Altman (beeld: OpenAI)
OpenAI-ceo Sam Altman. Bron: OpenAI

Altmans vage boodschap met hoop op toekomstige inkomsten is exemplarisch voor de huidige hype rond generatieve AI zoals OpenAI biedt. Killerapps lijken in gebruik wel te bestaan, maar zonder duidelijk perspectief op het terugverdienen van de torenhoge kosten voor het trainen, tweaken en draaien van AI‑toepassingen.

Torenhoge kosten

De ontwikkeling van GPT‑5, wat gebruikers nogal teleurstelde, en Sora 2 zou OpenAI 6,7 miljard dollar hebben gekost. Dat bedrag was 150 procent van de omzet (4,3 miljard dollar) die het bedrijf in de eerste helft van 2025 boekte. Het genereren van video's door Sora 2 zou OpenAI minstens 5 dollar per stuk kosten, becijferde AI-criticus Ed Zitron begin oktober. Volgens schattingen van zakenblad Forbes kost het draaien van Sora 2 ongeveer 15 miljoen dollar per dag.

OpenAI beperkte eind november nog het gratis gebruik van zijn AI‑videomaker. Niet‑betalende gebruikers konden maximaal zes video's per dag genereren. Mensen die meer nodig hebben, moesten daarvoor betalen. Het valt te betwijfelen of betalende klanten genoeg opleveren om de enorme operationele kosten voor Sora 2 te blijven dragen. Tegelijkertijd lijdt OpenAI al miljardenverliezen en zoekt het zijn toevlucht in advertenties.

Flinke milieuimpact

Bovenop de puur financiële kosten van Sora 2 komen nog andere kosten. Elke 10 seconden aan AI‑video die deze OpenAI‑toepassing genereert, kost volgens schattingen van Reclaimed bijna 1 kilowattuur aan energie plus iets meer dan 4 liter water en het levert een uitstoot van 466 gram koolstofdioxide op. Deze milieukosten vertalen zich ook weer in geld. OpenAI sloot in oktober een deal voor toekomstige AI-rekencapaciteit met een energiecapaciteit van 10 gigawatt. Dit door het enorme energieverbruik van Sora 2 en ChatGPT, meldde CNN.

AI‑videogeneratie vormt een veel hogere kostenpost dan simpelweg AI‑gegenereerde tekst, afbeeldingen of softwarecode. 'Video killed the energy budget', concludeerden onderzoekers van AI-platform Hugging Face in een paper van eind september. Daarbij is er geen sprake van lineair schalen, dus meer minuten AI-video kosten veel meer energie.

Datacenter. Bron: Erik Isakson/DigitalVision/Getty Images
Datacenter. Bron: Erik Isakson/DigitalVision/Getty Images

Eigenlijk was het vóór de komst van Sora 2 al zichtbaar dat de energiekosten een onhoudbaar verhaal waren. Het gerenommeerde MIT Technology Review publiceerde in mei vorig jaar een uitgebreide analyse van de milieu-impact die AI door energieverbruik heeft. Videogeneratie sprong erbovenuit, terwijl dat toen nog relatief primitief was.

OpenAI in spagaat

OpenAI bevond zich met zijn technisch succesvolle Sora 2 dus in een spagaat. Tegenover de dreiging van rechtszaken over rechtenschendingen en – al dan niet opgelegde – compensatie staat het probleem van kosten en inkomsten. Kosten waren hoger en zouden niet snel lager worden. Inkomsten waren er nauwelijks en zicht op betekenisvolle groei daarvan leek er niet te zijn.

Binnen OpenAI leefden volgens Reuters al zorgen over de torenhoge kosten van Sora 2 én over gebrek aan rekencapaciteit voor andere AI‑teams en ‑toepassingen. Sora 2 zou te veel geld kosten en te veel capaciteit vergen. Het gehypte AI‑bedrijf lijkt dus een nuchtere, traditionele zakelijke beslissing te hebben genomen.

Redactie: Jasper Bakker • Eindredactie: Monique van den Boomen

Sora OpenAI stock. Bron: Jonathan Raa/NurPhoto/Getty Images
Sora OpenAI. Bron: Jonathan Raa/NurPhoto/Getty Images

Reacties (68)

Sorteer op:

Weergave:

Als Sora 2 daadwerkelijk zó duur is om te draaien, miljoenen per dag, hoge energie-, water- en compute-kosten, hoe kan het dan dat andere partijen vergelijkbare modellen wél veel goedkoper aanbieden? Of in ieder geval doen alsof?

Dus... Of OpenAI is extreem inefficiënt, wat onwaarschijnlijk is gezien hun schaal en toegang tot kapitaal en infrastructuur. Of de werkelijke kosten van dit soort modellen liggen structureel hoog, en worden elders (deels) verborgen, gesubsidieerd, of vooruitgeschoven in de tijd.

Dus de prijs die (financieel en ecologisch) betaald wordt staan los van de werkelijke impact?

Als de onderliggende compute en energiebehoefte vergelijkbaar is tussen aanbieders, en daar is weinig reden om aan te nemen dat dat fundamenteel anders is, dan mogen we ervan uitgaan dat de milieu-impact per gegenereerde video ook in dezelfde orde van grootte ligt.

Dan hebben we het dus over een sector die:
- extreem snel groeit
- structureel energie-intensief is
- waarvan de uitstoot voorlopig eerder stijgt dan daalt

Dat is, in de context van de klimaatproblematiek waar we al middenin zitten, op zijn minst zorgwekkend.

Sterker nog, het begint te voelen als een vorm van self-destructing gedrag op systeemniveau. We bouwen technologie die steeds meer waarde claimt te creëren, terwijl de verborgen kosten, financieel én ecologisch, exponentieel meeschalen.

Anyway. Just my 2 cents
Het is gewoon race to the bottom: als X iets goedkoper aanbied, dan gaan alle gebruikers daarnaartoe en dat trekt weer investors aan die met durfkapitaal de zooi in de lucht houden.
Dit telt ook voor textuele AI: openAI en alle andere partijen bieden het aan voor veel minder dan het ze kost, puur omdat ze niet anders kunnen: prijs omhoog en dan gaat iedereen oppeens bij de buurman kijken.

En op gegeven moment moet er toch geld in het hele diepe laatje komen dus dan krijgen we de leuke 'enshittification' waar iedereen altijd over zeurt, nadeel is dat het alternatief bestaat uit 3x meer betalen wat niemand er meer voor over heeft nu we 'gewend' zijn aan de too-good-to-be-true prijzen.
Het hangt er wel heel erg van af over welk land je het hebt. De meest directe concurrent van Sora 2 op dit moment is Seedance 2.0 van ByteDance, het bedrijf achter TikTok. En daar liggen de spelregels fundamenteel anders: stroomkosten voor industrieel gebruik in China zijn fors gesubsidieerd, zeker in regio's met veel waterkracht. Bovenop dat energievoordeel worden AI-bedrijven er actief gesponsord door de overheid, puur met als doel om wereldleider te worden. Dat vertaalt zich in lagere operationele kosten die je in het Westen simpelweg niet kunt evenaren. Dus de "goedkopere alternatieven" zijn in veel gevallen geen teken van efficiëntie, maar van structureel andere kostenmodellen en deels verborgen subsidies aan de andere kant van de wereld.
Mwah... Misschien vergeet je nu even hoeveel nulletjes er rond geschoven worden bij de bedragen die er in AI en bioscoop films gestopt worden: Alphabet, Amazon, Meta en Microsoft) hebben samen naar schatting 650 miljard dollar op tafel gelegd voor AI-investeringen, kennelijk goed voor 130 miljard videootjes. Stel dat elke video 5 minuten duurt, hebben we dan weer 650 miljard minuten of ongeveer 1,2 miljoen jaar aan videos... Het merendeel van het geld gaat natuurlijk naar andere, hopelijk zinvollere doelen, maar dan nog...

Het probleem bij zowel staatssubsidies of krankzinnige investeringen is dat het vroeg of laat wel geld moet opleveren, dus even checken: de gemiddelde bioscoopfilm duurt 2,5 uur en kost 1,8 miljoen Euro, maar zou met AI op basis van mijn schatting dat een 5 minuten durende video 5€ dan maar 150€ kosten: duidelijk goedkoper dus.
Over die kosten. In het artikel staat
Daarbij is er geen sprake van lineair schalen, dus meer minuten AI-video kosten veel meer energie.
Er is sprake van een kwadratisch verband (als ik het goed zeg), 10 seconden video kost bijna 1 kWh, 20 seconden video gaat naar de 4 kWh en 40 seconden dan naar de 8 kWh.

Daarnaast zit er ook trial-and-error in het proces, want je wilt na een eerste versie ook nog weer details aanpassen. Zo kan je makkelijk 4 verschillende versies verder zijn tot je het gewenste resultaat hebt. Net als bij de traditionele manier van filmen eigenlijk, er worden tientallen uren gefilmd waarvan wij uiteindelijk maar 90 minuten te zien krijgen.
Ah... ik heb dat ook gelezen... maar kan het moeilijk begrijpen. Als je eenmaal een character hebt gegenereerd naar wens, zou het toch mogelijk moeten zijn dat character te laten bewegen met minder moeite? Als je eenmaal een scene van een "kasteel in de bergen" hebt kan je het toch van alle kanten bekijken terwijl de characters langzaam dichter bij komen?
Dan denk ik niet dat je snapt hoe het werkt. Het is niet alleen het karakter genereren, waarschijnlijk kost dat de minste energie. Het moeilijkste is om de video consistent te houden, ervoor zorgen dat alles blijft kloppen, kortom hij moet die eerste beelden in detail vasthouden en dat ook gebruiken om de volgende beelden te genereren. Dus moet meer beelden er al zijn gegenereerd, hoe meer informatie er is om rekening mee te houden en daar een vervolg op maken dat kost dus de energie (en ook het geheugengebruik is dan behoorlijk hoog)
OK, maar dat lijkt me dan een behoorlijk inefficiënte werkwijze!
Als je een ding genereert moet het een compleet 3D ding zijn met materiaaleigenschappen, structuren enz. dat dan vervolgens op alle mogelijke manieren bekeken kan worden, net als in een game. Ja, is aanvankelijk meer werk, maar daarna kan je er veel meer mee. Als je probeert elk beeld te genereren, rekening houdend met wat ervoor kwam, dan ga je inderdaad kwadratisch o.i.d. in inspanning omhoog, maar dat is een werkwijze die extreem onvoordelig wordt als je wat groters wilt maken.
Inclusief dit komende jaar is de verwachting dat er ongeveer 2,5 biljoen dollars in AI geinvesteerd zal zijn.
Meeste investeerders vinden 12% rendement op jaar basis nog matig.

12% van 2,5 biljoen = 300 miljard.
Alleen al dit zou per persoon op deze aardbol (incl baby's etc) per jaar 36 euro zijn. Maar goed dit is alleen nog maar de winst voor de investeerders.
Dan komen er op z'n minst ook nog de operationele kosten bij.

Volgens Gartner wordt verwacht dat er dit jaar 1,5 biljoen aan operationele kosten worden voor AI worden gemaakt.
Daarmee kom je uit op ongeveer 180 dollar per aardbewoner.

Kortom iedere aardbewoner moet minimaal zo'n 200 dollar per jaar opleveren om een beetje in de buurt van break-even te komen. En baby's en bejaarden zullen ook een stuk minder bijdragen.
En afschrijving van hardware e.d. zit hier ook nog niet bij.

Niet erg realistisch dus.
Het zal dan ook eerder het veelvoudige van 200 moeten zijn om het commercieel haalbaar te maken.

[Reactie gewijzigd door JustVodka op 26 maart 2026 17:34]

Nou ja, wat geven we nu uit aan videos kijken, naar de bioscoop gaan enzovoort? Zo onrealistisch is 200$/jaar dan ook weer niet, en door technische vooruitgang worden die bedragen elk jaar minder, lijkt me geen NoGo criterium. Met de juridische auteursrechtelijke problemen wordt het dan momentaan wel onhaalbaar, maar niet zozeer door de pure kosten.
Maar zoals je al kan lezen dat we er met die 200 per persoon zeker nog niet zijn.. Dat is alleen break-even voor de opex en magere 12% investerings winst.
Afschrijving van hardware e.d. zit er ook nog niet bij. winst van bedrijven ook niet.
En niet iedere baby en bejaarde zal er ook aan bijdragen. Dus ga er maar vanuit dat het het veelvoudige moet zijn.
Of OpenAI is extreem inefficiënt, wat onwaarschijnlijk is gezien hun schaal en toegang tot kapitaal en infrastructuur.
Met hun toegang tot miljarden aan investeringen hebben ze zeker de mogelijkheid in te zetten op efficiëntie, maar niet per se de motivatie om dat te doen. Met zoveel geld is het makkelijker om extra servers in te zetten dan om de modellen efficiënter te maken. Voor het beperken van hun verlies zou het natuurlijk wel goed zijn om meer te mikken op efficiëntie.

VS kiest brute rekenkracht, China noodgedwongen efficiëntie: de AI-kloof groeit
De doorbraak van DeepSeek R1 was dat het te bouwen was met aanzienlijk minder middelen dan OpenAI nodig had gehad.
Als ze spreken over 4L waterverbruik voor 10 seconden video: is dit drinkwater dat nadien als afvalwater is te beschouwen? Of zijn dat closed loop water cooling systemen, en wordt het water niet echt 'opgebruikt'?

Want als dat puur verbruik van drinkwater is, is dit in de verste verte niet te verantwoorden.
Daadwerkelijk verbruik: https://www.drinkwaterplatform.nl/datacenters-drinkwater-hoe-zit-dat-in-nederland/

De huidige datacenters in Nederland verbruiken zo'n 1 miljoen kuub water per jaar (ofwel 400 olympische zwembaden in freedom units)

[Reactie gewijzigd door pagani op 25 maart 2026 17:23]

Als ik het goed berekend heb verbruikt biefstuk ongeveer 135 miljoen kuub leidingwater per jaar?
15 kilo per persoon met een verbruik van 500liter water per kilo biefstuk.

15 x 18000000 x 500 = 135 miljard liter

Water: https://stichtingagrifacts.nl/wp-content/uploads/2021/04/kilo-rundvlees-kost-geen-15.000-liter-water.pdf

Consumptie: https://wakkerdier.nl/app/uploads/2025/10/16151345/Wakker-Dier-2025-WSER-vleesconsumptie-2005-2024.pdf

Ik maak me overigens meer zorgen over het energieverbruik van datacenters
En zelfs die 350-700 liter bronwater per kg vlees is een nogal wild getal. In de eerste plaats is elk weldenkend mens al kritisch bij het horen van 15000 liter per kg. Als dat dus regenwater blijkt, dan voelt men zich gefopt. Daarna verdwijnt dus elk 500 liter argument direct dankzij het boy cried wolf argument.

Het datacenter waterverbruik daarentegen heeft nog een klein addertje onder het gras en dat is de toevoeging van diverse chemicalien om alggroei en andere dingen te voorkomen. Die chemicalien komen dus uiteindelijk in het milieu terecht, maar net als PFAS valt het binnen de vergunning, dus het is wel goed.

Waarom moeten datacenters van MS en Meta zo nodig zoveel water verbruiken? Alle datacenter van normaal formaat doen het prima in een closed loop systeem. Ik krijg snel het gevoel van snel, goedkoop en vies.
Daarbij is dat de schuld van nl zelf, wij leveren alleen kraanwater en geen halffabrikaat.

Kraanwater is niet nodig maar als dat het enige is wat er geleverd kan worden
Huh? Volgens mijn heb je best sterk gereinigd water nodig anders krijg je snel problemen met verstoppingen enzo. Vooral bij de directe koeling.
nee dat is closed loop,

Het DC water word via warmte wisselaar gekoeld met leiding water wat in een groot gedeelte van de wereld gebeurd met half fabrikaat, en gaat dan naar basins voor afkoelen en kan dan weer of opnieuwed gebruikt worden of geloosd worden.

De kwaliteit van half fabrikaat water in NL is vaak al hoger dan drink water in diverse landen.
In een land waar te weinig regen valt volgens de watermaatschappijen en we de bodem leegtrekken en boeren in de zomer niet meer mogen sproeien is dat toch wel een dingetje. Alle "kleine" beetjes tellen mee.

We hebben gewoon niet voorbereid op deze situatie en het zoetwater stroomt ons zo voorbij de zee in. uiterwaarden zijn volgebouwd dus die kunnen we niet meer vol laten lopen voor extra water opslag. :(
Even voor context, een film frame render door pixar zit tussen de 7-30 uur per beeldje dus…
Sora is dus orders van magnitude efficienter per gegenereerde pixel.
(En dat geldt voor andere vfx films ook meestal 4-12 uur per frame maar dat heeft meerdere lagen, en men doet vele renders en kiest dan de beste)

Probleem is de controle mechanismes,
“An image is worth a thousand words and a video is hundreds or thousands of images”

Kortom je wil een 3d scene als input welke je kan animeren bijv, of tekenen op het beeld als
Correctie, niet “draai het paard 2.46 graden linksom and beweeg hem 0.231m naar rechts relatief van de camera

[Reactie gewijzigd door freaq op 25 maart 2026 17:40]

Efficienter in tijd wellicht, maar Pixar heeft niet de gigantische rekencapaciteit van OpenAI (hoewel ze daar ook genoeg speelgoed hebben).
Daarnaast verdient Pixar prima geld met hun animaties, dus wat dat betreft kan OpenAI er nog wat van leren.
Ook Efficienter in KWh per gerendered frame

OpenAI heeft iets meer users dan pixars renderfarm he dus we moeten even normalizen naar usage.

Het is grofweg een paar minuten voor een clip van 10 seconden met sora, waar voor pixar een week zou rekenen met meerdere servers.
Dus ja dat is een mega verschil.

[Reactie gewijzigd door freaq op 25 maart 2026 22:46]

Lees hoofdstuk 2 in het artikel gelinkte artikel gelinkte rapport : https://arxiv.org/pdf/2304.03271

Daar zet de onderzoeker uiteen wat er verstaan wordt onder wateronttrekking en waterverbruik.
Dit verschilt per locatie/datacenter, meeste indien mogelijk gebruiken "non potable" water, wat idd gewoon verdampt / 'weg' is, maar er zijn locaties waar dat ook gewoon niet zo is en het wel kostbaar water gebruikt.

Hier is wat info te vinden: https://www.reddit.com/r/explainlikeimfive/comments/yzlsoj/eli5_why_do_datacenters_continuously_use_more/ix2e6u1/
Er zijn in de VS al dorpen waar door datacenters mensen soms geen kraanwater hebben. Is de waterdruk gewoon helemaal weg.

Scheelt dat we hier nog enigszins beschermd worden tegen bedrijven die schijt hebben aan mensen.
AI kan best handig zijn maar dat gedoe met fake foto's en filmpjes mag van mij best wel van het toneel verdwijnen, ik zie steeds meer shit voorbij komen en hordes aan mensen die het ook nog geloven...
Dat kan je wel vergeten:

Van de AI (want ik ben geen video AI gebruiker) als ik vraag om open source ai video generators.

Wan 2.2, LTX-2, and CogVideoX are currently the top open-source AI video generators, offering cinematic quality, text-to-video, and image-to-video capabilities. These models can be run locally for free on powerful GPUs (e.g., Nvidia 4090) to ensure privacy, or utilized on cloud platforms like Pinokio, fall.ai, or nim.video. 

Iedereen met een 4090 kan iets maken. De geest is uit de fles.
De geest is misschien wel uit de fles, maar als die de wensen maar half kan vervullen is er niks aan de hand.

Een student van mij heeft kortgeleden testen gedaan met dit soort Open-Source modellen. De resultaten waren best amusant en we hebben goed gelachen. Gelachen omdat de resultaten echt bizar waren. Niet "Will Smith eating spaghetti" bizar, maar toch bizar genoeg.

Als we vroegen naar "een persoon die aan het wandelen is en struikelt" (uitgebreidere prompt in realiteit), kregen we bijvoorbeeld videos van personen die wandelden en zich dan neerzetten op de grond, of personen die tijdens het wandelen als een raggdoll in elkaar stuikten (zoals bij oudere game physics). Niks leek ook maar op struikelen.

Ik zeg niet dat het in de toekomst niks wordt, maar momenteel zijn die modellen veel te klein en op veel te weinig data getraind om er complexere en geloofwaardige zaken mee te doen. Het pannen van een camera voor een persoon wilt nog best goed lukken.

Als de grote bedrijven ermee stoppen maak ik me - voorlopig - dus niet al te veel zorgen over deze geest.
Het ontwikkeld harder dan je denkt en dat waren de open source modellen. De commerciële modellen zijn er ook nog. Niet van openai. Maar de Chinezen en zo maken ook van alles. Het punt was met dat je deze ontwikkeling niet stopt, op zijn hoogst vertraagd.

En sora had ook genoeg issues, dat is niet uniek aan open source modellen. Ik vind dat die het nog goed doen als je kijkt hoeveel geld openai tegen het probleem aan kan gooien en met welk resultaat
Voor een RTX4090 ben je €2000 euro kwijt, volgens mij gaat dat wel meevallen. Ease-of-access maakt een hoop verschil wat betreft hoeveel mensen het zullen gebruiken.
Even 2000 euro en dan heb je pas een kaart met 24GB waar je eigenlijk voor een high end model 40GB nodig hebt. Ik denk niet dat de meeste mensen dat vinden meevallen. Daar kon je een tijdje geleden 2 kaarten minstens voor krijgen.
Helaas kan je de kat niet terug in de zak steken. Dat OpenAI er mee stopt betekend niet dat dit soort misleidende content niet gewoon door anderen zal blijven gemaakt en gepubliceerd worden.
Dat is waar maar als de kosten die de gebruiker moet betalen in lijn gaat liggen met de werkelijke kosten, dan zullen er in ieder geval heel wat minder mensen gebruik van gaan maken. Tot nu toe kun je zeggen dat het maken van AI-filmpjes (deels) gesponsord wordt/werd door AI-bedrijven.
Thuis is het prima zelf te doen. Zeker als je al een mooi systeem hebt staan is het vrij simpel en kosten effectief. En dat gaat alleen maar sneller worden en beter ondanks dat een OpenAI stopt met sora.
Ik denk niet dat het publiek voor AI slop filmpjes snel een systeem in huis gaat halen waar je dat lokaal op kunt doen en vervolgens zelf AI modellen gaat installeren en configureren en alles wat daarbij hoort. Om vervolgens uren op het resultaat te gaan wachten, en voor wat? Heel het idee achter Sora was dat je in 5 minuten een leuk filmpje uit de black box kon trekken en delen, niet om iedereen een potentiële AI regisseur te maken.
Ik denk dat je niet op de hoogte bent. Tegenwoordig heb je prima animaties en filmpjes van 15 seconde met een 5080 binnen 4 minuten. En met wat add-ons kun je zo filmpjes maken die veel langer duren, en hoger in kwaliteit zijn (wat je zelf kunt bepalen).
Ik ben inderdaad niet op de hoogte van wat er precies wel of niet lokaal kan en hoe lang of hoe goed dat is. Maar je mist mijn punt, dat is dat buiten een een paar hobbyisten die het leuk vinden om met dat soort dingen te klooien echt helemaal niemand dit thuis gaat doen. Heel het idee van zulke filmpjes maken is dat je het spontaan kunt doen zonder dure apparatuur of software die je moet installeren en configureren, en het dan direct kunt delen en je vrienden dan zelf daar weer filmpjes op kunnen maken als reactie etc. En zelfs met die lage drempel is er blijkbaar niemand echt in geïnteresseerd blijkt nu. Dus zelf lokaal slop filmpjes maken en bekijken is al helemaal niet iets waar veel mensen op zitten te wachten
Er is natuurlijk een verschil in waartoe een consument in staat is met een hele dikke setup en iemand die even vlug aan de AI op zijn telefoon vraagt om een filmpje over XYZ te genereren.
Er zijn al plannen dat div online media AI zou moeten herkennen en aangeven. . Je kunt ook denken aan een verplichte watermerk vanuit de foto/video generator oid.
Er is ook genoeg content tegenwoordig wat niet eens van het echt te onderscheiden is. En dan is het niet zo raar dat men het geloofd.
Het heeft zoveel potentie, maar de mens is gewoon verrot en de hoeveelheid rekenkracht en daarmee energie en infrastructuur dat benodigd is, is immens.
We hebben op het werk sinds kort nieuwe laptops, deze hebben een 'neural processing unit' NPU.

Echter staat deze altijd op 0%, want de enige AI die we gebruiken zit in de cloud ...
... toch lijkt het mij logisch als we meer lokale AI gaan draaien.

En dan niet een model wat 'alles' probeert te doen, maar specifieke modellen per taak.
Een model hoeft niet én alles te kunnen vertalen én achtergrond verwijderen uit een afbeelding, dat mogen best twee afzonderlijke AI 'scripts' zijn.

Dan kan iedereen lokaal de specifieke AI tools gebruiken die hij/zij nodig heeft en is het wellicht een stuk minder milieubelastend?
Die NPU's zijn leuk om snel en energiezuinig dingen te doen met een relatief klein model, bijvoorbeeld om snel je foto's wat te verbeteren of je invoer te controleren. Ze zijn niet zo geschikt voor grotere modellen. Die draaien vaak al beter op je (geintegreerde) GPU of zelfs CPU. Vandaar dat je ze ook vooral vind in laptops.
Ja, maar daarom snap ik de focus op grote (onzuinige) modellen niet als taak-specifieke modellen veel zuiniger en makkelijk lokaal te draaien zijn.
Zuiniger, kleinst, maar ook veel slechter.

Neem programmeren, dat is een heel divers gebied waar je van alles bij elkaar brengt. Een kleine ai is gewoon veel slechter. En dat is zelfs waar voor de kleine modelletjes die een npu kunnen gebruiken.

Het nut van een llm schaalt met de grootte. Met omdat te ondervangen hebben ze al moe. Multiple of Experts. Dan zijn er meerdere kleinere modellen, maar samen hebben ze nog steeds de volle bak nodig om te werken.
Zover ik kan bepalen ben je correct. Als iedereen gewoon een model lokaal op een gpu zou draaien wanneer ze het nodig hebben zou dat voordeel opleveren. En voor achtergrond taken, maakt een beetje langzamer niet uit.

Als je energie van de zon komt, kan je overdag gratis draaien. En groen ook.

Maar de commerciële partijen, augment code, GitHub copilot etc zijn veel meer dan een model. De tooling om het model heen is wat het krachtig maakt en dat heb je niet zo maar even lokaal.

Je moet je volgens mij ook niet te veel voorstellen van die npu's. Lijken niet nuttig voor erg veel.
Maar de commerciële partijen, augment code, GitHub copilot etc zijn veel meer dan een model. De tooling om het model heen is wat het krachtig maakt en dat heb je niet zo maar even lokaal.
Maar dat is omdat die bedrijven willen dat je cloud gebruikt omdat ze daar geld voor kunnen vragen?

Als dat soort tooling offline beschikbaar komt met offline modellen, zijn zij hun macht kwijt.

Nu cloud AI onder de kostprijs verkocht wordt, is het minder interessant. Maar ik denk dat er genoeg animo is voor opensource A.I, zeker als de prijzen omhoog gaan.
Je moet je volgens mij ook niet te veel voorstellen van die npu's. Lijken niet nuttig voor erg veel.
Het trainen van AI kost toch veel GPU?
Maar het uitvoeren van taak-specifieke AI lijkt mij minder zwaar.

Als je een specifieke model hebt getraind op het vertalen van Engels naar Nederlands en andersom, zou dat een stuk lichter zijn dan de normale modellen die alles moeten kunnen.

Dat je verschillende modellen kunt downloaden als je die nodig hebt of dat ze verwerkt zitten in apps.

Bijvoorbeeld in Excel een AI die formules kan voorstellen, maar die dus niet afbeeldingen hoeft te kunnen bewerken.

Wellicht kan de NPU dan ook beter gebruikt worden.
Tuurlijk maar die tooling is nog niet zomaar even gemaakt. Het duurt wel even nog voor dat dit er allemaal is een tegen die tijd is het online spul ook weer beter. Die online bedrijven kunnen veel meer geld tegen het probleem aangooien.

Wat hardware betreft. Ja trainen is de echte resource vreter, maar buiten dat heeft het model draaien nog steeds veel geheugen nodig en veel processing power. De npu is gewoon niet te vergelijken met de gpu op dat gebied. De npu heeft niet eens dedicated geheugen voor zichzelf. En geheugen bandbreedte is belangrijk voor de snelheid. Een beetje hip model dat kan concurreren met online neemt rustig 40gb of meer video geheugen. En die npu komt niet in de buurt van de rekenkracht van een gpu. Als ze echt nuttig waren had de industrie ze allemaal al opgekocht

Dat maakt de nodige hardware voor thuis nu onbetaalbaar. En dat blijft nog wel even.
De enige nuttige toepassing voor AI-videogeneratie is pr0n volgens mij :+

Maar serieus, ik denk gewoon dat de techniek er nog niet klaar voor is. Zodra de kosten lager worden, wordt het weer interessant.
Vraag me af wat duurder is per minuut om te maken.
Hoeveel minuten heb je nodig?
Ik heb menig AI muziek video langs zien komen, en die zijn vaak best grappig en/of klinken aardig.

YouTube: Shrek - A Vietnam War Fairytale (Music Video Parody)
AI zoals die nu bestaat is sowieso te duur om te bestaan.

Voor €20,- heb je een copilot abonnement waarmee je flinke onkosten maakt op een cloud ergens, geen een van die bedrijven is per gebruiker winstgevend.

De toekomst van AI ligt binnen specifiek getrainde lokale modellen, bijvoorbeeld een lokaal model om achtergronden te verwijderen uit afbeeldingen, zonder cloud.

Of een lokaal model voor vertalen van teksten.

Een AI met een duidelijke taak waarin het geoptimaliseerd en efficiënt kan werken.
Simpel omdat de omzet niet ligt bij hetgeen wat het maakt, de omzet ligt aan het maken van youtube en consorten onzin, 'goedkoper' (men zegt 'efficienter') werk opleveren, self-made bedrijven die borderline ponzi zijn, daar wordt geld gemaakt. Net zoals die gast die duizenden mobiele apps heeft gemaakt, niet voor de apps, maar puur voor de inkomsten uit reclames en MTX.

(ben benieuwd wanneer OF gaat inspringen bij het 'AI' maken van veel content)

[Reactie gewijzigd door SinergyX op 25 maart 2026 17:20]

Ondanks alle ai slop, zie ik wel nuttig gebruik van ai in videos op YouTube, zoals dit bijvoorbeeld:
YouTube: How Vietnamese Tunnels Outsmarted the U.S. Military
De views liegen er ook niet om dat mensen ai "footage" prima vinden.

Maar 10 seconden grappige onzin videos, was even leuk, maar nu is de lol er al weer vanaf.
Dan kijk ik toch liever Fern, Hoog, of Brew, zelfde soort content, wel door mensen gemaakt. Je ziet ook dat het hoge aantal views zich niet vertaald naar subs op het door jou genoemde kanaal, dus mensen vinden het 1x leuk of acceptabel maar blijven niet hangen.

[Reactie gewijzigd door TV_NERD op 25 maart 2026 20:05]

De "Flinke milieuimpact" is gewoon onderdeel van de vooruitgang. In de geschiedenis is duidelijk de trend te zien dat vooruitgang gepaard gaat met meer energiegebruik. Gelukkig doet de markt hier zijn werk. Energie is nog altijd niet gratis, dus kan het voor nu niet uit om op dit pad door te gaan.
tijdelijke teruggang, over een tijd komen er nieuwe videogeneratoren omdat de rekencapaciteit van chips steeds goedkoper wordt.
Eens! Het is een kwestie van tijd, processorkracht en geheugen gerelateerd aan AI, gaan dead cheap worden, geef het een jaar of 2.

Om te kunnen reageren moet je ingelogd zijn