DeepMind Genie 3 kan voor het eerst in real time speelbare 3d-werelden genereren

Google DeepMind onthult het AI-model Genie 3 voor het met prompts genereren van speelbare 3d-werelden. Het nieuwe model kan in een 720p-resolutie speelbare wereld genereren. Gebruikers kunnen in real time in die omgevingen bewegen.

De AI-onderzoekstak van Google laat in verschillende demo's zien hoe Genie 3 speelbare 3d-werelden kan genereren, die door de gebruiker in real time begaanbaar zijn. Dat kan het model voor het eerst in 720p, waar de maximale resolutie tot voor kort 360p was. Daarnaast is er geen vertraging meer; de handelingen van de gebruiker worden in real time verwerkt.

Voor de ondersteuning van real time-inputs is het volgens de onderzoekers belangrijk dat de 3d-wereld consistent blijft. Genie 3 zou een spelwereld 'meerdere minuten' fysiek consistent kunnen houden. Daarna stapelen onjuistheden zich volgens DeepMind op en ontstaat er als het ware onbedoeld een nieuwe spelwereld.

De onderzoekers stellen dat Genie 3 in tegenstelling tot vergelijkbare modellen lang kan 'onthouden' wat er in eerdere frames gegenereerd werd, bijvoorbeeld zodat een plek bij het opnieuw bezoeken nog hetzelfde is of zodat bomen consistent op dezelfde plek in een omgeving staan, ook als deze tijdelijk niet in beeld zijn. Tot voor kort konden Genie 2 en het vergelijkbare GameNGen, dat ook in samenwerking met DeepMind ontwikkeld werd, spelwerelden tot 20 seconden consistent houden.

google deepmind genie 3

Naast navigatie-inputs ondersteunt Genie 3 ook promptinputs die de gegenereerde wereld mogelijk beïnvloeden. DeepMind noemt dit 'promptable world events'. Als voorbeeld tonen de onderzoekers een kanaal, met als optionele worldevents een persoon in een kippenkostuum, een draak en een jetski, die ieder op een andere manier interacteren met de gegenereerde wereld. De speleragent kan op deze manier ook 'geprogrammeerd' worden om bepaalde handelingen te doen, wat contextueel gebeurt op basis van de gegenereerde spelwereld.

Vooralsnog is Genie 3 niet voor consumenten beschikbaar. Volgens het onderzoeksbedrijf is het nog niet duidelijk waar het model precies voor gebruikt zou moeten worden. Een 'kleine groep academici en creators' krijgt toegang tot de technologie om de werking ervan te testen.

Door Yannick Spinner

Redacteur

05-08-2025 • 20:29

91

Submitter: Helium-3

Reacties (91)

Sorteer op:

Weergave:

Na het lezen van het initiële artikel en alle enthousiaste reacties over Genie 3 als 'gaming revolutie' denk ik dat veel mensen de échte betekenis missen. Dit gaat helemaal niet om games.. het is Google's strategische zet richting AGI (Artificial General Intelligence). Genie 3 is geen game-engine, maar een AI-trainingsomgeving generator. Google heeft dit expliciet als 'key stepping stone on the path to AGI' gepositioneerd.

Het doel is oneindige, unieke omgevingen creëren waarin AI-agents kunnen leren; van zelfrijdende auto's tot robots. Traditioneel wordt AI getraind op bestaande data, maar met Genie 3 kan AI worden getraind in het oneindige, nieuwe situaties op commando. In de praktijk kan hiermee een robot 'what if' scenario's oefenen die nog nooit bestonden. De beperkingen die iedereen negeert en anders dan echte games heeft Genie 3 geen persistent geheugen, geen save-functie, geen complexe gameplay. Na enkele minuten 'vergeet' het wat er was, je kunt niet terugkeren naar eerder bezochte plekken en het is meer een 'interactieve film' dan een echte game. Dit maakt het ongeschikt voor traditionele gaming, maar perfect voor AI-training.

De ethische kant is dat Genie 3 is getraind op 30.000 uur YouTube gaming video's, miljoenen Let's Plays, speedruns en walkthroughs. Content creators die jaren geleden video's uploadden, gingen akkoord met 'video delen', niet met 'AI-training data worden'. Het probleem is dat contracten retroactief zijn gewijzigd, creators geen vergoeding voor hun bijdrage aan deze doorbraak krijgen en platforms hun eigen ecosysteem als grondstof gebruiken voor de volgende goudmijn.

De 'Breaking Laws is Profitable' strategie; hier zien we de cynische realiteit van Big Tech. Kosten van overtreden is laat zeggen €5 miljard aan boetes, opbrengst AI-doorbraak €500 miljard+ over 10 jaar, regelovertreding ROI 10.000%. Boetes zijn gebaseerd op 2020-schade, maar betaald met 2030-winsten. Juridische procedures duren 5-10 jaar, terwijl tech-economieën elke 2 jaar verdubbelen. Ik noem maar even wat voorbeelden; Facebook Cambridge Analytica (€5 miljard), Google Android monopolie (€2.4 miljard), Google AdSense (€1.49 miljard). Boetes zijn gebaseerd op oude economieën, maar AI-doorbraken hebben nieuwe winstmarges. Ik zit te denken aan wat dan een goede straf zou zijn.. boete 25-50% jaarlijkse omzet?.. alle illegaal verkregen data deleten?.. alle winst van illegale praktijken afpakken?.. tijdelijk platform stilleggen? In de praktijk zeer waarschijnlijk niet haalbaar.

Ik voorzie een toekomst AI vs AI warfare. Het meest fascinerende is dat deze datasets zo groot zijn dat alleen nog betere AI kan onderzoeken welke data precies is gebruikt. Straks hebben we AI-detectivs (Grok 5? Grok 6?), die juridische veldslagen voeren tegen andere AI's over gestolen training data. De paradox is om AI-diefstal te bewijzen je betere AI nodig hebt dan degene die je stal. Plot twist, wat als Grok ontdekt dat het zelf is getraind op gestolen OpenAI-data :P ?

Mijn conclusie is dat Genie 3 niet een voorbode is van betere games, maar het is Google's infrastructuur voor AGI-dominatie. Gebouwd op de ruggen van content creators die nooit expliciet toestemming gaven.
Het enthousiasme in de reacties toont aan hoe weinig mensen doorhebben wat er werkelijk speelt. We leven in een tijd waarin de grootste technologische doorbraken worden gefinancierd door retroactieve contractwijzigingen en strategische regelovertreding. De vraag is niet of dit technisch indrukwekkend is (dat is het), maar of we dit ethisch acceptabel vinden. Tech bedrijven winnen omdat ons rechtssysteem niet gebouwd is voor exponentiële, onvoorspelbare waardegroei. Ze exploiteren letterlijk een bug in de Matrix van rechtvaardigheid.

Dit is geen aanval op technologische vooruitgang, maar een oproep om bewuster na te denken over hoe die vooruitgang tot stand komt, en ten koste van wie.

[Reactie gewijzigd door DJanmaat op 6 augustus 2025 02:59]

Dit weekend heb ik meerdere interviews zitten kijken van Geoffrey Hinton, Mo Gawdat en een aantal anderen. De boodschap? Alarmistisch. De reden, ik ben er nog niet helemaal over uit.

Wat wel een besef bij mij is: Er is niet meer tegen te concurreren, zeker als je dit ziet en inderdaad je redenatie volgt dat dit is om AI mee te trainen. Als je als bedrijf in deze sector nieuw wilt toetreden dan is de moat/voorsprong zo enorm, die is niet meer te overbruggen. Waar een Cloud Dienst of alternatief social media platform voorheen nog "te doen" was, is dit in een AI omgeving niet meer te doen. Google, TikTok, Meta, Twitter, ze hebben inmiddels zo veel trainingdata, zo veel resources om die data te trainen. Je kan nooit meer een poot tussen komen.

Inmiddels ben ik ook door alle algemene voorwaarden heen aan het gaan, zelfs het gebruiken van AI als kookboek is verboden als je een product ontwikkeld wat concurrenend is. Om dan even meteen helemaal verder door te speculeren: Dat verklaard dan ook meteen de push naar het weg automatiseren van Developers, als je in je voorwaarden hebt staan dat je met de AI tools niet bij de concurrent mag werken dan moet je terug gaan naar ouderwets ontwikkelen. En laat dat nu een richting zijn die actief ontmoedigd wordt.

Elke wetgeving die je nu introduceert, zorgt ervoor dat die afstand misschien zelfs groter gaat worden voor nieuwkomers. Het verklaart misschien ook wel waarom er zo veel oud bestuursleden en zelfs bestuursleden zich zo kritisch over AGI en de ontwikkelingen uitlaten: Als de angst er maar genoeg in zit dan gaan overheden regelgeving maken, waardoor de voorsprong in beton gegoten wordt.

Het enige wat dan nog helpt als straf en als boete is:

Totale vrijgeving van de trainingsdata aan concurrenten. Dit zou eigenlijk een voorwaarde per definitie zijn. Wat we bijvoorbeeld bij KPN gedaan hebben, iedereen moest op het glasnetwerk kunnen, zo moeten we eigenlijk met deze data omgaan.

Zojuist een overzicht gemaakt van TOS die concurrentie onmogelijk maken:

https://chatgpt.com/share/6892770a-0934-800b-b5c4-fb1807137d98

[Reactie gewijzigd door init6 op 5 augustus 2025 23:46]

Geniaal punt over de contractuele val. In Google's voorwaarden staat expliciet: 'You may not use the Services to develop machine learning models or related technology'. De paradox die je beschrijft is reëel; je moet AI gebruiken om relevant te blijven, maar mag het niet voor concurrerende producten gebruiken. Je KPN-glasnetwerk analogie is spot-on. Trainingskosten stijgen exponentieel en vormen 'een significante barrière voor nieuwe toetreders, wat leidt tot concentratie van AI-capaciteiten bij enkele kapitaalkrachtige bedrijven'. Gedwongen datadeling zou inderdaad de enige oplossing zijn. Het regulatory capture-mechanisme werkt perfect; elke nieuwe AI-wet vergroot de voorsprong omdat compliance-kosten vooral nieuwe spelers raken. Zoals de Federal Trade Commission (FTC) waarschuwt, wijzigen bedrijven retroactief hun voorwaarden 'to allow themselves free rein to use consumer data for product development'. De 'moat' is onoverbrugbaar geworden; niet door technische superioriteit, maar door juridische constructies die concurrentie structureel onmogelijk maken.
Absoluut. De zogenaamde "moat" wordt alleen maar groter. De grote Amerikaanse (en Chinese) tech bedrijven hebben alle data al opgeslurpt voordat de regelgeving al was aangepast. Dus Reddit data, Twitter data, Facebook data, YouTube data is allemaal al gebruikt en vaak ook door de concurrenten gebruikt (met of zonder toestemming).

Als we nu strenge regels op gaan leggen op het gebruik van deze data hebben de partijen die deze data reeds hebben gebruikt om hun modellen te trainen een zodanige voorsprong dat deze niet meer in te halen is.

De enige mogelijkheid is om deze data vrij te geven, en als voorwaarde stellen dat de data geanonimiseerd moet worden. Laten we wel wezen, de data op Reddit, Twitter, Facebook, Youtube, etc, is niet data gemaakt door de betreffende bedrijven, maar door de wereldbevolking. Daarom moet ook de hele wereldbevolking mee kunnen profiteren van de voordelen van AI. Dit kan dus bijvoorbeeld door open source modellen die getraind worden op dezelfde data, of dat er makkelijker nieuwe spelers op de markt kunnen komen die op prijs gaan concurreren.

(Mijn eigenlijke idee van een AI belasting zodat werkelijk iedereen profiteert van de bizarre winsten die we gaan zien laat ik even voor een andere discussie).
Wat wel een besef bij mij is: Er is niet meer tegen te concurreren

Als ik zie wat een belabberde output de gratis versies van AI nu opleveren, zie ik nog geen reden voor paniek. Met een oldskool zoekmachine kom je tot veel betere resultaten dan het flauwe afkooksel dat AI serveert. Ook AI-chatbots zijn in het betere geval "amusant", maar verder dan met meel in de mond evidenties voorschotelen, heb ik nog niet ervaren dat ze geraken.
Wat we nu wel al weten is dat door AI te gebruiken kritisch denken achteruit gaat. Dit weten we nadat AI nu 3 tot 4 jaar beschikbaar is voor het grote publiek. Relatief kort na zo'n grote change.

We zien daarnaast de drive door alle grote en kleine bedrijven om output te maximaliseren, en daar zien ze AI als key feature in.

Als je dan ziet dat ik er achter kom dat vrijwel alle AI bedrijven in hun algemene voorwaarden hebben staan dat je niet bij de concurrent mag werken.

Gaan er dan geen radertjes bij jou aan het werk waarin je denkt: misschien kan dit wel fout gaan?

[Reactie gewijzigd door init6 op 6 augustus 2025 15:28]

Jij moet een keertje bij AI report (NL Podcast) gaan zitten. Echt de spijker op zijn kop.

Anderzijds moeten al die content Creators die hun filmpjes op YouTube hebben gezet ook zelf wel een keer achter hun oren gaan krabben. Als je weet dat het hosten van video eigenlijk niet in verhouding staat van wat je er zelf aan betaald hebt dan weet je eigenlijk wel dat je zelf het product bent toch?

Neemt niet weg dat het ethisch inderdaad nog steeds niet klopt. Maar het feit dat niemand wil betalen online terwijl grote computer systemen toch echt gruwelijk geld kosten is eigenlijk gewoon een beetje (ja, ik zeg het gewoon hier :+ ) dom...
Thanks! En ja, creators hadden kunnen weten dat YouTube niet écht gratis was. Maar van 'betalen met data voor hosting' naar 'gratis trainingsdata voor AI-dominantie' is een heel andere deal. AI Report ga ik zeker checken!
Maar gaat dit wel werken? Als je AI trainingsdata wordt gegenereerd door AI, krijg je dan geen "model collapse" of "model autophagy disorder"?

https://www.scientificame...-poison-future-ai-models/
bedankt voor je verhaal. En technisch heb je helemaal gelijk. Echter ethisch is per definitie subjectief en nadelen horen nu eenmaal bij het kapitalisme. Ik kan je verzekeren dat ons leven onder het communisme een stuk minder leuk was geweest. Ik denk zelf ook dat Europa zo achter loopt omdat we alles door een ethische bril bekijken die we zelf hebben opgedaan, hij is echter niet goed afgesteld denk ik zelf.

De meeste mensen hebben nooit een boek van Hume, Nietzsche of kant gelezen. Of van andere denkers als Simon Blackburn. Of iets ethisch is bepaalt iedereen voor zichzelf. Ik heb er 0 problemen mee wat Google doet, ik zou hetzelfde hebben gedaan. Waarom ook niet?
Het gaat niet om ethiek vs kapitalisme. Concurrentie is juist de kern van kapitalisme en dat wordt hier systematisch ondermijnd. Als Google morgen jouw bedrijf kan wegconcurreren door retroactief jouw contracten te wijzigen, vind je dat nog steeds 'gewoon kapitalisme'?
Je benoemt specifiek ethiek, het is heel makkelijk te zeggen om dat dit niet kapitalisme is. Ik ben het met je een dat een monopolie niet wenselijk is, maar “big tech evil” vind ik altijd wel heel makkelijk. Het scoort goed op tweakers, dat wel!
Binnen kapitalisme kan kapitaal gaan waar het het hardst nodig is en kan het worden onttrokken waar het niet meer nodig is of waar het niet meer efficient gebruikt wordt. Kapitalisme voorkomt dat bedrijven "te groot" worden omdat er altijd een concurrent zal ontstaan die met minder kapitaal meer gedaan krijgt. Wat "te groot" wordt sterft dan af, tot de concurrent die het stokje overnam te groot wordt etc.

Als we het goed vinden dat grote bedrijven wetgeving ondermijnen door overtreden deel van hun businessmodel te maken en daarmee voorkomen dat het kapitaal bij hen kan vertrekken dan is dat de dood van het kapitalisme. Dan wordt in dit geval Google nooit vervangen door een concurrent die wat zij doen ook doen maar dan beter en tegen lagere kosten. Trek je dit breder door betekent dat dus ook dat er minder innovatie zal plaats vinden in alle marktsegmenten die een gigant als Google beheerst. Waarom moet Google nog innoveren als de concurrentie met slimme trucs buiten spel wordt gezet?

Keuren we deze businessmodellen goed is dat dus de dood van niet alleen kapitalisme en marktwerking maar ook van innovatie. Ethiek daargelaten. Daarom zou je een probleem moeten hebben met wat Google doet en precies hierom scoort dit punt dus goed op tweakers.
Ik zeg nergens dat big tech 'evil' is of dat kapitalisme slecht is. Integendeel, ik beschrijf namelijk hoe slim ze het spel spelen binnen de huidige regels. Het punt is dat ze strategische regelovertreding gebruiken omdat de kosten (€5 miljard boete) veel lager zijn dan de opbrengst (€500 miljard+ AI-markt). Dat is rationeel zakendoen, geen moraliteit. Willen we een systeem waar boetes een business model worden in plaats van een afschrikmiddel? Dat heeft niks met 'evil' te maken, maar alles met effectieve marktregulering.
Maar vraag je dan ook het volgende eens af. Hoe erg is het wanneer wereldwijd de maatschappij de ethische bril van Europa zou hebben? De ontwikkeling zou misschien iets rustiger aan gaan,. Is dat erg wanneer de welvaart van de maatschappij breder verdeeld word? De parasietering vanuit het kapitalisme op de samenleving door big tech zou minder zijn, is dat erg? Misschien dat je je naast Nietze dan ook verdiept hebt of boeken gelezen hebt van Epictetus of Marcus Aurelius. Hoe zie je het vanuit dat perspectief?

[Reactie gewijzigd door m-a-r-t-1 op 6 augustus 2025 06:18]

Ik denk dat als we iedereen zelf laten bepalen wat ethisch is, we de weg vrij maken voor bedrijven om daarbij door de ondergrens te zakken. Bedrijven streven winstmaximalisatie na en zullen dus steeds de grens een beetje verleggen, waarbij op gegeven moment de maatschappij daar de gevolgen van ziet en tot de conclusie komt dat er te ver overheen is gegaan.

Ik denk de overheid middels wetgeving moet afbakenen wat ethisch wel en niet kan. Het laatste wat we moeten willen is dat iedereen dat voor zichzelf moet bepalen.
De meeste mensen hebben nooit een boek van Hume, Nietzsche of kant gelezen. Of van andere denkers als Simon Blackburn. Of iets ethisch is bepaalt iedereen voor zichzelf.
Dat klinkt tegenstrijdig want blijkbaar moeten we ons door de door jouw geliefde schrijvers (die ik persoonlijk soms totale onzin vind uiten) laten voorschrijven hoe we over ethiek moeten denken. Maar als we dat zouden doen dan zouden we niet meer voor onszelf bepalen hoe we over ethiek denken.

Daarnaast, mensen als hume, nietzsche en kant wisten nog helemaal niks over de invloed van onze genen op de menselijke bezigheid van ethiek. Is dat dan wel een goede leiddraad?
Om vervolgens aan de Quantum computing te gaan, waarna dit alles ineens weer een druppel in de oceaan is.

We naderen het middel van onze pulsar! :)
Quantum-powered data-diefstal! Dan kunnen ze in nanoseconden retroactief alle contracten wijzigen :P

Maar weer even down to earth; dit waait niet over zoals Flippo's. Cambridge Analytica 2014, Google's locatie-tracking schandaal 2022, Amazon Alexa nog lopend. Patroon hetzelfde; alle bedrijven nog steeds marktleiders, slachtoffers nog niet gecompenseerd. Dit zijn permanente eigendomsoverdrachten, geen hypes.
Ja, verschrikkelijk. Mijn punt is dat je hier op moet plannen.
Van ‘druppel in de oceaan’ naar ‘verschrikkelijk’; dat is wel een 180-graden draai😄. Maar je hebt gelijk, plannen is inderdaad cruciaal. Het probleem is alleen: hoe plan je op spelregels die continu retroactief worden veranderd?
Oh nee, is geen draai, meer meten met twee maten. Zodra quantum computing op voldoende schaal bestaat, is geen digitaal stukje informatie meer oncijferbaar. Digitaal is dan een druppel in de Quantum oceaan.

Mocht het zo zijn dat je geheim te houden data op dat moment bereikbaar is, moet je aannemen dat het wordt ontsleuteld. Misschien is dat al wel het geval, leven we in de illusie van privacy.

Hoe je er op plant? Expert ben ik niet, intuitief zou ik stellen: Als je data hebt die écht niet door de wereld gezien mag worden, zet het dan op een offline apparaat en benader het zo, tot je het met de nieuwere techniek weer juist kunt versleutelen voor online.

Zelf ervaar ik daar nog geen haast bij, maar het is niet ondenkbaar dat het niet direct wordt verteld, mocht een corporation zo ver zijn gekomen dat ze alles kunnen ontsleutelen.
Interessant hoe quantum eerst de oplossing was voor alle AI-problemen, 'druppel in de oceaan', en nu plotseling het probleem is voor alle encryptie. Consistent blijven in je techno-optimisme of pessimisme helpt de geloofwaardigheid.

Overigens, als quantum-computing nu al alles kan ontsleutelen zoals je suggereert, waarom maken we ons dan nog druk om AI-contractvoorwaarden? Dan is toch alles al game over volgens jouw eigen logica?
Je vergist je in absoluten. Ik spreek niet over bewezen realiteit, maar over potentiële situaties. Probeer een korreltje zout.
'Potentiële situaties'? Je stelde letterlijk dat quantum computing alles 'een druppel in de oceaan' maakt, om vervolgens te waarschuwen voor quantum-encryptie gevaren. Nu ik je op die 180° draai wijs, is het opeens allemaal hypothetisch. Classic motte-and-bailey; grote claims maken, dan terugtrekken naar 'ik bedoelde het niet letterlijk' wanneer uitgedaagd.

Welke positie verdedig je nu eigenlijk?
Wij begrijpen elkaar verkeerd; ik slaap er een nachtje over en kom er later op terug!
Goed verhaal over over regelovertreding, we worden genaaid waar we bij staan. Maar w.b. “AGI”, AGI wordt niet bereikt met transformer modellen. Dit blijven gewoon relatief domme LLMs die nu getraint zijn op meer syntetische data. En syntetische data is hele malen slechter dat echte data.

[Reactie gewijzigd door Henk1827 op 6 augustus 2025 07:28]

Klopt Henk, transformers zijn niet de heilige graal naar AGI en synthetische data heeft zeker beperkingen. Maar dat is precies mijn punt; het gaat Google niet om perfecte AGI bereiken met Genie 3, maar om infrastructuur opbouwen en marktpositie claimen voor als AGI wel doorbreekt. Of dat nou via transformers, neuromorphic chips, of iets totaal anders gebeurt; Google wil het ecosysteem controleren waarin die doorbraak plaatsvindt. De 30.000 uur gaming data en de trainingsomgevingen zijn strategische assets voor welke AGI-architectuur dan ook komt. Zelfs als huidige LLMs 'relatief dom' blijven, heeft Google alvast de data-pipeline en legal precedenten op zijn plaats.

Het is niet zo zeer over de techniek van vandaag, maar over wie de spelregels schrijft voor de techniek van morgen.
Men traint nu ook al Tesla AI e.d. in een virtuele wereld waarin ze eigenlijk iedere situatie die een auto kan tegen komen trainen.

Overigens denk ik niet dat AGI tot stand komt zoals men het verwacht. AGI wordt gewoon net als LLMs gewoon een model die statistisch is, geen zelfbewustheid. Maar we zullen zien of ik gelijk krijg of niet natuurlijk.
Ik voorzie een toekomst AI vs AI warfare. Het meest fascinerende is dat deze datasets zo groot zijn dat alleen nog betere AI kan onderzoeken welke data precies is gebruikt. Straks hebben we AI-detectivs (Grok 5? Grok 6?), die juridische veldslagen voeren tegen andere AI's over gestolen training data. De paradox is om AI-diefstal te bewijzen je betere AI nodig hebt dan degene die je stal. Plot twist, wat als Grok ontdekt dat het zelf is getraind op gestolen OpenAI-data :P ?
Is dat echt zo? De vraag is natuurlijk, kan een mens die nog nooit misdaad A heeft gezien die oplossen? Ik denk het wel. Waarom zou een statistisch model dat niet kunnen?
Je kan nu ook aan een LLM vragen om een stuk code te maken die iets print wat nog nooit eerder is geprint e.d.
Wilde ik ook zeggen inderdaad, Elon gaf dit aan als reactie op dit nieuws: https://x.com/elonmusk/status/1952750238739107987
Wij zijn allebei natuurlijk even vergeten dat Elon Musk "uit" is en dus irrelevant. Ook al deed een van zijn het bedrijven al.
Publieke youtube's gebruiken als AI trainingsdata zou ik persoonlijk niet eens als probleem zien. Dan had je het niet publiek moeten maken. En jouw ene filmpje is onbelangrijk in het geheel.

Dus gave tech. En mooie stap voor AGI!
Maar daarom gaat het wel in games gebruikt worden..

Dit is iets waar ik al 30 jaar op aan het wachten ben...
Ik vind het trouwens best wel grappig, hoe mensen zich druk maken dat AI leert van content van anderen.

Een mens doet toch exact hetzelfde? Of je nu kunst maakt, een boek schrijft, een film maakt, wat dan ook, dan zitten daar altijd elementen in die need hebt gebaseerd op wat je van anderen gezien of gehoord hebt.

Mensen delen continu informatie met elkaar, bewust of onbewust. We zijn 1 groot netwerk. Maar wat is er in godsnaam erg aan? Het is juist dat we steeds verder vooruit komen! Er is nooit iemand die zegt, oh, je hebt die boek beschreven, en die zinnetje daar heb je gebaseerd op wat ik ooit tegen je gezegd hebt, ik wil dat je dat er uit haalt.. of ik wil een schadevergoeding. Dat slaat helemaal nergens op! En het heeft ook totaal helemaal niets met privacy te maken, en mensen worden er totaal 0,0 mee beschadigd.

Dus wat zou het dat AI leert van jou YouTube video? Is het echt privacy, of heeft iedereen continu dollartekens in zijn ogen, en moeten die miljarden die verdient worden ook weer verdeeld worden over miljarden mensen? Is dat het?
Goed verhaal. Wat mij echter nog wel bevreemd is de beperking dat opnieuw bezoeken van eerder gegenereerde scenes niet mogelijk zou zijn. Dat is toch gewoon een kwestie van opslag? (Iets waar computer van nature erg goed in zijn).
Of moet ik dat meer lezen als "dan snapt het niet meer wat het genereerde" - wat in gesproken woord ook een probleem is voor de huidige AI. Want het heeft tenslotte geen echt begrip van wat het vertelt of laat zien. Het combineert bestaande data ontzettend goed en snel maar begrijpt er niets van.
En het is dan in staat om combinaties te maken die niet eerder bestonden - wat lijkt op fantasie. Maar in feite is het 100% afhankelijk van de gedachtengang van de mens - omdat de mens de restricties heeft aangeleerd.
Precies, het 'snapt' niet wat het genereerde. Genie 3 genereert elk frame nieuw zoals ChatGPT elk antwoord nieuw maakt. Geen geheugen betekent oneindige training variaties voor AI-agents. Google's design choice, niet een bug.
Interessante info in het begin, alleen jammer dat het informatieve deel van je bericht verschuift naar een mening over content 'creators' vs AI training. Ik heb over dat onderwerp ook een mening, maar die voegt weinig toe aan het artikel.
'Mening'? De 30.000 uur YouTube content zonder expliciete toestemming IS de kerninfrastructuur voor Google's AGI-dominantie. Dit is geen verschuiving maar de rode draad; zonder gestolen trainingsdata geen Genie 3, zonder Genie 3 geen oneindige AI-trainingsomgevingen, zonder die omgevingen geen voorsprong richting AGI. Content creators zijn niet een zijlijn maar het fundament waarop de hele €500 miljard AI-markt rust.
Gestolen is inderdaad jouw mening: geen rechter die het hier als dusdanig bestempeld heeft. Of 'expliciete toestemming' valt onder de huidige voorwaarden is (last I checked) ook geen uitspraak over gedaan. Goede kans dat Youtube tzt een rechter zal vragen AI training te interpreteren onder 'Licentie aan andere gebruikers' en 'Het recht (van Youtube) om inkomsten te genereren'.

Er is ook nu geen sprake van AGI-dominantie, want er bestaat nog geen AGI. Nu is men de terminologie daarvan steeds verder aan het versimpelen, maar alle 'AI' toepassingen die er nu zijn gaan dat nooit bereiken. De bedenker van de term verwoord het als volgt:

“AGI is, loosely speaking, AI systems that possess a reasonable degree of self-understanding and autonomous self-control, and have the ability to solve a variety of complex problems in a variety of contexts, and to learn to solve new problems that they didn’t know about at the time of their creation.”

De vraag is wat een 'reasonable degree' is, maar van 'self-understanding' is geen sprake bij LLMs en daarvan afgeleide techniek. Het enige dat die doen is berekeningen uitvoeren zonder enige vorm van self-understanding. Ze kunnen dat misschien faken, maar ze zullen het nooit bereiken.

Terzijde, nu snap ik dat meer mensen ze zo noemen, maar 'Creator' vind ik ook een overtrokken term: Iemand die een video van zichzelf maakt terwijl die het spel speelt dat daadwerkelijk door een ander gemaakt is noem ik niet een 'creator'. Die probeert geld te slaan uit het werk van een ander zonder dat die daar zelf iets noemenswaardigs voor heeft hoeven maken, oftewel: die 'create' in mijn optiek weinig. Als ik bij wijze van spreke een vakantiefoto van een fraai kasteel publiceer ben ik imo ook niet opeens een 'content creator', dat waren de bouwers van dat kasteel, maar wel volgens de hele ruime term die veel mensen erop na houden.

Dat online content belangrijk is voor LLMs is overigens zonder meer duidelijk, maar of er sprake is van 'diefstal' of wat dan ook, dat is geen feit.
Deze ontwikkelingen gaan zo snel… De week na de release van GTA VI wordt deel 7 gegenereerd :P

Ik zie veel interessante toepassingen voor games, misschien zelfs herinneringen na het uploaden van een foto/video, maar ook binnen de psychologie. Interessant!
gta 7, rijden in je eigen stad, door Ai gegenereerd.

altijd de snelste weg weten.
Ik dacht: altijd de makkelijkste methode om de juwelier op de hoek te overvallen kennen. :+

Echt, er schuilen enorme gevaren aan het gebruik van AI. Ik houd mijn hart vast, want momenteel heb ik het gevoel dat de AI trein er een is die niet meer te stoppen is en waarvan eigenlijk niemand meer weet welke kant die op gaat (en welke stations gepasseerd worden). Klopt, LLM's zijn nog relatief 'dom', maar in één ding zijn ze goed: logica. En daarmee zijn ze (theoretisch) in staat het model steeds beter te maken. We moeten met zijn allen echt goed nadenken hoe we AI in kunnen perken voor het te laat is en AI zijn eigen 'leven' gaat leiden.

Ik ben niet erg fatalistisch en geloof niet in Skynet of iets dergelijks, maar ook een minder dodelijke AI kan enorme gevolgen hebben: fake news (dagelijks op je Insta-feed, powered by AI), massawerkloosheid (begint nu al bij nota bene Meta zelf), instorting van economieën (volgt op de vorige), al dan niet digitale oorlogen (als je AI modellen traint met oorlogsdata).

[Reactie gewijzigd door Kastermaster op 8 augustus 2025 07:35]

Die kunnen we dan voor 5 euro als DLC erbij kopen natuurlijk. Want veel werk is het niet meer, botje aan en klaar :).

Wordt idd wel leuk voor world generation bij games. Nu zit daar toch nog voor een groot stuk manueel werk in wat uiteindelijk de game wereld een heel stuk beperkt. Random world generators zijn toch niet altijd zo random op dit moment. Er zijn er wel bij die heel mooie dingen kunnen maar ik meen dat er meestal toch nog een level designer overheen gaat voor dan uiteindelijk hier en daar nog wat te schuiven. Als dit nu betekent dat we nog grotere en meer gedetaileerde worlds krijgen, I'm all in :).

Ze laten waarschijnlijk bewust in het filmpje wel zeer beperkte fragmenten zien. Ik ben wel eens benieuwd als je nu 100 keer na elkaar éénzelfde prompt ingeeft, of je dan niet alsnog 100 een wereld krijgt die 99% op elkaar lijkt of toch iedere keer iets uniek?

[Reactie gewijzigd door Powerblast op 5 augustus 2025 21:12]

Dat wordt 100x een andere wereld. Binnen de generatie kan hij consistentie bewaren, maar no way dat hij telkens een zelfde wereld genereert obv eenzelfde prompt.
Waarom niet, als het algoritme seeded is kan dat prima.
Tenzij de generatie afhankelijk is van de navigatie van de gebruiker. De wereld zou real-time (frame by frame volgens Google) opgebouwd worden. Het lijkt me dat delen dus opgebouwd worden op basis van waar je naar gaat kijken.

Een level starten en 360 graden linksom draaien zou dan een totaal andere wereld kunnen opleveren dan als je rechtsom draaide, ondanks eenzelfde seed.
Dat is een goede vraag idd, gezien er geen onderliggende spatial representatie is tot het in beeld is.

Met dezelfde inputs zou het deterministisch kunnen zijn, en iig het eerste frame consistent, maar met andere movement zou de wereld zich anders kunnen ontwikkelen
De interpretatie van je prompt zal toch per keer lichtelijk verschillen lijkt me.
maar no way dat hij telkens een zelfde wereld genereert obv eenzelfde prompt.
Waarom niet? Het is juist de temperature die je instelt die randomness geeft. LLMs zijn ook gewoon deterministische modellen, echter door de temperature die je instelt lijkt dat niet zo.

Temperature is dat je aangeeft dat ipv van de statistisch meest logische token, er een keuze gemaakt wordt (willekeurig) tussen de x grootste logische tokens. Waardoor je input de volgende run anders is. Als je dat maar blijft doen, krijg je veel mogelijke reacties. Maar allemaal stuk voor stuk weer deterministisch qua uitkomst.
Nee, het is eerder dat je een week na GTA 6 een GTA 6 AI remaster krijgt.
Nee dankje, liever een intentioneel ontworpen spelwereld (AI/door algorithmes gevuld vind ik dan tot daar aan toe), dan iets wat elke debiel met een toetsenbord kan bedenken. Goede leveldesigners zijn goud waard.
Dat zeg je nu, de techniek staat nog in de kinderschoenen
Dat zeg ik nu, zelfs bij handgemaakte games vergaap ik me soms aan de technische kunde terwijl de games zelf een beduidend mindere ervaring is.

Een menselijke hand en gamedesign blijven belangrijk tenzij je de simpelste van games wil spelen.
Helemaal eens, en we moeten ook die textielmachines stoppen!
Totaal niet te vergelijken...
Klopt, werk die wordt ontnomen en werk die wordt ontnomen zijn verschillende dingen.
Het creëerde inderdaad meer banen dan gezond was, waarna de verstedelijking hard toenam. Worden er al kinderen serverparken ingestuurd omdat ze zo klein zijn?
Zullen er weer bergen cashgrab games komen met een generieke UE5 mechanics, zeker rond lancering van gta6 zal dat humor worden.
Ik betwijfel of hier met de huidige vorm veel games uit gaan komen.

Ik kan op het eerste zicht niet zien hoeveel compute dit vergt, maar ik kan me toch inbeelden dat dit aanzienlijk zal zijn (als in, een enkele consumenten-GPU lijkt me onvoldoende.)

Dat er na sléchts enkele minuten inconsistenties optreden lijkt me ook vrij problematisch. (Laten we wel wezen: enkele minuten is mooi t.o.v. de enkele tientallen seconden bij genie 2, maar is nog steeds onbruikbaar voor veel toepassingen)

Daarnaast gebruikt het ook een impliciete voorstelling (nieuwe beelden op basis van vorige beelden) en geen expliciete (driehoeken, textures en shaders) zoals typisch het geval is bij games en dus ook door game-engines ondersteund wordt. Een conversie naar expliciet zou problemen met compute, geheugen en inconsistenties kunnen oplossen, en geeft terug meer vrijheid aan de content-creator, maar typisch verlopen dit soort conversies niet zo goed.

Dat is natuurlijk voor de huidige versie. Of dit in de toekomst zich naar een praktischere implementatie zal evolueren zullen we nog moeten afwachten.
Speelbaar… het lijkt meer op google maps waarin je wat rond kan kijken met knopjes. Het zal nog wel een hele lange tijd gaan duren voordat je echt iets speelbaar hebt. En dan bedoel ik met interacties, gevechten, dialogen en een mogelijkheid tot opslaan en op een later moment weer verder gaan.
Wat vind je een 'hele lange tijd'? Want met de snelheid van ontwikkeling heb je het misschien over een jaartje.
Waarschijnlijk 3 maanden
Er zit een groot verschil tussen het maken van een statische wereld en iets met zoveel dynamische dingen.
Er zijn wel heel wat games die uit niets meer bestaan dan het verkennen van werelden. Denk maar aan zogenaamde "walking simulators". Nu zou ik die toch liever manueel gebouwd zien dan gegenereerd, maar wellicht opent het wel de deuren voor een resem mensen die wel talent hebben om een goede wereld en verhaal in elkaar te steken maar niet de nodige vaardighden hebben om ook daadwerkelijk een game te maken.
Er zijn wel heel wat games die uit niets meer bestaan dan het verkennen van werelden. Denk maar aan zogenaamde "walking simulators".
Je kan ter discussie stellen of iets wel een computerspel betreft als je alleen maar doelloos kan lopen.

Is Google Street View op zichzelf een computerspel?
Op zichzelf niet, maar wie het leuk vindt om ermee te spelen ziet het al snel als een spel. Waarom ook niet?
Google Earth had al heel vroeg een flight simulator ingebakken. Is dat dan wel een spel? Nu loop je immers niet meer. Waar zou je de grens trekken?

Er zijn ook enkele spellen die Streetview als element van het spel gebruiken.
Je kunt deze techniek niet vergelijken met interactieve gaming. Het is eerder een techniek die lijkt op hoe ons brein de spatial-reality genereert op basis van input. Hoe je brein in een droom een wereldmodel kan genereren zeg maar. Met slimme technieken en een gigantische dataset heeft Google het d.m.v. een emergent-feature (eentje die simpelweg ontstond door de omvang van het model) het voor elkaar gekregen om een bepaalde consistentie in de wereld vast te houden voor enkele minuten.

Waar dit heel erg vet wordt is binnen een VR-headset. Qua compute wellicht nog net niet haalbaar op grote schaal, maar technisch gezien wel. Met steeds beter wordende chips, grotere datasets en toegankelijker wordende hardware zal dit voor heel veel toepassingen / ervaringen straks de norm worden. Binnen de VR headset hoef je enkel maar te streamen.
Als we bij Deepmind genie 8 komen dan zitten we op Real Time Ultra Realisme.

Simpele prompt kan RDR4 meets DOOM razendsnel Genereren tijdens games kan je nog prompts realtime toevoegen.

Content gaat een kant op wat wij nu niet kunnen voorstellen.

Het wordt tijd dat de jeugd op vroege leeftijd leert om te gaan met AI.

Wat ik om heen zie bij mijn neefjes en nichtjes dat zij nu slaaf zijn van AI algo (Tik Tok, Shorts) ze zijn kansloos.

Ik probeer ze uit te leggen wat uren swipen met je hersenen doet.

Ik vrees een generatie die schade gaat krijgen, net als toen ouders gingen roken waar kinderen bij waren…..
Ik probeer ze uit te leggen wat uren swipen met je hersenen doet.
Misschien in een tiktok uitleggen? :+
Eigenlijk is elke vorm van beperkte interactie slecht - dus of het nu uren TV kijken is of uren tiktoks swipen... Maar we denken ook dat het toch wel goed gekomen is met de 'teveel TV' kinderen. Dus er is nog wel hoop.

Wat nu wellicht wel erger is; is de beperkte aandachtspan. Men is sneller afgeleid / verveeld / heeft meer entertainment nodig.
We doen alsof dit een nieuwe ontwikkeling is, terwijl we ons er tegelijkertijd van bewust zijn dat we opereren binnen een gesimuleerde werkelijkheid.
Dat aluminium hoedje die je op je kruin draagt is blijkbaar ook van gesimuleerd aluminium.
Dat is wat een NPC zou zeggen als antwoord op de waarheid! :+
Kun je aangeven wat werkelijkheid is? Als de werkelijkheid niet goed gedefinieerd is, kun je ze dan simuleren?
Wat leuk dat jij mij als simpele NPC om mijn mening vraagt. Naar mijn mening is ieders werkelijkheid anders. In relatie tot een simulatie zou ik dit baseren op de belevingswereld van deze persoon.
Ben dan benieuwd hoe dit afloopt. Heb je wel eens een vm in een vm in een vm in een vm gedraaid en gezien wat dit met de resources doet? Zou onze simulatie gaan vastlopen wanneer AI echt van de grond komt? Of zal de systeembeheerder van onze simulatie het hele universum op tijd naar een krachtiger platform migreren? :+
misschien als de AI het beter doet dan deze simulatie er gewoon naast zetten en uiteindelijk worden wij uitgefaseerd.
Ik vermoed dat je met je eerdere ervaringen tegen de beperking van je huidige simulatie bent aangelopen. Fingers crossed dat de upgrade van jouw simulatie snel jouw kant op komt.
Ben dan benieuwd hoe dit afloopt. Heb je wel eens een vm in een vm in een vm in een vm gedraaid en gezien wat dit met de resources doet?
Met (hardware) passthrough praktisch hetzelfde als je 4 VM's naast elkaar zou draaien :)
Zou onze simulatie gaan vastlopen wanneer AI echt van de grond komt?
Denk je dat je het merkt dan? Want alleen dan is je vraag (imo) relevant :)

Als het vastloopt is het in 1 keer klaar dan kan je daar niet eens wat van vinden want je simulatie doet dan niks meer. Loopt het allemaal wat trager dan werkt alles trager waardoor je het niet door kan hebben.

PS ik weet niet zo goed wat ik er van moet vinden of we wel/niet in een simulatie leven, voor mij zou het niks uitmaken, mijn werkelijkheid is wat ik als werkelijkheid ervaar, of dat nou echt is of niet...

[Reactie gewijzigd door watercoolertje op 6 augustus 2025 10:19]

Dit ondermijnt de businesscase van worldlabs steeds meer..... https://www.worldlabs.ai/blog
Wow, AI gaat wel heel snel.

Op dit item kan niet meer gereageerd worden.