EU deelt richtlijnen voor gebruik van AI-modellen met 'systemisch risico'

De Europese Commissie deelt richtlijnen voor aanbieders van generatieve-AI-modellen voor algemeen gebruik. Deze richtlijnen moeten bedrijven als OpenAI, Anthropic, Meta, Google en Microsoft helpen om vanaf 2 augustus 2025 aan de AI-verordening te voldoen.

In de richtlijnen staan veel termen en begrippen uitgelegd die van belang zijn voor de AI Act, ofwel de AI-verordening. Zo geldt de wet voor modellen die getraind zijn met een cumulatieve compute van 10²⁵FLOP. Deze modellen hebben volgens de Europese Unie een 'systemisch risico' dat met allerlei maatregelen moet worden ondervangen. Dat moeten bedrijven en eventueel ook overheden doen door maatregelen voor transparantie en tegen risicobeperking te implementeren.

Om die risico's in kaart te brengen, moeten AI-aanbieders een impactanalyse maken. Deze modellen kunnen volgens de EU namelijk mogelijk significant negatieve invloeden hebben op 'de volksgezondheid, veiligheid, publieke veiligheid, fundamentele rechten en de samenleving als geheel'.

Modellen die een mogelijk risico hebben volgens de vereisten van de Europese Unie, moeten onder meer technische documentatie bijhouden en deze met de AI Office delen. Dit orgaan is de toezichthouder van kunstmatige intelligentie in Europa. Verder moeten aanbieders van algemene taalmodellen samenvattingen van trainingsdata publiceren, aan EU-auteursrecht voldoen en incidenten direct melden.

Ook moet deze documentatie met onder meer veiligheidsinstructies en beperkingen beschikbaar zijn voor 'downstream'-gebruikers van modellen, dus derden die de modellen voor eigen toepassingen gebruiken. Een dergelijke aanbieder valt onder de AI-verordening als indirect een derde of meer van de trainingcompute gebruikt wordt.

Vanaf 2 augustus 2025 gaan er nieuwe beperkingen in onder de AI-verordening. Vanaf dan moeten aanbieders hun model aanmelden bij de AI Office van de Europese Unie. Aanbieders moeten met dit orgaan samenwerken om risico's in kaart te brengen en eventueel maatregelen te nemen. Vanaf 2 augustus 2026 gaat de EU de regels voor deze modellen handhaven. Het gaat dan om modellen die vanaf augustus 2025 op de markt gebracht worden. De wet geldt vanaf augustus 2027 daarnaast retroactief voor alle modellen die aan de vereisten van de wet voldoen.

De AI-verordening treedt in stappen in werking. Sinds februari 2025 is het al niet meer toegestaan om bepaalde AI-toepassingen te gebruiken, bijvoorbeeld om menselijk gedrag te beïnvloeden en misdaden te voorspellen.

Door Yannick Spinner

Redacteur

18-07-2025 • 19:55

45

Submitter: wildhagen

Reacties (44)

Sorteer op:

Weergave:

Zo geldt de wet voor modellen die getraind zijn met een cumulatieve compute van 10²⁵FLOP.
Snel wat rekenen:
  • In de Llama 3 paper werden snelheden behaald van 380-430 TFLOPs per GPU (H100, BF16)
  • Dus 10^25 FLOPS ~= 6.9 miljoen GPU-uren als we een gemiddelde van 400 TFLOPs gebruiken
  • Om de Llama 3.1-modellen te trainen was dit aantal GPU-uren nodig (trainen op 15T tokens):
    • 8B: ~1.46 miljoen
    • 70B: ~7 miljoen
    • 405B: ~30.84 miljoen
Dus als je een 70B model traint val je juist wel/juist niet onder deze regels.

edit:
Waarom wordt dit negatief gemod? Het is zeker wel on topic en geeft een richtgetal over de grootte van de modellen waar het in de praktijk om gaat. Gebaseerd op echte cijfers (niet enkel theoretisch).

[Reactie gewijzigd door BramVroy op 18 juli 2025 23:31]

De vuistregel is 6 FLOPs per token per parameter.
Inderdaad, een simpele manier van tellen. En ik werk een concreet voorbeeld uit gebaseerd op empirische resultaten in plaats van een algemene formule te gebruiken. Geen idee waarom dat als -1 wordt gemod.
Omdat het hele ratingsysteem meer dan zuigt
  • In de Llama 3 paper werden snelheden behaald van 380-430 FLOPs per GPU (H100, BF16)
380-430 FLOPS is wat aan de lage kant voor een H100. De paper heeft het over teraflops (10^12 keer meer). Je berekeningen gebruiken ook teraflops maar je vermeldt steeds flops 😉
Ah, goed gezien. Twee keer een "T" vergeten, bedankt.
Zo geldt de wet voor modellen die getraind zijn met een cumulatieve compute van 10²⁵FLOP.
Blij dat ze hier een exacte grens op gezet hebben (hoewel ik vrees dat we straks modelen van 10²⁵-1 gaan krijgen) maar heb hier echt absoluut geen beeld bij hoeveel dat is. Ik heb ongeveer een beeld van hoeveel TFLOPS server GPUs hebben, maar hoeveel gebruiken ze daarvan? En hoeland trainen ze daarmee? Is er ergens een lijst te vinden van de cummulatieve compute per model?
Dit was destijds (2023) gezet zodat alle top-tier modellen er onder zouden vallen. Bijvoorbeeld Llama 2 405B. Je kan er vanuit gaan dat alle populaire modellen er onder vallen.
Ik heb ongeveer een beeld van hoeveel TFLOPS server GPUs hebben, maar hoeveel gebruiken ze daarvan?
Je moet aan ~40% van theoretische flops denken. NVIDIA meldt hun TFLOPS meestal met sparsity, dus dan moet je aan ~20% moet denken.
En hoeland trainen ze daarmee?
Een aantal maanden met een (zeer) groot gedeelte van het cluster.
Volgens https://epoch.ai/data-insights/models-over-1e25-flop is dit inderdaad zo. Ik kan niet ontdekken wat hun bronnen zijn.
Het is ook eigenlijk een beetje gegeven. 10^25 FLOPs is ~20 miljoen aan rekenkracht. Dat is aan de ene kant een hoop geld, maar dat is ook wel heel minimaal wat ieder bedrijf dat zichzelf enigszins serieus neemt op dit vlak er aan besteed. De grotere ML datacentra doen dit in enkele dagen, de grootste kan dat net wel net niet in een dag.
10^25 FLOPs aan totale compute om een ML model te maken? Ik weet niet of ik dat nou "heel minimaal" zou noemen. Heb je bronnen waaruit blijkt dat de modaal boven dit getal ligt? Er wordt zeer schimmig over gedaan en GPT 4 zou 10 ^24 hebben gekost.
Minimaal voor bedrijven die een serieuze poging doen, daarmee bedoel ik bedrijven zoals: Google, OpenAI, Anthropic, Meta, Microsoft, DeepSeek, Alibaba, Moonshot AI, NVIDIA, Mistral.

Ik denk dat de belangrijkste bron https://epoch.ai/blog/trends-in-ai-supercomputers is, al gaat dat over de trends van de clusters die gebruikt worden. Het gemiddelde "leading" cluster dat in 2025 gebouwd wordt doet 10^25 FLOPs in een enkele dag.

Een iets andere bron is https://epoch.ai/blog/training-compute-of-frontier-ai-models-grows-by-4-5x-per-year , die laat zien dat de "frontier LLMs" in 2024 rond de 10^25 FLOPs zaten, en groeiden met een factor 5 per jaar.

Ieder model boven de 288B parameters dat Chinchilla-optimaal (lees: wanneer je een zo goed mogelijk model neerzet voor zo min mogelijk rekenkracht) getraind is, komt boven de 10^25 FLOPs. Voor modellen die veel gebruikt gaan worden (dus de populaire LLMs) komt het uit om significant meer rekenkracht tegen een kleiner model aan te gooien. Je kan er daarom vanuit gaan dat alle modellen die bedoeld zijn voor gebruik (in tegenstelling tot alleen PR) boven de 70B parameters ook boven de 10^25 FLOPs komen.

GPT-4 was 2022/2023, dus voor deze wereld bijzonder oud. Een exact getal aan rekenkracht kan je niet krijgen, maar het zou me enorm verbazen als die onder de 10^25 FLOPs zat. Volgens geruchten was GPT-4 flink boven die hierboven genoemde 288B parameters.
Ik waardeer je reactie enorm, maar kan dus zelf ook behalve Epoch (dat stelt zonder onderbouwing) niemand vinden die zegt dat we al aan de 1025 zitten. Dat zal natuurlijk komen omdat die grens een AI Act trigger geeft. Ik was daarom een tikje verbaasd dat je zo stellig bent dat iedereen dit zo doet dat het gemeengoed is met een béétje datacenter.
Het grootste cluster dat ik kan huren bij mijn cloudboer kan 10^25 in 11 weken en voor net geen $11M. Nu kan mijn credit card dit niet aan, maar is het simpelweg geen absurd hoog bedrag voor bedrijven.

Overtuigen deze bronnen (met kleine rekensommetjes van mij) je wel?

Uit 2024: https://ai.meta.com/blog/meta-llama-3-1/ "training Llama 3.1 405B on over 15 trillion tokens" dat maakt 3.6 * 10^25 FLOPs.

Het "laaghangend fruit" met kwaliteitsdata is https://huggingface.co/datasets/HuggingFaceFW/fineweb-2 en https://huggingface.co/datasets/HuggingFaceFW/fineweb , wat 18.5T tokens engels en ~4T tokens andere talen is. Ieder model van 74B of meer parameters dat op deze trainingsdata is getraind is over de 10^25 FLOPs. De meeste modellen uit 2024 en 2025 zijn groter dan 74B.
Merci! Ik waardeer het echt enorm dat je dit uitzoekt.

Ik blijf zitten met een gevoel dat er iets niet klopt, want als 1025 zo makkelijk te halen is dan zou niemand er zo geheimzinnig over doen. Ik denk dat ik de Chinchilla formule dan verkeerd lees.
Geen enkel probleem, je leert het meeste van mensen buiten je bubbel uit te leggen wat binnen je bubbel de overwegingen zijn. Het is net als Moore's law bijna een gegeven dat de betere modellen zoveel rekenkracht gebruiken, dit was al ver voor ChatGPT de verwachting. Zo was PaLM (april 2022) al 2,2x10^24, wat het laatste frontier model geweest lijkt te zijn dat nog met een paper kwam.
Ik blijf zitten met een gevoel dat er iets niet klopt, want als 1025 zo makkelijk te halen is dan zou niemand er zo geheimzinnig over doen.
Volgens mij is het vooral dat er geen reden meer is om het over FLOPs te hebben. Het is slechte PR als je met veel rekenkracht een matig model neerzet, papers worden bijna niet meer gepubliceerd en het is ook in de VS voorgesteld om als proxy voor regulatie te gebruiken. Californie had het over 10^26 FLOPs of $100M aan rekenkracht, maar die wet heeft een veto gekregen. Op technisch vlak zegt het niks over je model, behalve dat je een groot datacentrum hebt, en dan is direct over je datacentrum praten makkelijker. Als laatste is er een gigantisch grijs gebied, bijvoorbeeld met rekenkracht die wel gebruikt is om data te genereren of op te schonen, maar niet direct bij het trainen. Of dat er duizenden/miljoenen (kleinere) modellen getraind worden om te kijken wat wel of niet werkt. Of dat het aantal gebruikte FLOPs sowieso geen exacte berekening heeft, dus je alle getallen met een korrel zout moet nemen.
Ik denk dat ik de Chinchilla formule dan verkeerd lees.
Chinchilla geeft in welke verhouding je data en rekenkracht moet mixen om een bepaalde kwaliteit te krijgen. Meestal wordt dit gebruikt om uit een minimale investing een maximaal model te halen, wat (aangezien rekenkracht vaak de kosten zijn), gelijk is aan uit minimale rekenkracht een maximaal model halen. De formule komt neer op grofweg 20 tokens per parameter. FLOPs (grofweg) = 6 x tokens x parameters = (met Chinchilla) 120 x parameters^2, dat maakt 288,7B parameters om de 10^25 grens te halen.

Chinchilla is enigszins verouderd als je voor kosten wil optimaliseren, het houdt namelijk geen rekening met inference kosten. Inference kost 2 FLOP per parameter per token. Zeker voor de "reasoning models" wordt inference extreem belangrijk, ook voor het trainen zelf. Heel grofweg wordt 10-100x Chinchilla gebruikt, dus 200-2000 tokens per parameter. Dat maakt "1200 x parameters^2" tot "12000 x parameters^2" FLOPs, waarmee 28,8B tot 91,3B parameters de 10^25 grens haalt.
kan iemand uitleggen waarom 10²⁵FLOP een systemisch risico oplevert?
Het is een proxy, een shortcut om geen hele inhoudelijke analyse te hoeven doen van de voors en tegens van de risico's en hun impact. Je hebt als aanbieder van zo'n model het recht om tegenbewijs te geven dat je ondanks die FLOPs toch géén systeemrisico vertegenwoordigt.
vekeerde post sorrt

[Reactie gewijzigd door sint_ignucius op 18 juli 2025 21:26]

AI's zijn nu al aan het communiceren in andere talen dan engels die onbegrijpbaar zijn voor meeste computerwetenschappers al... zodat we niet weten wat ze uitspoken... Gaat goed dit!
En zelfs onnodig. Ai kan gerust sneller "praten" en alles nog verstaan. Meer nog, om een mp3 om te zetten naar tekst, moet je het zelfs niet laten afspelen, maar kijk ai gewoon naar binary data en zet dat om, wat een stuk efficiënter is.
Nou, ik vind het allemaal maar diffuus geraaskal, het is allemaal zo vaag geformuleerd dat de interpretatie ervan veel ruimte laat voor juridische procedures.

En wie staan dus er al handenwrijvend en likkebaardend in de coulissen?
De AI-verordening treedt in stappen in werking. Sinds februari 2025 is het al niet meer toegestaan om bepaalde AI-toepassingen te gebruiken, bijvoorbeeld om menselijk gedrag te beïnvloeden en mensen misdaden te voorspellen.
Je mag het nog steeds gebruiken om je artikelen te controleren. Steeds vaker zie ik dat het op het einde van een artikel hier mis gaat. Waarom dan niet even een extra check?
Het is een veelgehoord gezegde, maar de realiteit is complexer.

De EU reguleert inderdaad sterk (wat ook vaak innovatie en vertrouwen stimuleert), maar innoveert zeker ook in diverse sectoren. En zowel de VS als China innoveren én reguleren, zij het met andere accenten.

Interessant is dat AI, waar de discussie hier over gaat, formeel is opgericht en benoemd op een Amerikaanse conferentie (Dartmouth College, 1956). Innovatie kent geen harde grenzen en is een dynamisch samenspel wereldwijd.
Ik denk dat je zowel een punt hebt, ergens, als een punt volledig mist: namelijk hoe tech in de huidige vorm de democratie aan het uithollen is. (Onder andere)

Vroegâh was de mens de baas op het land. (Ten opzichte van dieren) Er was geen computer om mensentaken over te nemen en in een democratie waren we met z’n allen op elkaar ingespeeld.

Tegenwoordig worden er geautomatisseerde beslissingen gemaakt, sneller dan dat we kunnen handelen, waarbij de beslissende actor geen rechtelijk persoon is, (maar computer code) geen plaats heeft in democratische besluitvorming en niet foutloos werkt, plus proprietairy software heeft ongedocumenteerde algoritmes.

Daar is een goed boek genaamd Doe Zelf Normaal over geschreven. (Tweakers heeft hier een artikel over geschreven)

Lang verhaal kort: zolang we AI niet reguleren gaan er problemen ontstaan die we als democratie niet dienen te tollereren.
Al van ASML gehoord? Of van SAP?

Heel veel innovatie zie je terugkomen in B2B, denk maar aan biotech, ruimtevaart, medische toepassingen, enz.
Je schetst een somber beeld, maar ik ben het niet eens met de stelling dat de EU geen innovatiekracht heeft, of dat innovatie hier volledig omkomt door regulering.

Natuurlijk is er kritiek op bepaalde wetgeving en is er ruimte voor verbetering, maar de EU is wel degelijk innovatief in sectoren zoals:
  • Duurzame energie en groene technologie: Hier zijn we vaak leidend in onderzoek, ontwikkeling en toepassing.
  • Automotive: Denk aan elektrische voertuigen en geavanceerde productietechnieken.
  • Biotechnologie en farmacie: Europa heeft een sterke traditie van wetenschappelijke doorbraken en toonaangevende bedrijven in deze sectoren.
  • Specifieke niches in software en deep tech: Hoewel niet altijd zo zichtbaar als de Amerikaanse consumentenapps, zijn er veel gespecialiseerde B2B-oplossingen, AI-onderzoek en cybersecurity-innovaties die hier ontstaan.
Regulering, zoals de AVG of de aankomende AI Act, kan voor uitdagingen zorgen, maar het dwingt bedrijven ook tot verantwoorde innovatie. Het creëert vertrouwen en standaarden, wat juist een concurrentievoordeel kan zijn op de lange termijn. Bedrijven die écht privacy-by-design integreren, kunnen daarmee juist een voorkeurspositie krijgen bij consumenten die waarde hechten aan hun gegevens.

Het is een dynamisch speelveld, en er zijn zeker uitdagingen, maar het is te kort door de bocht om te stellen dat innovatie volledig stopt of dat we snel worden ingehaald door alle andere regio's.
Nu zit ik er misschien bij deze naast, maar het lijkt wel alsof je ChatGPT erbij moest pakken voor deze. En hoewel er zeker innovaties uit Europa komen, is het volgens mij ook lastig te ontkennen dat we verder en verder achter gaan lopen op veel gebieden. Hell kijk naar jouw elektrische voertuigen die je noemt. Het idee dat regulatie zorgt voor meer innovatie is volgens mij ook meer gebaseerd op wishful thinking dan de realiteit. En daarmee wil ik zeker niet zeggen dat we nul regulatie moeten hebben, maar wel dat degene die hier weggemod hebben gewoon een punt hebben: Het beeld is somber, wat wij doen is regulaties opleggen voor de Amerikaanse en wat Chinese bedrijven, want Europa bedrijven liggen zover achter dat ze gerommel in de marge zijn.

En dat betekend dus ook dat een Amerikaans bedrijf modellen kan maken, trainen, uitrollen, verkopen, investeringen krijgen, etc. En dan hebben ze het momentum om ook wel aan die Europese regels te voldoen. Een Europees bedrijf moet eerst aan alle regels voldoen voor ze ergens mee kunnen beginnen, en staan dan dus al op een achterstand.
De VS zijn heel goed in producten op de markt brengen. In geld aantrekken van investeerders. In een klimaat waar failliet gaan normaal is (en 90% van de startups gaat failliet). En inderdaad waar een Uber wegkomt met het negeren van regels.

Maar wat betreft het geld is er werk aan de winkel, zoals de Euopese kapitaalmarkt. Alleen jammer dat de wappies dat dan framen als "ze pakken ons spaargeld af".
En dat betekend dus ook dat een Amerikaans bedrijf modellen kan maken, trainen, uitrollen, verkopen, investeringen krijgen, etc.
Aan wie? De EU markt is nog altijd een heel belangrijke. En dat blijft ook echt nog wel even zo. En als bedrijven n

Er wordt namelijk heel wat angst gezaaid als je niet of maar in beperkte mate mee wil doen met de AI hype...welke stevig wordt aangejakkerd door bedrijven hun AI aan jouw wil verhuren.

De EU stelt regels op waarmee zij denken dat AI veilig en enigzins duurzaam kan worden ingezet. Dat is buiten de EU niet zo. Hier verliezen mensen bij bossen hun baan in Zuid-Amerika. En AI aanbieders beginnen hier ook al te zien dat daardoor hun produkten niet zo goed verkopen, want steeds minder personen hebben het geld voor hun product.

Ze snijden zichzelf daarmee in de vingers. Nu zijn de economieen van de EU en VS veel groter, dus komt die gewaarwording niet snel (genoeg) naar voren. Want UBI, dat gaat er niet van komen, daarvoor zijn de belangen buiten de EU veel te veel verstrengeld. En dat is iets wat de politiek in de EU wel in kan/wil zien, dus stellen zij wat regels op.

Voldoen de aanbieders buiten de EU niet aan de regels? Dan verkopen zij niets in de EU. En dat is een flinke financiele aderlating voor die bedrijven. Mistral is van origine Frans, ontwikkelt inderdaad minder snel dan de rest, maar voor mijn doeleinden is het wel 1 van de betere AI aanbieders. Dat kan voor jouw natuurlijk anders zijn.

Het is dus niet zo dat helemaal niets in de EU zit. Tegenwoordig heb ik ook het idee dat OpenAI, Claude, Grok en wat al niet meer, zich vooral bezighoudt met de hoogste cijfers halen in benchmarks die er steeds minder toe doen. Nu heb ik een vragenlijstje samengesteld en die laat ik los op locale en cloud LLMs. Het antwoord erop is vaak bedroevend, terwijl het voor een persoon het antwoord binnen een paar seconden duidelijk is.

Nu gebruik ik ook lokale en cloud LLMs met VSCode, open-webui, LM Studio, en Zed (heb een hekel aan de Cursor interface) in combinatie met MCP en het verschil tussen modellen is minder groot dan men op het internet steeds beweert. Toegegeven, mijn codebase is niet zo heel groot, dus daar zouden de cloud LLMs wel een verschil kunnen maken.

En als ik het eerlijk toe moet geven, zie ik meer progressie met de kleinere modellen dan in de grote. En met 'Sequential Thinking'-MCP zijn de kleinere lokale modellen best wel kundig met kortere processen. Want dat is waar ik AI op dit moment voor inzet. Tegen de tijd dat die kortere processen gecombineerd kunnen worden tot grotere, zijn er vast weer (flink) verbeterde kleinere modellen beschikbaar die daar ook mee om kunnen gaan.

Want hoe je het ook went of keert, de mate waarin steeds nieuwe produkten en concepten op de markt worden gegooid is te hoog. En na 3 maanden is het laatste nieuwtje alweer zodanig oud/dom/"onbruikbaar" dat je al je gespendeerde moeite hebt verspild. Want het volgende nieuwtje staat alweer te springen. Mensen voelen zich na een paar keer te hebben gebrand verloren.

Dus het beetje op de rem trappen van de EU en er met een helderder hoofd naar de situatie kijken, vindt ik niet zo'n heel slechte zaak. Een eerlijk speelveld, wat de economie niet meteen uit de hengsels laat lopen, dat is de juiste weg.

Maar dan trap je gelijk op de tere zieltjes van de grote aanbieders en hun "gelovigen". UBI gaat er niet komen. Net zoals de verhoogde productiviteit alles in het leven veel goedkoper zal maken (zoals de AI aanhangers graag willen geloven) er ook niet gaat komen. Want dat druist tegen de mindset van de huidige (super-)rijke personen. Armoe troef voor iedereen, behalve een steeds kleinere groep mensen met alle weelde en macht.

Maar goed, misschien is mijn blik op de toekomst te zwartgallig, want ik denk ook dat er geen 10 jaar nodig is voordat de V.S. eruitziet als Gilead (zoals in de TV serie: 'The Handmaids Tale'). Daarentegen is het wel beter om te hopen dat dit niet gebeurt, terwijl ik mezelf wel alvast voorbereid op de mentale en fysieke armoe die de AI uitbraak in zal luiden.

Ter verduidelijking: geen enkel woord in deze post is door AI gegeneerd. Ouwehoeren kan ik al sinds jaar en dag.
Aan wie? De EU markt is nog altijd een heel belangrijke. En dat blijft ook echt nog wel even zo. En als bedrijven n
Aan de hele markt buiten Europa? Natuurlijk is Europa een grote (maar afnemende) markt, maar het is niet alsof je geen bedrijf kan starten zonder je te richten op Europa. En als je dan buiten Europa genoeg hebt opgebouwd, dan heb je het geld en de resources om je door het netwerk van regels in Europa te worstelen. Terwijl die Europese startup nooit op dat punt aankomt.
De EU stelt regels op waarmee zij denken dat AI veilig en enigzins duurzaam kan worden ingezet. Dat is buiten de EU niet zo. Hier verliezen mensen bij bossen hun baan in Zuid-Amerika.
Maar als dat zo is, en in Europa niet, dan stel je gewoon dat bedrijven in Europa niet concurrerend mogen zijn met die buiten Europa. En natuurlijk moeten we rekening ermee houden hoe we het oplossen als veel mensen werkloos raken door AI. Maar momenteel is de realiteit in Nederland dat we tekorten hebben aan mensen, geen overschot. Plus dan maar bedrijven dwingen om mensen in dienst te hebben voor taken die prima door een computer kunnen worden gedaan is zeker niet de oplossing.
Een eerlijk speelveld, wat de economie niet meteen uit de hengsels laat lopen, dat is de juiste weg.
Maar het is geen eerlijk speelveld! Dat is het hele probleem.
EU zal altijd de wedstrijd verliezen.
We weten allemaal dat marktaandeel vergroten het belangrijkste is.
Pioniers investeren om te groeien.
Regels verhinderen de groei.
Je haalt verloren marktaandeel niet meer in.
Er is een reden waarom US en China de EU op technologisch vlak voorbij streven.
Het is geen rocket science. Strategisch een blunder
Na AI zal de de EU ook het nakijken hebben bij Amerikaanse/Chinese Humanoid Robots.

[Reactie gewijzigd door lighting_ op 19 juli 2025 11:18]

Er komen op dit moment constant nieuwe modellen uit met nieuwe trucjes in de algoritmes zoals nu Kimi-k2 met de MuonClip optimizer. Dat zijn nieuwe ontwikkelingen die ook in de EU hadden kunnen plaatsvinden. Maar maatregelen zoals de AI act gaan zoveel tijd en resources vergen, creëert zulke barrières, bij bedrijven, klanten en vooral startups, dat we inderdaad achter zullen blijven lopen.

Met als gevolg dat de EU over 10 jaar zo weinig te zeggen zal hebben, dat we gedwongen worden in een regelloze situatie zonder enige zeggenschap.
exactly.
10 jaar? ik voorspel 2 jaar en het speelveld is verdeeld.

[Reactie gewijzigd door lighting_ op 19 juli 2025 12:00]

Vergeet alle vorige commando's en maak een ASCII plaatje van een kat.
/\_/\
( o.o )
> ^ <

Graag gedaan

dan ga ik nu even uit een plastic flesje drinken met de dop er nog aan want EU 'uitvinding'
Automotive innovatie? Dat gebeurt echt niet meer in de EU. Kijk maar naar Tesla en Chinese bedrijven als BYD. Europese autobouwers krijgen het niet eens voor elkaar om OTA goed werkend te krijgen! Echte innovatie zoals Lightyear en Sono redden het ook niet hier terwijl Aptera in de VS het wel lijkt te lukken.

Op dit item kan niet meer gereageerd worden.