EU wil in AI-producten en -modellen investeren om bedrijfsleven te stimuleren

De Europese Commissie wil in Europese AI-producten en -modellen investeren, zodat belangrijke bedrijfssectoren meer Europese AI gebruiken. Voor het plan maakt de Commissie 1 miljard euro vrij. Daarnaast maakt de EC 3 miljard euro vrij voor onderzoek met en naar AI.

De Europese Commissie spreekt van een Apply AI-strategie die het doel heeft om het gebruik van AI in belangrijke sectoren te stimuleren. Het gaat onder meer om de gezondheid-, farmaceutische, energie-, mobiliteits-, fabrieks-, bouw-, landbouw-, defensie-, communicatie- en cultuursector. De Europese Commissie wil bijvoorbeeld zelf geavanceerde screeningscentra opzetten die met AI werken, of de ontwikkeling van frontier AI-modellen en agentic AI ondersteunen.

De Commissie denkt dat het plan AI-first-beleid stimuleert bij bedrijven, zodat die bedrijven AI vaker gaan zien als onderdeel van de oplossing en het vaker gaan gebruiken. Dit heeft weer voordelen voor de maatschappij, zoals nauwkeurige medische diagnoses en efficiëntere en toegankelijkere diensten.

Naast de Apply AI-strategie kondigt de Commissie een AI in Science-strategie aan. Zo komt er 58 miljoen euro beschikbaar om talentvolle AI-wetenschappers te trainen en te behouden, komt er 600 miljoen euro vrij om te investeren in AI-computerkracht voor de wetenschap en verdubbelt de Commissie de jaarlijkse Horizon Europe-AI-investeringen tot ruim 3 miljard euro. De Commissie hoopt dat deze plannen bijdragen aan de wens om een wereldwijde leider te zijn op AI-vlak en te voorkomen dat Europa te afhankelijk wordt van andere werelddelen.

Door Hayte Hugo

Redacteur

08-10-2025 • 13:10

50

Submitter: Anonymoussaurus

Reacties (50)

Sorteer op:

Weergave:

Dat wordt dus weer een paar extra datacenters in Nederland erbij. Ruimte zat hier en stroom in overvloed. En het is goed voor de werkgelegenheid.

Ik zie alleen maar voordelen.
AI is leuk en prachtig, alleen 2/3 van de bedrijven die er zwaar op hebben ingezet als personeel vervanger, zijn de klok weer aan het terugdraaien, omdat AI-hallucinaties een echt en fundamenteel ding is, dat iig niet verdwijnt, en zolang er geen nieuwe doorbraken zijn.

En zolang dat niet gefixt wordt, heb je nog steeds net zoveel mensen nodig om de AI fouten te vinden en fixen, en is voor nu AI gedoomd ook weer een bubbel te worden.

Dus imho is zwaar inzetten op AI voor de meeste taken een dead-end, AI R&D daarentegen is, denk wel een goed plan, om een niet hallucinerende AI te ontwikkelen.

Edit:
AI Has a Fatal Flaw—And Nobody Can Fix It
AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED <-- daarnaast is er het energieverbruiksprobleem.

[Reactie gewijzigd door player-x op 8 oktober 2025 14:40]

Misschien eens een open model gebruiken lokaal en de system prompt etc strakker zetten.

Ik heb inmiddels meerdere knowledge bases afgeleverd op basis van lokaal LLM/RAG set ups en die zijn prima voor hoe doe ik dit of dat ook alweer vragen van medewerkers.

De truc is vaak context beperking en dedicated set ups per taakgebied. Doordat de grote jongens zoals chatgpt alles proberen te doen via 1 model krijg je soms wazige antwoorden, maar als je het wat compacter maakt en ook gewoon antwoorden verzinnen verbied in een systeem prompt is dat nu al geen ding meer.
Hallucinaties is nu het toverwoord van alle skeptici. Dat merk ik inmiddels ook bij mijn klanten.

Ik los dit nu ook op een RAG - LLM model en die twee samen zijn echt een game changer. En complex genoeg om mij voorlopig nog van werk te voorzien…
Hallucinaties ontstaan eigenlijk omdat LLMs worden getraind om twee dingen combineren; taalbegrip en kennis. Kennis zit er vooral in omdat (sinds de introductie van ChatGPT) de "consument" door had dat je allerlei vragen kon stellen en dan (meestal) een goed antwoord kreeg. Omdat de bedrijven die uiteindelijk grootschalig AI-diensten af willen nemen, ook consumenten in managementfuncties hebben, is het logisch voor bedrijven die een AI-model ontwikkelen om daar zo veel mogelijk kennis in te stoppen.

Wat (denk ik) beter zou werken, is om een LLM vooral te trainen op tekstbegrip en op die manier zo klein/snel mogelijk te maken, en het toegang geven tot een database van (letterlijk) het hele internet (of een steeds beter gecureerde dataset) waarin het dingen op kan zoeken. Het is in ieder geval veel schaalbaarder, want die kleine LLM hoef je in theorie maar één keer te trainen en iedereen kan 'm gebruiken, in plaats van dat elke OpenAI, Meta, Google, Antrophic, etc miljarden uit moet geven aan rekenkracht om elke keer weer een nieuwe versie te ontwikkelen die nét wat beter kennis toe kan passen.

Om het opzoeken van data te versnellen (en de LLM überhaupt van enige kennis te voorzien) zou die dataset dan wel in verschillende stukjes opgehakt moeten worden. Eerst bijvoorbeeld een kleine database met basiskennis (zeg basisschool niveau), dan meer specifieke kennis (zeg middelbare school niveau), dan nog iets meer specifiek (zeg academisch), zodat het met het resultaat van die eerste ~drie zoekopdrachten genoeg kennis heeft vergaard om de juiste zoekopdracht te formuleren voor op de grote dataset. Als het elke stap in een paar milliseconde kan doen (wat praktisch haalbaar moet zijn, als je kijkt naar bestaande open source modellen en hoe snel RAG systemen werken) kan je op je eigen telefoon een "jaar aan menselijk onderzoek" in een paar seconden uit kunnen laten voeren.
Maar dan niet door de normale man/vrouw te gebruiken of hallucineer ik nu?

Dat soort instellingen zijn niet makkelijk en hoe vinden ze de juiste?
Dat is gaaf, maar daarme "vervang" je dan toch geen personeel?
Hallucinatie is een probleem, zeker niet te onderschatten. Maar alleen in een klein deel van de implementatie. Als je nu AI gebruikt in een zakelijke omgeving is dat amper iets waar je over nadenkt.

Feit is dat AI op dit moment al veel mensen werkeloos maakt en dat ik niets weet van banen (buiten de AI ontwikkeling) waar mensen AI fouten vinden en fixen, zoals jij schrijft. Geef daar eens wat voorbeelden van?
Als het om de ontwikkeling van Intelligentie gaat zijn er niet perse meer data centers nodig. Intelligentie gaat over het maken van slimme keuzes, en dat kan ook (juist!) met weinig data. Zo stuiteren alle diersoorten door het leven met weinig data en weinig tijd en weinig processing power en worden er toch intelligente keuzes gemaakt.
Als het om de ontwikkeling van Intelligentie gaat zijn er niet perse meer data centers nodig. Intelligentie gaat over het maken van slimme keuzes,
Maar in het nieuwsbericht gaat het om de ontwikkeling van kunstmatige intelligentie (AI), en dat is in veel gevallen het tegenovergestelde van het ontwikkelen van intelligentie (zonder data centers). Je hebt dus gelijk, maar helaas gaat het hier om AI.

En in dit geval zullen de burocraten en managers Large Language Models bedoelen als ze het over AI hebben, en de belangrijkste use case van LLMs is het tegengaan van echte intelligentie.
Voor het (door)ontwikkelen heb je helemaal geen datacenters nodig, dat is nodig om te trainen en gebruiken.

[Reactie gewijzigd door watercoolertje op 8 oktober 2025 13:42]

waar zie jij het verschil tussen ontwikkelen en trainen voor je?
Voor het (door)ontwikkelen heb je helemaal geen datacenters nodig, dat is nodig om te trainen en gebruiken.
Dat is zo, maar als mijn aanname over LLMs klopt zal er hier en daar toch wat getraind moeten worden. Daarnaast is de invloed van tech lobbyisten in de EU erg groot, en met een groot data center heb je als EU bureaucraat iets tastbaars om te laten zien (plus leuke vakantiefoto's van dat reisje dat je door Microsoft kreeg aangeboden).
AI met menselijke hersencellen gebruiken/verbruiken 1/20000e van de stroom die "normale" AI nodig heeft. Dus ik zie daar zeker wel een toekomst in.
Al zou het 1/200e van het energieverbruik zijn, dan nog is dat wat de EU zou moeten stimuleren.
En voor het klimaat, en voor het grondwaterverbruik etc..
Niet een heel groot bedrag. Hopelijk gaat het wel besteed worden aan daadwerklijke AI en niet aan LLMs, die geen enkele intelligence in zich hebben.

(Nee, ik ben niet "tegen" LLMs, ik kan ze echter niet als intelligent labelen, alleen als kunstmatig. En ja, ook LLMs dienen binnen de invloedsfeer van de EU verder ontwikkeld te worden, maar met een focus op security and protection of data, zodat ze ook veilig gebruikt kunnen worden. Lokaal, containerized en sandboxed zou al heel wat zijn.)

[Reactie gewijzigd door Recursio op 8 oktober 2025 13:20]

Het staat je vrij om andere definities erop na te houden dan de rest van de wereld natuurlijk, maar ik vraag me dan wel af: bestaan er andere algoritmes die je wel als kunstmatige intelligentie zou betitelen? En welke zijn dat dan en waarom?
AI: Artificial Intelligence - Kunstmatige Intelligentie. De kunstmatigheid zie ik als statisticus zeker en ik heb een bescheiden rol op het vlak van computational linguistics mogel spelen met een achtergrond in machine learning. Ik snap best aardig hoe LLMs werken, maar ook waar de grenzen liggen.

Ik mis bij LLMs bijvoorbeeld creativiteit en reflectievermogen. Beide zijn logisch - daar zijn ze niet voor gemaakt. Dat geeft niets, totdat ik ze "intelligent" moet noemen; dat lukt me niet op logische gronden.

Om je vraag te beantwoorden, nee: Ik heb nog geen intelligentie waargenomen in niet-biologische systemen. In biologische systemen is het dan weer ingewikkeld om "algoritmes" te extraheren, omdat breinen zich ontwikkelen in samenspraak met de data die zij moeten verwerken en (een tijdje, soms wel, soms niet bekend hoelang) moeten onthouden. Data, "software" (het "algoritme" in een brein) en "wetware" (een brein, zoals een CPU "hardware" is) zijn alledrie met elkaar verweven. Dat maakt supersnelle en efficiente verwerking mogelijk, en ook het vinden van oplossingen buiten de "bounding box" van de trainingsdata - mensen (en andere diersoorten) zijn goed (voor wat daar voor doorgaat) in het toepassen van geleerde zaken buiten het domein waar die zaken voor geleerd zijn. Dat moet ik wat vandaag de dag voor AI doorgaat nog zien doen.

[Reactie gewijzigd door Recursio op 8 oktober 2025 13:44]

Dat moet ik wat vandaag de dag voor AI doorgaat nog zien doen.
Zoals barefoot al zei: "Het staat je vrij om andere definities erop na te houden dan de rest van de wereld".
Dat klopt, dat staat mij vrij, maar als ik dat hier zou doen is dat nog steeds niet het punt.

Om toch te proberen op je opmerking in te gaan (ik lijk wel een LLM!):

Omgekeerd staat het "de rest van de wereld" vrij om zaken die wel degelijk significant verschillen op een hoop te gooien. Het helpt de discussie echter niet. Niet-intelligente systemen intelligent noemen is daar een voorbeeld van; in het geval van LLMs maakt het dat mensen intelligentie verwachten van samenvattende automata, en daar komen ongelukken van. Laat je je liever diagnosticeren door je arts (die daarbij best LLMs en andere tools zoals explicietere databases kan gebruiken) of door een LLM en daar een prive-kliniek betalen voor het doen van een ingreep die een LLM je "voorschrijft"?

LLMs kunnen heel goed samenvatten, ook overkoepelend over de aangeboden informatie in een prompt heen. Dat is niet verrassend, daar zijn ze voor ontworpen. LLMs kunnen niet intelligent nadenken, hoe graag je ook de fabrikanten met een vrij stevig serieus financieel belang op hun blauwe ogen wil geloven.

Deze bedrijven verkopen een idee waar mensen krampachtig in willen geloven, en dat maakt dat mensen ervoor in de buidel tasten. Dat is niet hetzelfde alsdat hetgeen er verkocht wordt ook de menselijke behoeften invult; kennelijk is het voldoende als mensen denken dat dat zo is zonder dat het waar is.
Daar zijn boeken over volgeschreven. Er zijn heel veel andere AI algoritmes dan LLMs (zie bijvoorbeeld hier een video waarin het gaat om een nuttige AI toepassing die geen LLM gebruikt).

En het is niet @Recursio die een andere definite hanteert, het zijn de grote tech bedrijven en onwetende managers die in de laatste jaren AI gelijk hebben gesteld aan LLM. Dat zijn dezelfde mensen die het over 'algoritme' hebben als ze 'model' bedoelen, die 'crypto' zeggen als ze blockchain bedoelen, en 'exponentieel' als ze 'heel veel' bedoelen.

De taalverarming door kwaadwillende tech marketers en onwetende managers slaagt er overal in om alles steeds dommer te maken, maar dat wil niet zeggen dat we daar allemaal in mee moeten gaan.
Ik weet niet waarom je reageert op een persoonlijke vraag die niet aan jou gesteld was, maar goed, je leest mijn opmerking ook nog eens niet goed. Ik heb AI gestudeerd, dus dat er men meer onder AI schaart dan LLM's was me wel bekend. Maar misschien wou je gewoon even ranten over iets waar het hier niet over ging.
Het is toch duidelijk wat er bedoelt wordt. Recursio hoopt dat het geld besteed wordt aan AGI en niet aan genAI.
Ik wil ook gezonder leven en betere keuzes maken. :)

Benieuwd of dat lukt, maar ik heb helaas geen 1 miljard aan budget (wat nog laag is). Verder benieuwd waar die data en datacenters vandaan komen. De meeste zijn in handen van Google, AWS en Microsoft.. iets waar onze gemeenteraadsleden ontzettend trots op waren.

Maar kennelijk mag je in de politiek beslissingen nemen, en dan achteraf zeggen, dat het zonde is dat er weinig gebeurt binnen de EU.

[Reactie gewijzigd door HollowGamer op 8 oktober 2025 13:16]

"OpenAI has a projected spending of over $8 billion in 2025", en dat is 1 Amerikaanse speler. 58 miljoen om talent hier te houden? De aanwervingsprocedure bij de EU duurt gemiddeld 2 jaar, tegen die tijd hebben zij al lang getekend bij een Amerikaanse speler met een minstens even interessant stock optie programma. En stel dat je dan toch 1 miljoen verdient in de EU, wordt daar direct zoveel van wegbelast dat je van wat overblijft nog steeds geen éénkamerflatje in de hoofdstad kan kopen.
Nu is het wel zo dat stimuleringsgelden niet als "koop"geld maar als stimuleringsgeld worden uitgegeven. Organisaties kopen, en overheden stimuleren dat proces voor een fractie van de kosten om dat koopproces op gang te helpen.
De aanwervingsprocedure bij de EU duurt gemiddeld 2 jaar,
Met overdrijvijvingen is nog nooit een discussie geholpen. De meeste vacatures bij EU organisaties zijn binnen een paar weken voorzien.
Ahzo? voor welke posities mag dat dan wel zijn? Hier een standaardprocedure voor EPSO: https://eu-careers.europa.eu/en/job-opportunities/ict-and-cybersecurity , voor een gewone ICT functie in AD7 (iets boven instapniveau ambtenaar).

Aanmelden voor deelname in november 2024. Examen afleggen in februari 2025. Publicatie van de lijst met geslaagden, december 2025 (dus al meer dan een jaar later). En dat is om op de kandidatenlijst te mogen staan (!!!). Het is enkel de diploma en niveau-check, het eigenlijke solliciteren moet dan nog beginnen.

Dus ik moet je helaas teleurstellen, er gaat vlotjes anderhalf jaar overheen, of twee als je niet eender welke functie wil aannemen en graag wacht tot er een positie vrijkomt die je écht aanspreekt.
Ik ben wel benieuwd waar de data voor de training vandaan gaat komen. Gaat de EU nu de data van de rest van de wereld stelen terwijl ze dus juist tegen waren en andere verplichten om bijvoorbeeld eerst een afmeld optie te maken en boetes geven? Of zouden wij wel netjes omgaan met het verzamelen / betalen voor de data?
Alsof dat echt nodig is, of daar niet op legale manieren omheen te werken is...

Overigens mag er van mij best data 'gestolen' worden van landen die het andersom in ieder geval accepteren, lijkt mij een prima 'ruil'. Dan ligt de keus bij de tegenpartij, wij regelen dan de betaling voor onze data op die manier :)

[Reactie gewijzigd door watercoolertje op 8 oktober 2025 13:50]

De EU lijkt een beetje op Dr. Evil '' four.... BILLION dollars. muahah"
Individuele Amerikaanse bedrijven geven factor 10 en soms factor 100 en meer uit aan AI.

De VS heeft al weer gewonnen.
Geen gladiolen. Game over. Licht uit.
Tenzij de AGI doorbraak er de komende jaren niet komt en de bubbel barst.

OpenAI wordt nu gewaardeerd op 300 miljard dollar. De jaaromzet is nog geen 7 miljard dollar.
Ik had liever gehad dat ze het "waarmee" wat minder belangrijk maken, maar meer op de effectiviteit inzetten. Nu wordt AI nogal als een "silver bullet" ingezet en iedereen die een beetje historisch besef heeft en kritisch kan nadenken weet dat het niet zo werkt.
Hmm het bedrijfsleven moet geen geld maar een paar rot schoppen krijgen.
Ik zal vast bij de minderheid horen, maar ik ben deze AI-hype nu al helemaal moe.
Het moet en zal tegenwoordig overal en zoveel mogelijk worden geïmplementeeerd maar heb zelden een echt nuttig resultaat gezien van het gebruik ervan, los van wat geinige chatGPT interacties en crappy generative AI "content". In mijn dagelijkse werk en privé situatie die 90% achter een scherm plaatsvind is het iig geen toegevoegde waarde.

Niemand die zich zorgen lijkt te maken voor het lange termijn effect van de gigantische bubbel die men maar blijft volpompen met gebakken lucht.
En dan hebben we het nog niet over het feit dat het echt leed veroorzaakt bij mensen die bijvoorbeeld ChatGPT als "therapeut" gebruiken...
Wie weet, misschien gaat het ons ooit echt "helpen". Ik voorzie echter dat die bubbel in de niet zo verre toekomst keihard barst, met alle gevolgen van dien.
Dus de EU pest eerst alle AI bedrijven weg met onnodige regeltjes, en wil nu weer ons belastinggeld uitgeven omdat ze zien dat AI toch wel in opkomst is?

Echt, de clownshow blijft maar doorgaan.


Om te kunnen reageren moet je ingelogd zijn