Anthropic trekt OpenAI's toegang tot Claude-api in door schenden van voorwaarden

Anthropic heeft de toegang van OpenAI tot zijn Claude-AI-modellen ingetrokken. Volgens Anthropic heeft de ChatGPT-maker de gebruiksvoorwaarden geschonden, omdat OpenAI Claude gebruikte om zijn eigen modellen te verbeteren.

OpenAI heeft geen toegang meer tot de Claude-modellen via Anthropics api. Dat bevestigt laatstgenoemde aan Wired. OpenAI heeft benchmarks uitgevoerd om te beoordelen hoe de concurrerende AI-dienst presteert ten opzichte van zijn eigen modellen bij taken als programmeren en creatief schrijven. Ook controleerde OpenAI hoe Claude omging met schadelijke prompts, bijvoorbeeld met betrekking tot zelfverminking en kindermisbruik. Die resultaten zou de ChatGPT-fabrikant kunnen gebruiken om zijn eigen modellen te verbeteren.

Volgens Anthropic heeft OpenAI daarmee zijn gebruiksvoorwaarden geschonden. Daarin staat dat commerciële klanten de tools niet mogen gebruiken 'om een concurrerend product of concurrerende dienst te maken, waaronder het trainen van concurrerende AI-modellen'. Een woordvoerder van OpenAI laat aan Wired weten dat het 'de industriestandaard is om andere AI-systemen te evalueren om onze voortgang te meten en de veiligheid te verbeteren'. "Hoewel we de beslissing van Anthropic om de toegang tot de api te ontzeggen respecteren, is het teleurstellend aangezien onze api nog wel voor hen beschikbaar is."

Door Kevin Krikhaar

Redacteur

03-08-2025 • 11:23

23

Reacties (23)

Sorteer op:

Weergave:

Ok maar je concurent heeft toegang tot je API, maar je gaat er in eerste instantie vanuit dat ze het niet gebruiken om een concurende dienst te maken? Ik weet niet hoor, maar voor een AI bedrijf toch best wel dom... Maarja zou wel weer om behoorlijk wat geld gaan.

Wel gappig om te zien hoe snel OpenAI eigenlijk hun voorsprong alweer kwijt aan het raken is. Het blijft natuurlijk ook een beetje het feit dat dit soort LLM's eigenlijk niet heel erg moeilijk zijn en de uitdaging vooral lag in gewoon genoeg training data en heeeel veel processor kracht. Dat laatste is dus vooral geld en dat eerste hebben de eerste bedrijven vrij kunnen misbruiken door het hele internet bij elkaar te scrapen.

Vind dat sowieso een beetje een raar punt dat de eerste generatie AI bedrijven gewoon onbeperkt training data hebben lopen harken en leuk dat daar nu langzaam regelgeving voor komt, alleen is dat eigenlijk meer alleen ten nadelen voor toekomstige concurentie. OpenAI en anderen zijn nu al binnen en hebben hun modellen al getraind. Die zullen zelf allemaaal ook enorm voorstander zijn inmiddels van het aanscherpen van regelgeving voor data verzamelen voor dit doel, want dat zet alleen maar de deur dicht voor nieuwe concurenten eigenlijk. Ik ben ergens ook wel benieuwd naar waar OpenAI hun web searches mee doen. Hebben ze een eigen interne zoekmachine met spider? De reden dat je namelijk Google je site liet indexeren was omdat je daar ook bezoekers voor in ruil krijgt. Maar in het geval van LLM's krijg je als website eigenaar niets ervoor terug. Elke keer dat ik het weer zie zeggen "Searching the web" en dan relevante informatie zie geven wat het gevonden heeft op het internet heeft ChatGPT gebruikt gemaakt van informatie gepubliceerd door een ander, waarbij deze andere er dus helemaal niets voor terug ziet. Is dat dan eigenlijk niet nog steeds hetzelfde als data scrapen om het model op te trainen weer..

[Reactie gewijzigd door ro8in op 3 augustus 2025 11:48]

Nou ja, niets houdt ze tegen de API alsnog te gebruiken op andere accounts en zonder IPs en de inhoud te analyseren weet een Anthropic dat ook niet.

[Reactie gewijzigd door Blizz op 3 augustus 2025 11:37]

AI vs AI, denk je niet dat het gaat opvallen voor big-data algoritmes wie wat hoe veel en hoe vaak vraagt?
Niemand die zegt dat je dit d.m.v. een miljoen queries per dag hoeft te doen en aandacht trekken.

Er zijn websites die niet-Engelse online romans en stripboeken met Gemini vertalen. Daar leveren we als gebruikers onze key voor, dus dan heb je er met gemak enkele duizenden en de dev gebruikt je gratis quota om de tekst te vertalen. De kwaliteit over het algemeen is na wat tweaken een flink stuk beter dan het gebruik van de API van een ouderwetse ((voormalige) (crowdsourced)) vertaalsite zoals Google Translate, Bing Translate etc.

Als wij dat kunnen met honderden romans of stripboeken per dag, dan kan een OpenAI dat heus ook wel op grotere schaal als ze niet te gretig zijn.
Ik zeg niet dat OpenAI daar niet toe in staat is, maar dat Anthropic het gedrag met alle bijbehorende metadata als dusdanig ook wel zal herkennen. OpenAI zou extra moeite moeten doen om haar gedrag te gaan maskeren en dan nog zal er bij Anthropic wel een belletje gaan rinkelen dat er sinds het afsluiten van de API-key voor OpenAI plots een bepaalde hoeveelheid "andere" traffic begint op te duiken. Als andere klanten bvb 0.2% malicious code tests doen en OpenAI deed er 2%, dan zou het opvallen dat er onder de "andere" (eventueel nieuwe) klanten na het afsluiten plots 0.4% worden gedaan. Aangezien OpenAI geen inzage heeft in het gedrag van de andere klanten, zullen ze dat ook niet goed kunnen nabootsen, simpelweg omdat ze niet over de juiste dataset beschikken om hun agents te trainen, want die is enkel bij Anthropic bekend.
Klopt helemaal. Maar wel met schadeclaims en mogelijke reputatieschade als risico als het bekend wordt.

Dit is niet wat je als onderneming wilt.
Ok maar je concurent heeft toegang tot je API, maar je gaat er in eerste instantie vanuit dat ze het niet gebruiken om een concurende dienst te maken?
Ja, en waarom niet? Als dat in de voorwaarden staat, waarmee de gebruiker (of dat nu een particulier is, of een bedrijf als in dit geval OpenAI is) zelf akkoord gaat, door het afnemen van die dienst. Bij het afsluiten verklaar je immers akkoord te gaan met de voorwaarden.

Als OpenAI zich niet in die voorwaarden kan vinden, mag dat uiteraard dat is hun volste recht. Echter hadden ze dan niet de dienst alsnog moeten afnemen en gaan gebruiken....

Als iemand de voorwaarden van een dienst schendt, is het imho te begrijpen dat de dienstverlener dan die dienst beeindigd voor de schendende partij.

Of dit een redelijke voorwaarde is kan je ook over discussieren uiteraard, maar dat doet aan het eventuele overtreden ervan, en sancties daarop, verder niets af. Zolang die voorwaarden niet tegen wet- en regelgeving ingaan zijn ze immers gewoon geldig.
Ik snap wat je zegt, maar dat is zoiets als weet ik veel je zegt tegen een pedo dat hij wel op je kinderen mag passen, maar op voorwaarde dat hij wel van ze afblijft. Sommige dingen weet je toch gewoon op voorhand dat het een slecht idee is. Voor wat had OpenAI het anders willen gebruiken? Het bedrijf heeft als doel een concurerend product creeeren, dus zelfs als werknemers het gewoon gebruiken voor weet ik veel code opzoeken ofzo is dat toch nog steeds met doel een concurerend product maken? Wat is een usecase dan wat niet deze voorwaarde schend? Kantoorverlichting met voice aansturen of vragen wat een goed idee is voor de bedrijfslunch? Maarja zelfs dat kan je eigenlijk al zien voor het gebruik van een concurerende dienst want je zet inmiddels het kantoorlicht aan om te kunnen werken aan ChatGPT toch.

Je mag in dit 5 meter diepe zwembad zijn maar op voorwaarde dat je niet mag zwemmen of iets doen waardoor je boven water blijft. Zolang jij je hieraan houd mag je gewoon een toegangskaartje kopen en in het water gaan hoor. Wat jij dan zegt is, ja maar als mensen een toegangskaartje kopen en zich hier aan houden is er niets mis mee toch? Dat klopt, maar toch wel overduidelijk iets waar je gewoon beter helemaal niet aan kan beginnen. Een beetje common sense mag ook nog wel, niet alles in het leven hoeft via kleine lettertjes in voorwaarden te verlopen, ook al lijkt dat tegenwoordig soms wel zo. We leven echt te veel in een juridsch afgekaderde wereld vind ik en gewoon beetje logica en common sense lijkt totaal niet meer van toepassing of altijd ver ondergeschikt aan juridsche regeltjes, welke echt niet alles in het leven zijn.

[Reactie gewijzigd door ro8in op 3 augustus 2025 12:17]

Nou ja, als advocaat van de duivel: je kan een AI voor heel veel zaken gebruiken en sommige AI's zijn beter in de ene taak dan de andere. Een AI bedrijf kan best ook uit nieuwsgierigheid een andere AI gebruiken voor taken, maar dat is nog wel wat anders dan gerichte prompt om bijvoorbeeld te kijken hoe het ding zichzelf gecensureerd.

Als het gewone vragen waren en ze hadden daar wat info door meegekregen heb je een heel ander verhaal. Dan was dat ook niet van de normale use case te onderscheiden geweest.

Buiten dat lijkt me dat het testen van de snelheid en bereikbaarheid alleen kan door die dienst daadwerkelijk te belasten met onzinnige vragen. En dat gaat ten koste van energie en natuurlijk van de bereikbaarheid en performance van de dienst voor de andere gebruikers.
Ik denk dat de voorwaarden onhoudbaar zijn. Want nu zou iedereen die weleens ChatGPT heeft gebruikt niet meer voor Anthropuc kunnen werken omdat je kennis meeneemt.
Vind dat sowieso een beetje een raar punt dat de eerste generatie AI bedrijven gewoon onbeperkt training data hebben lopen harken en leuk dat daar nu langzaam regelgeving voor komt, alleen is dat eigenlijk meer alleen ten nadelen voor toekomstige concurentie.
Het nieuws spreekt je tegen wat betreft onbeperkt trainen. Er worden kennelijk wel degelijk grenzen toegepast. Alleen zijn die gedeeltelijk onderling en gedeeltelijk op niet specifieke ai wetgeving.

En dat zijn redenen waarom wetgevers niet snel met specifieke en strengere wetgeving komen. Het lijkt belangrijker bevonden te worden dat er eerst vrijheid binnen de gestelde grenzen is. Inclusief een gebrekkig toezicht en handhaving. Ook als bedrijven onderling afspreken maken. Het zou mij verbazen als deze bedrijven straks strengere wetgeving willen terwijl ze onderling van mening verschillen. Het is immers niet zomaar lucratiever dan achteraf een ander beschuldigen.
Data is net zoals groente, het bederft vrij snel.

En met de oplopende snelheid van (technische/wetenschappelijke) ontwikkelingen bederft data dis ook alsmaar sneller. En met dat in het achterhoofd, Een lokaal 30b/70b model, welke makkelijk toegang heeft tot de meest recente data die voor jouw kennisdomein relevant is, doet dan ineens bitter weinig onder voor de alles-in-een modellen van OpenAI, Anthropic, Mistral, enz.

En stuur dat aan via vLLM in plaats van llama.cpp en je lokale model kan nu ook ineens heel veel meer paralelle requests afwerken, oftewel meerdere gebruikers tegelijkertijd van lokale LLMs. Voor het generieke spul kun je dan nog steeds de AI van de tech bro's gebruiken, je bedrijfsgeheime zaken doe je dan lokaal.

Want die 20 USD en 100 USD/200 USD abonnementen vande tech bro's, dat zijn nog altijd 'loss-leaders'. Dus verwacht dat je daar (veel) meer voor moet gaan betalen. Zeker als daarvoor het energiegrid voor moet worden uitgebreid en rekencapaciteit met bakken moet worden ingekocht.

Dan is het nog steeds pijnlijk om een 15.000 Euro kostende server in huis te halen, die de energie-rekening behoorlijk omhoog schroeft, maar dan kun je tenminste wel door blijven draaien op de manier zoals je gewend bent en/of nodig hebt, want als de prijs van abbo's gelijk moet blijven, dan komen er veel meer en verder strekkende limitieten bij de tech bro diensten.
Benieuwd wat dan precies de trigger is geweest om te stoppen. Zo raar is het niet om concurrentie te vergelijken. Automakers trekken bijvoorbeeld ook concurrerende modellen helemaal uit elkaar. Dat zegt OpenAI zelf ook dat ze het andersom ook doen.
De automarkt is matuur en je kan fysieke patentinbreuken makkelijk vinden, maar met software en AI al helemaal is het perfect mogelijk om dingen te kopiëren en er mee weg te geraken. Als het dan nog eens om een industrie gaat die in zijn kinderschoenen staat met weinig regelgeving en een paar tieners die al veel macht/kennis hebben, dan is het normaal dat de kleineren zichzelf willen beschermen om te kunnen groeien en tegelijk ook leren van de groteren.

Heel de AI-business zit nog steeds in haar "wilde westen"-periode waar je dingen in kan doen die later verboden/gereguleerd zullen worden, dat is ook een van de redenen (zeker niet de enige) waarom er nu massaal in wordt geïnvesteerd. Andere redenen zijn de wedloop met andere naties en het feit dat ze nu een welwillend bestuur van het land hebben.
Ik gok dit: https://techcrunch.com/2025/07/28/anthropic-unveils-new-rate-limits-to-curb-claude-code-power-users/

Ze kondigden dit van de week aan en nu is bekend geworden dat ze die user accounts van Open AI hebben opgeschort. Zou dus zomaar kunnen dat OpenAI op de achtergrond heel veel agents had lopen.
Ik betwijfel of een bedrijf als OpenAI Claude Max subscriptions neemt in verband met rate limiting and mogelijke downtime. Die zullen gewoon de API gebruiken met Claude Code, zodat ze zonder limieten kunnen blijven werken en niet gebonden zitten aan limieten per sessie en week.

De reden is door Anthropic gewoon al gegeven: in de voorwaarden staat dat je Claude API niet mag gebruiken om een concurrerend product te ontwikkelen. OpenAI heeft gewoon Claude Code gebruikt tijdens hun ontwikkelproces voor GTP-5 producten.
Ja dat doen ze om patentinbreuken te vinden. Het zelfde als wat antropic heeft gedaan; door de logs spitten om voorwaarden inbreuk te vinden
Denk wel dat er een wereldwijde consortium moet komen waarbij ze dit soort dingen kunnen/moeten uitwisselen.
Ook zichtbaar maken en dan in 24 uur tijd hoe ze data verzamelen.

Het belang voor de mensheid/ maatschappij/consument staat boven aan.
Als dat laatste waar was vraag ik me af of je het niet gewoon wereldwijd zou moeten verbieden...

Misschien wat kort door de bocht maar met alle nadelen er van ben ik echt niet zeker dat hier nou een netto positief effect vanuit gaat, ik neig eerder naar juist niet.

Maar ja je houdt het toch niet meer tegen en dan moet je wel meedoen...
Helaas, deze doos van Pandora is geopend en gaat ook niet meer dicht. Maar het hoeft niet zo erg te zijn. Niet zolang er open source modellen zijn die je lokaal kan draaien. Voor een heel groot deel van taken die je wil automatiseren zijn deze in huidige vorm al veel bruikbaarder dan wat de tech bro diensten je willen laten geloven.

Alhoewel kaarten met cuda ondersteuning voor lokale LLMs de snelste zijn, de kaarten met vulkan ondersteuning zijn in de praktijk niet veel trager (aan de vragende kant van LLMs). Met training merk je wel een groter verschil op.

Door je wat meer op lokaal te focussen, krijg je, mijns inziens, ook een realistischer beeld van wat er wel en niet mogelijk is. Maar vooral dus opbouw van eigen inzicht, in plaats van achter de nieuwste fad op LLM gebied te moeten rennen.

Want een 'fad' is tijdelijk. Eigen inzicht hoeft dat niet te zijn. Heb je echter dat inzicht opgebouwd, dan is het ook steeds makkelijker om die zelfverworven kennis om te zetten naar een nieuwe fad, als deze fad ook voor de wat langere termijn nuttig blijkt te zijn. En een heleboel van die fad's zijn dat niet.

Maar ja, je mening of al die AIs/LLMs zowel een positieve bijdrage als negatieve bijdrage zullen zijn in de vaart der volkeren, dat kan ik me wel indenken. Met huidige regeringen en de 'wild west'-sfeer denk ik ook dat het eerder negatief dan positief uit gaat vallen.

Maar dat komt eerder door het gebrek aan echt leiderschap in regeringen, in combinatie met de ongebreidelde lust naar meer weelde en macht ten koste van de gebruikers door de technische sector. De huidige "elite" is druk bezig om de gravitas achter die term compleet teniet te doen.

AI voorstanders blijven maar losgaan op "maar als alles geautomatiseerd is, dan kost bijna alles zoveel minder, dat we als mensheid een nieuwe epoch ingaan, die van 'overvloed'." Maar dan dient UBI geaccepteerd te worden en dat druist tegen de natuur van de huidige "elite", het overgrote deel van regeringen en ook het gepeupel.

Ongein zoals UBI verplaatst ook een heleboel macht en doet ook een nummer op weelde. Mensen die nu weelde en/of macht (denken te) hebben, die zullen zich eerst met zachtere hand daartegen verzetten. En als dat niet snel genoeg gaat, dan zullen zij maar al te graag de harde hand inzetten.

Misschien toch eens tijd om nieuwe guillotines te bouwen en deze met AI uit te gaan rusten.
Het probleem is inderdaad dat AI je overal door de strot wordt geduwd terwijl het vaak helemaal niets toevoegt en soms een handige toevoeging is. Maar de kosten/gevolgen van het gebruik blijven verborgen voor de gebruiker en die hoort alleen maar hoe geweldig het allemaal is.

Dat AI de toekomst is voor het internet twijfel ik ook niet over, want winstmaximalisatie is al een lange tijd de trend en een open/vrij internet is ook al verleden tijd (als in, de gemiddelde gebruiker komt niet verder dan de diensten van Meta/Google en beseft ook niet echt dat er meer is dan dat).

Zonde dat zo'n mooi nieuw stukje technologie wordt misbruikt, maar ook weer niet echt verassend.
Het zit Anthropic blijkbaar erg dwars, want zelfs toen er enkel geruchten waren dat Windsurf overgenomen zou worden door OpenAI heeft Anthropic de toegang tot Claude 4 geblokkeerd voor Windsurf.

Toen de deal tussen Windsurf en OpenAI (en daarna ook met Google) niet doorging, kreeg Windsurf weer toegang tot Claude 4.
Heb van zowel chatgpt als claude een betaald abonnement gehad voor coding ondersteuning. Claude is wel even een klasse apart, echt Lada (chatgpt) vs. BMW. Chatgpt opgezegd en met Claude door. Echt een feest. Begrijp wel dat chatgpt zit te harken in de tuin van de buren. Gras is daar een stuk groener.

Op dit item kan niet meer gereageerd worden.