OpenAI wil nieuwe GPT-versies voorleggen aan onafhankelijke beveiligingsexperts

OpenAI wil dat onafhankelijke experts proberen om misbruik te maken van nog niet uitgebrachte versies van zijn GPT-platform en -diensten om ze zo veiliger te maken. Dat zegt het bedrijf tegen het Britse Hogerhuis.

OpenAI zegt in de reactie aan het Britse Hogerhuis waar The Guardian over schrijft dat het graag wil dat er regels komen om AI-systemen voor release te laten controleren door onafhankelijke experts in red teams. Dat zijn teams van beveiligingsexperts die proberen systemen te kraken, zoals kwaadwillenden dat na release zouden doen. "We vinden het belangrijk dat onze veiligheidsregels extern worden gevalideerd door onafhankelijke experts en dat onze beslissingen ten minste gedeeltelijk worden gebaseerd op onafhankelijke veiligheids- en risicobeoordelingen, zodat we passende maatregelen
kunnen ontwikkelen."

Dat red teaming gebeurt nu alleen intern, maar in veel landen zijn overheden aan het nadenken op welke manier ze AI-systemen willen reguleren. OpenAI geeft geen rechtstreeks antwoord op de vraag hoe groot het bedrijf het risico inschat dat AI een bedreiging zou kunnen zijn voor de mensheid. "Naarmate de mogelijkheden van deze modellen geavanceerder worden, neemt ook de omvang en ernst van de risico's die ze kunnen vormen toe, vooral als ze onder leiding staan van een kwaadwillende of als het model niet goed is afgestemd op menselijke waarden. Het streng meten van de vooruitgang in potentieel gevaarlijke capaciteiten is essentieel voor het effectief beoordelen en beheren van risico's. We pakken dit aan door evaluaties voor potentieel gevaarlijke capaciteiten te onderzoeken en te ontwikkelen, die variëren van eenvoudige, schaalbare en geautomatiseerde tools tot op maat gemaakte, intensieve evaluaties die worden uitgevoerd door menselijke experts."

OpenAI zegt in het document ook dat het trainen van grote taalmodellen het gebruik van auteursrechtelijk beschermd materiaal vereist. "Het beperken van trainingsgegevens tot boeken uit het publieke domein en tekeningen die meer dan een eeuw geleden zijn gemaakt, levert misschien een interessant experiment op, maar zou geen AI-systemen opleveren die voldoen aan de behoeften van hedendaagse burgers."

Door Arnoud Wokke

Redacteur Tweakers

09-01-2024 • 15:13

18

Reacties (18)

Sorteer op:

Weergave:

Ik denk hartstikke goed dat OpenAI dit doet. Maar kwaadwillenden zullen (op termijn) hun heil zoeken in Open (Source) Modellen, die niet gereguleerd zijn. Dan heb je als crimineel, terrorist, hacker of boze burger helemaal geen commercieel AI-platform nodig om kwaad te kunnen doen.
Je zal Open (Source) Modellen wel eerst moeten 'bouwen' en daar zit een flinke kosten post aan vast, wellicht niet echt een issue voor een crimineel die al goed boert of een goed gefinancierde terrorist, maar het geeft zeer zeker extra hoge drempels... En extra hoge drempels is juist wat de meeste mensen tegenhoud van illegale dingen te doen. Waar een wil is is een weg, maar de wil ontbreekt bij velen...
Ik zie dat anders. Je kunt een bestaand open source model pakken, en deze simpelweg aanpassen naar jouw wensen. Dat scheelt aanzienlijk in de kosten en daar zit dus ook het risico op kwaadwillend gebruik.
darkweb zweven de meest bizondere datasets [..]
Eens, maar dat lijkt me geen reden om open source modellen dan maar minder aan te moedigen.
Dat zeg ik ook niet.
Het lijkt interessant en positief, maar als ik het bronartikel lees dan wordt duidelijk waar deze "experts" vandaan moeten gaan komen. Dit zou dan dus moeten gaan komen uit door governments opgezette instituten welke "experts nomineren" die dan de betreffende bedrijven gaan controleren (lees: auditen) op hun technische keuzes.
"Sunak said the testing would be led by new AI safety institutes in the US and UK, with the British body positioning itself as a “global hub” for the multilateral initiative – which does not include the participation of China." (The Guardian; https://www.theguardian.c...nak-says-at-safety-summit)

Wederom dus een nieuwe machine voor dure consultants die grote dure bedrijven gaan vertellen waar ze de regeltjes net niet helemaal gevolgd hebben zodat er een dikke factuur gestuurd kan worden voor het audit-resultaat.
Er wordt dus alles aan gedaan om zoveel mogelijk closed source te houden en de schijn te creeeren dat er "secure" gewerkt wordt. Eindresultaat is dat er niets veiliger wordt, de bedrijven in kwestie kunnen hun gang blijven gaan en vooral de audit/consulting bedrijven er flink rijk van worden.

Op zich wel weer bijzonder dat het geframed wordt als zijnde "OpenAI staat positief tegenover security-controle" alsof dit een positief iets is.

[Reactie gewijzigd door Ryceck op 22 juli 2024 23:22]

Je kunt hier cynisch over zijn en er een soort closed source complot in zien. Natuurlijk zijn er nu enkele grote bedrijven die hier baat bij hebben. Maar A.I. is ook wél echt een bedreiging als grote modellen ongecensureerd toegankelijk zijn. Dat reguleren is geen potentieel schandaal of zo. Er is al heel veel technologie gereguleerd, van auto's tot kernwapens, en ook aan software wordt wel vaker eisen gesteld. Die software kan dan alsnog wel open source zijn, maar als het om A.I. gaat vermoed ik dat ongecensureerde modellen die kinderporno, blueprints van wapens of andere gevaarlijke zaken voor je kunnen genereren aan banden worden gelegd. Dat geeft problemen rondom closed source (of vrije meningsuiting), maar die trade off met veiligheid maken we wel vaker.
Dit is wel een goede manier om beginnende concurrentie de nek om te draaien. Als je straks een AI-model pas uit mag brengen nadat het door een x-tal onafhankelijk/door de overheid aangewezen experts is beoordeeld dan brengt dat enorme kosten met zich mee.

Een voorbeeld uit de praktijk in een ander werkveld; de regels voor het verwijderen van asbest is geschreven door de asbestsector zelf. Natuurlijk zijn zij de experts, maar ze hebben het gevaar wel iets te veel aangedikt. Het is nu bijna onmogelijk om als nieuwkomer nog op de markt te betreden en zelfs consumenten mogen zelf hun eigen asbestdaken niet meer verwijderen terwijl het risico op gezondheidsschade nihil is.
Wellicht moet je je bronnen met voorbeelden eerst zelf even lezen, voordat je ze als voorbeeld gebruikt voor het versterken van je eigen punt:
Gecertificeerd asbestbedrijf verplicht

Ga je een asbestdak verwijderen? Dan moet je een gecertificeerd asbestbedrijf inschakelen als:

Het dak groter is dan 35 m2
Op het dak dakleien liggen
Het gevaarlijk is om het dak zelf te verwijderen, bijvoorbeeld als je asbesthoudend materiaal moet breken
Er ander niet loszittend asbesthoudend materiaal in of om het pand aanwezig is.
Wat bedrijven hier doen is een stukje zelf regulering, er absoluut hier niets verplicht. Veranderd dat in de toekomst? Maybe... Dat doen ze juist om veel zwaardere regulering voor te wezen, dat betekend niet dat die er niet komt, maar de motivatie bij regeringen is direct een heel stuk minder om dat te doen.

Je druk maken over dit onderwerp is je reinste waanzin op dit moment, AI/LLM ligt momenteel op het randje van de afgrond. Afhankelijk van wat de rechtszaken gaan doen, de overheden die wellicht daarna wetgeving gaan aanpassen, zouden AI/LLM wel eens geheel onbruikbaar kunnen maken op legitieme wijze. Niemand heeft momenteel immers het geld wat nodig zou zijn om alle licentie gelden te betalen van de bronnen die ze nu gebruiken.

Als dat echter positief uitvalt in de rechtszaak zouden overheden (via de lobbyisten) alsnog wetten kunnen aanpassen dat het alsnog een onbruikbaar product wordt. Ondertussen kunnen de concurrentie alsnog de zelfregulering negeren...

Bron:
https://www.eigenhuis.nl/...t-wil-laten-verwijderen-7
Er staat duidelijk dat je toestemming van je gemeente moet hebben voor je het mag verwijderen, dus je mag het net zo zelf als autorijden zonder rijbewijs.

Ik weet niet of LLM in de huidige vorm op het randje van de afgrond staat. Tot nu toe kan volgens mij geen enkele rechthebbende bewijzen dat hun data daadwerkelijk is gebruikt. Dat ChatGPT bijvoorbeeld bij genoeg bevragingen een stuk tekst kan tonen dat precies overeenkomt met een bestaand artikel is de kern van het systeem; het is juist de bedoeling dat het precies doet wat je vraagt (al lukt dat vaker niet dan wel). Ik weet dat er voorbeelden zijn waarbij ChatGPT de links naar artikelen output, maar daarvan is het sowieso wel duidelijk dat die niet uit de bron zelf komen maar uit verwijzingen naar die bron.

Verder komen veel wetten voort uit 'afkijken' bij de industrie. Zonder de gordels van Volvo was er geen gordelplicht, zonder het verstrekken van informatie over gevaarlijke stoffen door Amerikaanse bedrijven die deze leverden waren er geen veiligheidsinformatiebladen of gestandaardiseerde iconen op dragers van gevaarlijke stoffen, etc.
Het niveau van ChatGPT is sinds de lancering alleen maar achteruit gegaan. Het is totaal niet meer te gebruiken als assistent bijvoorbeeld bij creatief schrijven, vanwege de steeds verder uitgebreide censuur op de antwoorden. Er komt nu vooral eindeloos hetzelfde uit.
Heb je voorbeelden van die censuur, want ik ben oprecht benieuwd.

Ik gebruik zelf ChatGPT niet voor creatief schrijven, dat doe ik zo veel mogelijk zelf. Maar zo af en toe wat laten samenvatten van mijn eigen schrijfsels mag die wel doen.
Dat ligt aan je prompts :) Als je namelijk meegeeft hoe je de informatie gepresenteerd wil zien, neem je dat mee in de prompt. Zelf heb ik geen ervaring met censuur, ondanks dat ik tientallen prompts per dag inzet.
Ik als hobbyprogrammeur ben nog elke prompt verbaast hoe goed ChatGPT code kan schrijven. En dan werk ik nog op de oude gratis 3.5 versie. Dagen uitzoekwerk wordt verkort tot enkele seconde. Geen eindeloos gestruin op Stackoverflow op zoek naar antwoorden. Het is alsof je je eigen wizkid stagiaire hebt met een oneindig geduld. Heerlijk iemand zo te commanderen code voor mij te schrijven zonder mij schuldig te voelen. Zelfs losse functies die ik makkelijk zelf zou kunnen schrijven laat ik door Chatgpt doen als het beschrijven van de functie sneller gaat dan de benodigde code inkloppen. Ook de uitgebreide uitleg en beschrijving dat hij elke code geeft is erg verhelderend. en Ja, hij maakt soms wel eens fouten, maar dat kan hij meestal ook wel fixen als ik de compilatie errors in de chat zet. Of hij komt met aanwijzingen hoe het op te lossen.

Aan de andere kant is het natuurlijk ook wel logisch dat een taalmodel zo goed kan programmeren. Het is immers ook gewoon een taal. En de meest logische taal ook nog.
Het eerste waar ik aan dacht:

Als OpenAI self-aware wordt, gaat ze(?) dan aangifte doen van dat misbruik?
We komen dan op het punt uit dat AI de menselijke capaciteit om te auditen gaat brute forcen?
Lijkt me een goed plan aangezien ik in het verleden wel eens een filmpje heb gezien met een robot die uiteindelijk doodleuk vertelde dat die de wereld wil gaan veroveren in een "interview". Gelukkig alweer een tijd geleden dus ik hoop dat er wel wat verbeteringen doorgevoerd zijn maar kan nooit kwaad om een onafhankelijke partij daar naar te laten kijken. Skynet is almost upon us :+

Op dit item kan niet meer gereageerd worden.