Google wilde chatbot Bard deze week uitbrengen in EU, maar moet dat uitstellen

Google had zijn chatbot Bard deze week willen uitbrengen in de Europese Unie, maar heeft dat uitgesteld na zorgen over de verwerking van persoonsgegevens. De Ierse privacytoezichthouder wil eerst meer informatie van de zoekgigant.

Google Bard: nachorecept
Google Bard: nachorecept

Google heeft nog geen documentatie overhandigd over hoe het omgaat met privacy en verwerking van persoonsgegevens in Bard, schrijft Politico op basis van informatie van de Ierse toezichthouder Data Protection Commission. Daardoor heeft Google de release van Bard moeten uitstellen. Bard is beschikbaar in 180 landen buiten de EU.

De verhouding tussen generatieve AI en EU-regelgeving is nog altijd onduidelijk. De Nederlandse Autoriteit Persoonsgegevens vroeg ook al opheldering aan OpenAI over de verwerking van persoonsgegevens in ChatGPT. ChatGPT is dit voorjaar kort onbeschikbaar geweest in Italië vanwege privacyzorgen.

Het is nog onduidelijk of en wanneer Bard beschikbaar komt in de EU. Google-ceo Sundar Pichai zei eerder al in gesprek met Tweakers dat het bedrijf Bard 'zo snel als mogelijk is' in Europa wil uitbrengen.

Door Arnoud Wokke

Redacteur Tweakers

14-06-2023 • 08:03

74

Submitter: Maurits van Baerle

Reacties (74)

74
72
28
6
1
30
Wijzig sortering
Ik snap niet zo goed wat het probleem is van alle privacy toezichthouders?

Als ik een vraag stel aan Google is het oké, als ik hem stel aan Bard is dat niet oké?

Over wat voor een gegevens hebben we het uberhaupt, ik heb bij ChatGPT geen gegevens hoeven invullen toen ik mijn account maakte.

Het komt op mij vooral over als een soort lichte paniek onder toezichthouders die wellicht niet helemaal het verschil tussen "Large Language Model" en "Artificial Intelligence" (à la Terminator) kennen.

Zou liever zien dat 'wij', in Europa, inzetten op echte open getraine modellen. Als je ziet hoe goed een ChatGPT-4 is met medische vragen of uitleg geven over onderwerpen dan moet je toch ook het gigantische potentieel voor goede dingen hiermee in kunnen zien voor de zorg of onderwijs. Stel je voor dat elke huisarts een goed getraind model tot zijn beschikking heeft voor complexe vragen. OF dat élk kind in Nederland een chat heeft met een privé tutor die met oneindig geduld iets kan uitleggen.

Jammer dus, en helaas typisch, dat in Amerika alle innovatie plaatsvindt terwijl Europa weer eens uit reflex de handrem aantrekt.

[Reactie gewijzigd door ApexAlpha op 27 juli 2024 14:36]

Waar het om gaat is dat deze systemen getraind zijn met allerlei data die ze zonder toestemming gescraped hebben en dat het we voorlopig maar een klein beetje weten waar ze hun data vandaan hebben gehaald. We weten dat 4Chan en Reddit zijn gebruikt om te trainen, we weten dat er hele sloten fan-fiction opgeslurpt is (daarom is het Engels ook zo matig, met een overdaad aan bijvoeglijk naamwoorden) en we komen regelmatig achter nieuwe bronnen (bijvoorbeeld omdat de eigenaar van zo'n bron er achter komt dat ChatGPT hele stukken van zijn of haar data uitspuwt).

Voorlopig is er nog geen verplichte openheid van zaken waar de data vandaan komt. Zo is het volgens mij nog steeds niet duidelijk waarom ChatGPT telefoonnummers van mensen heeft en die doodleuk terugstuurt in reacties. Hebben ze hele persoonsdatabases opgeslurpt? Zit jouw adres er in? De naam van je partner? Hele grote kans dat jij daar nooit toestemming voor hebt gegeven, en al helemaal niet dat ChatGPT dat dan weer deelt met andere gebruikers. Hoe krijg je jouw gegevens er weer uit? Hoe verhaal je de schade op het bedrijf achter zo'n systeem?

Ik vind innovatie prima, ben er vrijwel dagelijks mee bezig, maar wel binnen kaders van fatsoen en met het doel om de mensheid te helpen. Wat er nu uit Silicon Valley komt op "AI" gebied helpt niet, het hindert de mensheid.

Overigens vindt er ontzettend veel LLM en AI innovatie in Europa plaats. De technologie van Stable Diffusion komt uit München, die achter Google Bard komt uit Londen. Waar we in Europa wel moeite mee hebben en zij in de VS niet is het uitbuiten van mensen of het overtreden van de wet door mensen met geld. Er zijn destijds mensen strafrechtelijk vervolgd voor het delen van MP3-tjes via Napster, of kijk wat er met Aaron Swartz is gebeurd, maar iemand als Sam Altman die dat op industriële schaal doet loopt nog steeds vrij rond, omdat ie veel geld heeft. En dat is natuurlijk wel problematisch.

Als ik een website maakt met ronduit slechte medische adviezen en mensen komen daardoor te overlijden dan kan ik daarvoor vervolgd worden. Als ChatGPT met dodelijk medisch advies komt (sowieso ben je natuurlijk achterlijk als je een chatbot als dit serieus neemt voor medisch advies) zoals nog al eens voorkomt dan wil OpenAI daar niet voor verantwoordelijk gehouden kunnen worden. Dat is erg problematisch en daar is medeplichtigheid toch zeker wel op z'n plaats. Als jij met je chatbot de indruk wekt dat het een soort zoekmachine is (wat het natuurlijk niet is) die antwoorden geeft, die antwoorden ook nog eens met een zelfverzekerdheid geeft alsof het correcte informatie moet zijn, maar vervolgens slachtoffers maakt omdat de informatie volstrekte flauwekul is dan mag je als bedrijf wat mij betreft daar gewoon strafrechtelijk voor worden vervolgd.
Maar wat is volgens jou precies het verschil tussen de Google Bot die alle internetpagina's bezoekt en informatie opslaat voor Google Search en de Google Bot die alle pagina's bezoekt en opslaat voor in een LLM?

Verder is het leuk dat de innovatie soms in Europa plaatsvindt, maar altijd onder de vlag van grotere Amerikaanse bedrijven. Het lukt is dus niet om die kennis en innovatie om te zetten naar bruikbare producten, iets wat in Amerika continu veel beter lukt.

Je verhaal over Schwarz enzo zie ik de relevantie niet van in. Overigens worden in genoeg landen mensen bestraft voor torrent gebruik.

ChatGPT is een chatprogramma, een soort 0.1 versie. Maar een specifiek medische GPT versie zou gigantische voordelen opleveren voor onze maatschappij. Maar niemand gaat dat hier in Europa in investeren als je na 1 dag meteen wordt teruggefloten door de overheid uit angst voor het onbekende.

Dat jij zegt dat de nieuwe AI vooral hindert en niet helpt... Daar kan ik echt niet bij. De mogelijkheden zijn werkelijk waar gigantisch.
Maar wat is volgens jou precies het verschil tussen de Google Bot die alle internetpagina's bezoekt en informatie opslaat voor Google Search en de Google Bot die alle pagina's bezoekt en opslaat voor in een LLM?
Daar ben ik specifiek op in gegaan even verderop: Maurits van Baerle in 'Google wilde chatbot Bard deze week uitbrengen in EU, maar moet dat uitstellen'
Verder is het leuk dat de innovatie soms in Europa plaatsvindt, maar altijd onder de vlag van grotere Amerikaanse bedrijven. Het lukt is dus niet om die kennis en innovatie om te zetten naar bruikbare producten, iets wat in Amerika continu veel beter lukt.
Ik weet niet of dat zo is. Er is ineens wat gehype in Silicon Valley omdat de hoop in de blockchain (die 'alle problemen van de mensheid zou oplossen') verdwenen is en ze iets nieuws moeten vinden om de aandelen koersen op te stuwen. Nu is het ineens AI die 'alle problemen van de mensheid gaat oplossen'. Het is geen toeval dat een hoop van de AI-hype types twee jaar geleden nog blockchain-hype types waren. Over twee jaar is er weer iets nieuws en moet je hopen dat de echte AI ontwikkelingen niet teveel geleden hebben onder de LLM afleiding.
Je verhaal over Schwarz enzo zie ik de relevantie niet van in. Overigens worden in genoeg landen mensen bestraft voor torrent gebruik.
Simpel, waarom zijn er ik weet niet hoeveel mensen vervolgd voor het inbreuk maken op copyright, privacy en dergelijke maar wordt OpenAI dat niet? Dat is meten met twee maten, al helemaal omdat The Pirate Bay kattenpis was vergeleken met wat OpenAI heeft gedaan, die brengen de gekopieerde waar zelfs onder hun eigen naam uit alsof ChatGPT het zelf heeft verzonnen.
ChatGPT is een chatprogramma, een soort 0.1 versie. Maar een specifiek medische GPT versie zou gigantische voordelen opleveren voor onze maatschappij. Maar niemand gaat dat hier in Europa in investeren als je na 1 dag meteen wordt teruggefloten door de overheid uit angst voor het onbekende.

Dat jij zegt dat de nieuwe AI vooral hindert en niet helpt... Daar kan ik echt niet bij. De mogelijkheden zijn werkelijk waar gigantisch.
Ik denk dat een medische chatbot zeker kan helpen maar dan wel eentje die specifiek gemaakt is voor medische doeleinden, gemaakt door mensen met een medische achtergrond, met het doel om mensen te helpen, en met goed toezicht. ChatGPT voldoet aan geen enkele van die eisen en bij sommigen heeft het zelfs een tegengesteld doel.

Er zijn zeker mogelijkheden omtrent AI, maar wat we de afgelopen zes maanden uit Silicon Valley hebben zien komen is of een doodlopende weg, of ronduit bedoeld om de mensheid te benadelen. Ik zie een LLM een beetje zoals de blockchain, zeker handig in enkele hele specifieke gevallen, maar volstrekt onhandig of contraproductief in ruim 90% van de gevallen waar het zogenaamd revolutionair zal zijn.
Die "gigantische mogelijkheden" is juist het probleem. En de meeste - niet zelden zelfbenoemde - deskundigen kunnen de impact ervan nauwelijks overzien. Veel AI-enthousiastelingen zijn niet meer dan dat en hebben geen idee wat de gevolgen kunnen zijn van een ongebreidelde uitrol van dit fenomeen. En techbedrijven zijn louter uit op winst maken, die interresseren het verder geen lor. Als de aandeelhouders maar tevreden gehouden worden. Je gelooft toch zeker niet dat die bedrijven allemaal filantropische instellingen zijn die het zo goed voor hebben de mensheid? Dat zou wel heel erg naïief zijn. En daarin schuilen enorme risico's. De reactie van @Maurits van Baerle snijdt absoluut hout. Heel veel hout.
Maar wat is volgens jou precies het verschil tussen de Google Bot die alle internetpagina's bezoekt en informatie opslaat voor Google Search en de Google Bot die alle pagina's bezoekt en opslaat voor in een LLM?
Het verschil is een index maken of alle gegevens verwerken tot eigen samenvattingen. Het eerste is enkel het aangeven waar een bepaalde zoekterm voorkomt, zonder verdere context en zonder verdere verwerking, waardoor er voor de AVG geen problemen zijn, zolang het openbare bronnen zijn. Zodra er wel verwerking plaats vindt, dan moet je daar een verwerkingsgrond grond voor hebben die door de AVG is toegestaan. Zodra je gegevens gaat verwerken en met elkaar gaat verbinden in grotere verbanden heb je op z'n minst iets uit te leggen over hoe je dat AVG-technisch correct doet. Dat is exact wat de EU aan Google gevraagd heeft, en het antwoord daarop is zo lastig dat Google de introductie van Bart heeft besloten uit te stellen.
Maar daar stopt het nog niet. Wil een Chat-AI goed uit de verf komen, moet het onthouden waar het eerder met je over gesproken heeft. (Pas dan gaat het lijken op regelmatige praatjes met die buurman die ongelofelijk veel weet, dat is waar de makers van chat-AI's graag naar toe willen.) Gebeurt dat in een min of meer statische database, zoals het profiel dat Google van je maakt aan de hand van je zoekopdrachten en browsegeschiedenis, of wordt dat een dynamisch geheel van allerlij verbanden die bepaalde conclusies trekken, waarvan je wellicht niet wilt dat die over je getrokken worden, of die gewoon fout zijn, maar wel alle toekomstige interacties met de AI kunnen beïnvloeden. Voor dergelijke verwerking moet volgens de AVG ook een goede verwerkingsgrond zijn, en goede controle- en correctiemogelijkheden. Ook dat wil de EU weten, wat voor Google een heel moeilijke vraag is.
Wanneer je weet hoe je product in elkaar steekt, zijn de vragen van de EU niet zo lastig. Wat wel lastig kan zijn is wanneer je weet dat de antwoorden de EU niet zullen bevallen.
Er zijn wel een paar juridische verschillen tussen LLMs en Google. Zo heeft Google al sinds jaren een notice/takedownsysteem en verbergen ze op verzoek zoekresultaten bij zoekopdrachten op personen. Bij OpenAI kun je niet vragen om bepaalde informatie uit het systeem te halen, of om bepaalde uitspraken niet te doen. Ik snap dat dat technisch iets lastiger is dan een URL in je index "noshow" te taggen, maar dat boeit niet bij juridische vereisten.

Verder is er het punt dat wat Google toont, in ieder geval nog de werkelijkheid is van de bronsites die ze opnemen. Er stáát in dat nieuwsbericht dat jij failliet bent. Die site vertelt waarom jij oplichting pleegde en daar wordt ook jouw weerwoord genoemd. LLMs verzinnen uitspraken waar je bij staat. En wanneer zulke systemen dan in 'gewone' publieke systemen terechtkomen (zoals Bing of Google search) dan zullen die uitspraken als waarheid worden opgevat.

Dit voelen voor mij twee vrij fundamentele punten om opgelost te hebben voor je de markt op mag. Dat ze in de VS "move fast and break things" accepteren van bedrijven heb ik nooit begrepen, want die "things" zijn in de praktijk wetten en mensen die ze breken.
Ik ben niet bekend met Bard maar bij Bing GPT zetten ze weldegelijk bronnen erbij, en kun je dus zien waar het op gebaseerd is. Dat zit toch wel érg dicht bij het systeem van een normale Search.

Ik snap dat je bij OpenAI niet kan vragen om bepaalde dingen niet te zeggen. Maar je ziet dat ze sowieso moeite hebben om het product "binnen de kaders" te houden. Je kan met specifieke queries soms de prompt breken. In het begin kon dit nog met "ignore previous instructions" bijvoorbeeld.

Maar zoals jij zegt: we hebben wet- en regelgeving. Maar het is onmogelijk dat die wetgeving rekening houdt met het bestaan van ChatGPT en LLMs, die waren er namelijk nog niet. Door die bedrijven te dwingen zich eraan te houden maak je het extreem moeilijk om te innoveren.

Ik zie het in de VS dan ook niet als "move fast and break things". Het is meer dat niemand nog precies weet hoe nuttig LLMs gaan zijn en op welke gebieden. Dan kun je soms beter het even laten gaan, en dan pas bijsturen.

In Europa proberen we nu direct bij te sturen en zo mogelijk tegen te houden. Daarmee bereik je geen privacy of bescherming. Het enige dat je daarmee bereikt is dat geen enkele vorm van innovatie op dit gebied in Europa plaats vindt.
Maar zoals jij zegt: we hebben wet- en regelgeving. Maar het is onmogelijk dat die wetgeving rekening houdt met het bestaan van ChatGPT en LLMs, die waren er namelijk nog niet. Door die bedrijven te dwingen zich eraan te houden maak je het extreem moeilijk om te innoveren.
Dat is een fout die veel mensen maken, dat wanneer iets nieuws is, de wetten en regels die gemaakt zijn voordat dat nieuwe kwam, niet voor dat nieuwe kunnen gelden.
De AVG is vrij duidelijk in wat je wel en niet kan en wat voor verwerkingsgronden je nodig heb om persoonsgegevens te mogen verwerken. En ook wat voor controle- en correctiemogelijkheden een betrokkene heeft. Die regels gelden voor de bakker op de hoek met een klantenbestand in een papieren kaartenbak, voor de voetbalclub met het ledenbestand in een Excelsheet, voor een bedrijf met de personeelsadministratie in de cloud, etc., maar ook voor alles wat nieuw uitgevonden wordt en op de één of andere manier persoonsgegevens verwerkt. Dus ook voor AI.
Zou liever zien dat 'wij', in Europa, inzetten op echte open getraine modellen.
....
Jammer dus, en helaas typisch, dat in Amerika alle innovatie plaatsvindt terwijl Europa weer eens uit reflex de handrem aantrekt.
Socialistische staten staan altijd op de handrem.

De VS heeft enkele zeer succesvolle tech bedrijven. Daar staan honderden bedrijven tegenover die falliet zijn gegaan. Dus een bedrijf starten heeft een hoog risco. Mensen nemen risco als de potentiele winst hoog is. In de EU ben je een parsiet die belastingtechnisch aangepakt moet worden als je een paar keer modaal hebt. Is je bedrijf wat groter bemoeit de overheid zich je personeelsbeleid, want het moet een afspiegeling v/d bevolking zijn. Allerlei arbo-regels, etc etc.

Ik zeg niet dat alle EU-regels slecht zijn, maar ze werken het opstarten van (dat soort) bedrijven wel tegen.
Als je naar de cijfers kijkt dan doet Europa het vrij goed. Hier heb je een mooi citaat, de hele brief is de moeite waard om te lezen.
The key figures are well known: European tech is a $3 trillion industry, with an annual growth rate of 27 % since 2015. More than 300 companies valued at over $1 billion have been founded in Europe, from a diverse base of 29 countries. But Europe's potential is revealed on closer analysis. Growth results from a mix of innovation, talent and capital, which every "superpower" needs. Despite the economic downturn, there is ample evidence of the industry's fundamental strength.

The flow of emerging high-tech companies is almost equal to that in the United States. Both regions now create the same amount of new start-ups each year. Thirty per cent of all global funding for early-stage companies went to European start-ups, compared with 36% for the US. This gap has halved in five years. What's more, Europe is showing greater dynamism, with a compound annual growth rate of 24% over the last 10 years, compared with 4% in the US. At this rate, Europe will overtake the US in five years' time.

'Europe is on the cusp of becoming a global tech superpower'
En ja, die Zennström is de Zennström achter onder meer Kazaa en Skype.
Ik stopte met lezen na socialistisch
Als ik een vraag stel aan Google is het oké, als ik hem stel aan Bard is dat niet oké?
Als je een vraag stelt aan Google is dat niet oké.
Anders zou Google niet zo veel boetes krijgen.

[Reactie gewijzigd door Honytawk op 27 juli 2024 14:36]

Slechts één van je links gaat over een boete voor dataverzameling. Google is meer dan alleen Zoeken.
Aangepast.
Al een geluk zijn er zo veel artikelen over Google dat boetes krijgt.

Daarnaast is Google wel één groot bedrijf.
Als die de kantjes van de wet opzoekt met het ene afdeling, dan is de kans groot dat die dat doen met de andere afdeling.
Google valt niet te vertrouwen, dat hebben ze al meerdere malen laten zien.
Google Search is toch maar het enige Google product waar je vragen aan kunt stellen? Aan Gmail of Photo's kun je geen vragen stellen. En als je iets zoekt in Google Maps is dat feitelijk niet een vraag in semantische zin. Dus ja, @Honytawk heeft gelijk ;)
Het is natuurlijk ook Google die hier voorzichtig is. Die heeft al voldoende boetes aan de laars gehad en heeft veel meer te verliezen dan een OpenAI.

Jammer dus, en helaas typisch, dat in Amerika alle innovatie plaatsvindt terwijl Europa weer eens uit reflex de handrem aantrekt.
Aan de ene zijde is het goed dat ze zo op privacy drukken maar er zou inderdaad een oplossing gezocht moeten worden naar een oplossing die beter werkt. Vrijwel alle innovatie op IT gebied wordt hier letterlijk onmogelijk gemaakt. Het is ook moeilijk concurreren met continenten die al die regelgeving niet hebben.
Maar die boetes kregen ze achteraf, voor iets wat ze vaak al jaren fout deden. Nu krijgen ze de mogelijkheid om het meteen goed te doen, zodat de boetes kunnen vermijden.
De regelgeving waar die grote bedrijven het zo moeilijk mee hebben is regelgeving op het gebied van privacybescherming en consumentenbescherming. Die regelgeving is gemaakt om jou en mij te beschermen, niet om het die bedrijven lastig te maken.
Maar die boetes kregen ze achteraf, voor iets wat ze vaak al jaren fout deden.
Yep, de 'autoriteiten' werken helaas altijd zo. Jij moet voldoen aan de wetgeving, dat is jouw verantwoordelijkheid. Als dat niet het geval is, wat dus achteraf blijkt, dan krijg je boetes.

Nu krijgen ze de mogelijkheid om het meteen goed te doen, zodat de boetes kunnen vermijden.
Yep, daarom rollen ze het niet uit in europa.

De regelgeving waar die grote bedrijven het zo moeilijk mee hebben is regelgeving op het gebied van privacybescherming en consumentenbescherming. Die regelgeving is gemaakt om jou en mij te beschermen, niet om het die bedrijven lastig te maken.
Ja, dat begrijp ik uiteraard. Maar dat betekent altijd dat het dan bedrijven 'lastig' maakt. Ze moeten immers meer moeite doen om aan deze wetgeving te voldoen en dat zijn vaak best aardig wat kosten (Neem de GDPR compiance of het cookiemuur debacle. Prima idee (bescherm de burger) maar het eindresultaat van de cookiemuur is frustratie voor iedereen en onnodige kosten (de cookiemuren moeten opgezet worden) voor bedrijven.
Jij doet nu net alsof we die privacy- en consumentenbescherming dan maar beter kunnen laten varen, omdat dat het voor iedereen zo lastig maakt.

Die cookiemuren waar jij het over hebt zijn nooit het uitgangspunt geweest van de EU wetgeving. Uitgangspunt is geweest dat bedrijven stopten met het tracken van hun bezoekers. Wanneer die bedrijven dat hadden gedaan, dan had vrijwel nooit iemand zo'n cookiemuur gezien. De cookiemuur was in de regels opgenomen (of regels die er toe leidden dat er zoiets als cookiemuren ontstonden) als uitzondering, wanneer het voor de dienstverlening van de website wenselijk/ noodzakelijk was om bezoekers toch te kunnen tracken, in welk geval de bezoeker daar uitdrukkelijk toestemming voor moest geven. Maar in plaats van manieren te vinden om de site te laten werken zonder alle bezoekers te tracken, besloten de bedrijven alle bezoekers lastig te gaan vallen met de cookiemuur, in de hoop dat genoeg bezoekers alsnog akkoord gingen met de tracking.
Jij doet nu net alsof we die privacy- en consumentenbescherming dan maar beter kunnen laten varen, omdat dat het voor iedereen zo lastig maakt.
Dat zeg ik niet. Ik geef alleen aan dat de autoriteiten zo werken. Het is niet anders met jouw belasting aangifte. Die doe jij terwijl men eigenlijk alle informatie al heeft. Ik geef nergens aan dat we dat dan maar 'moeten laten varen', dat zijn woorden die je een ander in de mond legt en dat moet je niet doen.

Wat betreft de cookiemuren, de EU heeft vage wetgeving geschreven (wat veelal de norm is voor wetgeving om verschillende redenen) en de implementatie overgelaten aan de 'markt'. De 'cookiemuur' was het resultaat en de EU heeft daarna geen handhaving of controlerende functie uitgevoerd (dus voldoet de markt oplossing wel aan de wetgeving). De wetgeving had duidelijker moeten zijn of de handhaving strenger. Het is een voorbeeld van een gefaalt beleid, niet meer, niet minder.

OpenAI kiest voor een cookiemuur oplossing. Daar kunnen ze naderhand veel last van krijgen. Google neemt dit risico (momenteel) niet. Dit zegt allemaal niets over de privacybescherming maar enkel over het risico dat deze bedrijven bereid zijn om te nemen.
Wanneer iemand een film heeft gemaakt en die uitlicenceert aan de NPO, dan mag die niet over de hele wereld bekeken worden en meestal ook maar voor een beperkte periode. Ditzelfde principe geldt vaak ook voor fotografen, schrijvers, journalisten en muzikanten. Wanneer een opdrachtgever een product afneemt mag die dat niet zomaar doorverkopen of doorgeven aan een andere partij. Als je gebruik maakt van een zoekmachine levert die een verwijzing naar de plek waar de content wordt aangeboden. Het kan dan dat die content niet meer beschikbaar is omdat de licentie is afgelopen of er een wijziging moest worden aangebracht.
Als dergelijke content is geanalyseerd door een AI systeem kan het zijn dat content wordt vertoont die nooit vertoond had mogen worden via dat kanaal of die inmiddels wijzigingen bevat omdat er andere inzichten zijn, onwaarheden instaan of rectificaties hebben plaatsgevonden.
Wanneer het plaatsen van content op internet dergelijke gevolgen kan hebben zullen contentmakers en vetrekkers de dupe worden. Als men massaal gebruik gaat maken van de AI systemen, dan is niemand meer geneigd om nog iets van waarde op internet te tonen en wordt het hele internet zelfs om zeep geholpen.
Verder zie je wanneer het om privacy gaat dat het vroeger geen enkel probleem was als je persoonsgegevens ergens bij een vereniging in een ordner stonden of daarna misschien wel in een nieuwsbrief. Zelfs gegevens op de eerste websites konden geen kwaad. Tegenwoordig wordt die data allemaal verzameld en is de combinatie van data uit verschillende bronnen wel degelijk een gevaar voor je privacy. Als de data nu door een AI systeem wordt vergaard en volgens een eigen systeem wordt gecombineerd kan dat hele vervelende gevolgen hebben.
Ik denk dat het heel goed is als er eerst goed wordt gekeken hoe de AI bots worden gevoed en wat er vervolgens mee wordt gedaan. Zeker als ze worden gevoed met gegevens waar nooit toestemming voor is gegeven en die naar alle waarschijnlijkheid niet meer uit het systeem kan worden gehaald.
Ik denk dat de EU ook waarschijnlijk terughoudend is omdat als Google toegelaten wordt het straks erg moeilijk de 'genie back in the bottle' te krijgen.

Nu zou er nog gezegd kunnen worden dat 1 speler fout bezig is (openai/Microsoft). Dat verhaal wordt lastiger als meerdere grote partijen ook mee doen.

Als straks Facebook, Amazon, etc ook mee willen doen dan heeft de Eu weinig meer te zeggen, aangezien ze dan Microsoft en Google ook al hebben toegelaten.

Ik denk vooral dat het een beetje paniek voetbal is van de toezichthouders die hun controle en overzicht aan het verliezen zijn omdat ze geen idee hebben hoe ze dit moeten controleren.
Ik weet niet of je de discussie op EU niveau een beetje gevolgd hebt maar ik denk dat het wereldwijd verreweg de meest geavanceerde AI discussie is die er op dit moment plaatsvindt. Het zal sowieso de eerste serieuze stap zijn die er wereldwijd genomen wordt. Er wordt dan ook al jaren aan een framework gewerkt, niet pas sinds de man in de straat van het bestaan van ChatGPT heeft geleerd.

Alleen al het feit Sam Altman van OpenAI in een stuip schiet als het gaat over de voorstellen die er op Europees niveau spelen geven aan dat de EU op het goede pad zit. Ze laten zich niet zo makkelijk omkopen met leugens, gladde praatje of gewoon het omkopen van politici zoals dat in de VS wel gebeurt.

Ze laten zich niet gek maken met science fiction flauwekul praatjes die Google en Microsoft de wereld in brengen ter afleiding van de echte gevaren. De focus is op bescherming van mensen, en daar zou het om moeten gaan. Niet om fantasieverhalen over AI die het tegen de mens zal opnemen (Sowieso acht ik het onmogelijk dat je AI zou kunnen maken met Large Language Models dus OpenAI zal misschien nooit AI ontwikkelen). De gevaren van AI (en "AI" zoals als ChatGPT en Bard) liggen in het consolideren van macht bij een klein groepje, vrijwel zonder uitzondering, rijke nare mannetjes die het systeem voeden met gestolen data die ze daarna terugverkopen aan de wereld, die het bewust voeden met racistische data, die democratie maar lastig vinden, die privacy voor het voetvolk overdreven vinden, die vinden dat menselijke vooruitgang mensenlevens mag kosten en die vinden dat ze zelf niet verantwoordelijk gehouden mogen worden voor de schade die hun systemen aanbrengen.

Ik verwacht dat de AI Act een soort GDPR zal worden, een eerste serieuze actie om het ergste misbruik en inbreuk te voorkomen die daarna wereldwijd afgekeken zal worden.

Centre for Data Innovation: The Artificial Intelligence Act: A Quick Explainer
European Parliament: AI Act: a step closer to the first rules on Artificial Intelligence
DW: How the EU plans to regulate AI

[Reactie gewijzigd door Maurits van Baerle op 27 juli 2024 14:36]

In principe ben ik voor het reguleren hiervan, echter creëer je met veel wetgeving een hele hoge barrier to entry en wordt het ook meteen lastig voor open source initiatieven om hier stappen in te maken. Het laatste wat je zou moeten willen is dat er een paar monopolisten zijn die deze baanbrekende tech in handen hebben en houden...
De strekking van de AI Act wordt volgens mij juist makkelijker gehaald door open source dan door dit soort bedrijfjes. Toon aan waar je data vandaan komt en dat die kwalitatief goed is. Als ik iets goed zie gaan bij open data initiatieven dan is het wel de focus daarop, zie hoe ze bij Wikipedia omgaan met copyvio en hoe openstreetmap ieder verkeersbord laat controleren om maar te voorkomen dat ze ergens databankrechten schenden. Ook bij datasets (zoals LAION) zie je duidelijke focus op rechtenbeheer.

Verder gaat veel over toepassingen, geen AI ongecontroleerd inzetten om mensenrechten te schenden of mensen automatisch af te serveren. Dat kan met OSS of closed even goed, dus daar zie ik het verschil niet. En ik zie juist bij de toepassingen enorm veel Haarlemmerolie (snake oil) van het soort "onze AI detecteert micro-expressies om te zien of een sollicitant liegt" met dan een gesloten model en geheime data zodat je niets kunt vaststellen.

Het probleem bij OSS is dat de adoptie stagneert omdat de community geen SLA wil bieden en de afdeling inkoop niet kan omgaan met "het staat daar, succes". De AI Act gaat geen ene sikkepit bijdragen of tegenhouden op dit gebied.
Ik vind jouw comments wel een heel erg "conspiracy" gehalte hebben.

Heb je *enig* bewijs dat ze het expres voeden met racistische data? Heb je enig bewijs dat Google, MS, OpenAI tegen de democratie zijn? Hebben deze tech bedrijven ooit iemand omgegelegd of dood laten gaan voor hun innovatie?

Daarnaast ben je ook woorden aan het verdraaien. Het enige dat de CEO van OpenAI heeft gezegd over nieuwe wetgeving is dat ze hun best zullen doen om zich eraan te houden. Maar als blijkt dat hun product niet mogelijk is onder nieuwe wetgeving zullen ze stoppen met het uitbrengen van dat product.

Dat is niet 'in een stuip schieten', dat is letterlijk hoe het hoort in een democratie. Of je houdt je aan de regels, of je sluit je winkel. Wat daaraan is "in een stuip schieten"?

[Reactie gewijzigd door ApexAlpha op 27 juli 2024 14:36]

Het zal geen ongeluk zijn geweest dat, toen Microsoft onderzoekers op zoek gingen naar een definitie voor intelligentie, ze niet een definitie uit een woordenboek hebben gehaald, niet uit een psychologie syllabus, niet uit een recente peer-reviewed wetenschappelijke publicatie maar specifiek de definitie uit een dertig jaar oud racistisch pamflet hebben gepakt.

Of kijk eens naar de ideeën omtrent dysgenetica en eugenetica door filosofen rondom AI en Effective Altruism zoals Nick Bostrom (die van die racistische email). In die Longtermism hoek kom je sowieso vrij veel problematische ideeën tegen. Op het eerste gezicht is het natuurlijk prima om ook te kijken naar de situatie van mensen die nog geboren moeten worden (als we het over zeespiegelstijging hebben vinden we dat normaal), maar het gaat in die hoek best snel mis door toekomstige levens boven de huidige te plaatsen.

Waar denk je dat zo'n filosofie vandaan komt dat het best OK is als er een hoop mensen overlijden omdat je ze als proefkonijn een auto met "autopilot" hebt verkocht en een seconde voor een crash het systeem nog snel even de autopilot uit laat zetten zodat het niet gelogd wordt als autopilot gerelateerd. Mensen willens en wetens een experimenteel systeem verkopen is één ding (je zou het kunnen goedpraten door te focussen op huidige en toekomstige levens die er door worden gered), het een misleidende naam geven en de ongevallen proberen te verbergen geeft toch wel blijk van een moreel defect.

En die morele defecten zie je toch wel erg vaak uit Silicon Valley komen. Van het op industriële schaal verkopen van privedata, tot gebruikers van je platforms als jouw slachtoffer te zien in plaats van als klant, het gebruik van dark patterns die je product slechter maken maar je kwartaalcijfers beter, tot het met beide handen aannemen van Saoedi-Arabisch geld.

Sowieso staat deze hoek stijf van de rijke witte mannen (en daar behoor ik zelf ook toe) die nogal eens last hebben van 'Survivorship bias' en die daardoor geloven dat hun eigen succes een bewijs is voor hun extra kwaliteiten. Het zou ze sieren als ze zouden toegeven dat ze natuurlijk vooral erg veel geluk hebben gehad en dat die mensen die exact hetzelfde pad hebben bewandeld maar dat geluk niet hadden nu misschien wel in een 'tent city' wonen en dus nooit geïnterviewd worden. Ik geef dat wel eerlijk toe, 80% van mijn succes is, na drie gefaalde bedrijven, een keer volkomen toevallig een toekomstig zakenpartner tegenkomen en hebben kunnen meeliften op zijn aanvullende skillset, maar 20% is mijn kennis, intelligentie en doorzettingsvermogen.

[Reactie gewijzigd door Maurits van Baerle op 27 juli 2024 14:36]

Je haalt wel echt alles bij elkaar, en heel selectief ook. Omdat AutoPilot niet echt een autopilot is gaat iedereen in Sillicon Valley over lijken?

En dan Saoudisch geld? En Witte Mannen zijn slecht?

En de rest van je argument... Tja ik laat het hierbij denk ik.
Sowieso acht ik het onmogelijk dat je AI zou kunnen maken met Large Language Models dus OpenAI zal misschien nooit AI ontwikkelen
Jij denkt dat AI nog niet bestaat, en je krijgt +2 🤔
Je bent in de war met general ai.
Ik denk dat je met Large Language Models nooit AI zal kunnen maken, dat is niet hetzelfde.
Er is al AI, overal om ons heen, wikipedia:
Artificial intelligence (AI) is intelligence—perceiving, synthesizing, and inferring information—demonstrated by machines, as opposed to intelligence displayed by humans or by other animals. Example tasks in which this is done include speech recognition, computer vision, translation between (natural) languages, as well as other mappings of inputs.
ik moet heel eerlijk zeggen, dat ik je argumenten en woordkeuze een beetje 'de verkeerde kant uit denken' vind.

jij zegt dat het paniekvoetbal is en dat men bang is niet te kunnen handhaven.

ik zou juist zeggen dat men deze keer voor het eerst een vooruit heeft weten te denken, niet achteraf toetsen en dan tot de conclusie komen dat het nooit had gemogen, maar hier nu gewoon vooraf naar een bedrijf stappen en zeggen: wij denken dat het onmogelijk is om met deze tech de privacywetgeving niet te schenden, maar in plaats van te verbieden geven je jullie de kans om compliance aan te tonen.

als je het zo leest dan klinkt het bijna als 'schuldig' tot het tegendeel bewezen is, maar deze gang van zaken is niet uniek, je krijgt immers ook geen bouwvergunning totdat jij hebt bewezen dat je je aan de bouwvoorschriften gaat houden. je krijgt ook geen rijbewijs totdat je bewijst dat je geen gevaar op de weg bent. er zijn dus wel degelijk situaties waarbij toetsing vooraf plaatsvind.

in een reactie op het forum, beschreef ik al eens een mogelijke manier waarop generatieve webcrawlende AI onterecht aan persoonsgegevens komen, ik denk dus dat het goed is dat de Privacy-autoriteiten deze vragen vooraf stellen.
Maar is het niet zo dat de database / het learning model al lang gevoed is met Europese gegevens? Ik zie niet goed hoe het gebruik van bard invasiever is dan de google app.
Tenzij ik er helemaal naast zit, maar nu kan een Amerikaan gebruik maken van Europese data (ref voorbeeld je fiets op marktplaats) maar een Europeaan niet.
wat jij nu bedoelt is dat die gegevens uit de add van de fiets op marktplaats ook al (mogelijk) in de google cache staan, ja dat klopt waarschijnlijk, maar is altijd wel zo'n verhaal van fair use, is het semi-statisch opnemen van gegevens fair use? misschien wel misschien niet, in beginsel werkt het in ieder geval zo dat je bepaalde gegevens over jezelf uit de google resuttaten kunt laten halen als die gegeven bijvoorbeeld irrelevant zijn of je privacy onrechtmatig veel schenden. daar is gewoon een formulier voor en google doet daar ook echt wat mee (ook al gaat het lang niet altijd goed of snel genoeg).

maar generatieve AI doet meer met gegevens dan slechtst een snapshot maken en dan kom je eigenlijk al direct en hele stap verder.. waar het eerst misschien een beetje twijfelen was waar nou precies die grens van fair use zit.... hier weet je in ieder geval zeker dat je die grens gepasseerd bent.
Er zit sowieso een groot verschil tussen een zoekmachine als Google Search en een LLM als Google Bard.

Een zoekmachine wordt continue gevoed met nieuwe data (daarom kun je de voetbaluitslagen van afgelopen weekend vinden via een zoekmachine) en is bedoeld om jou informatie te laten vinden die je zocht. Vrijwel alle zoekmachines geven je daarbij ook nog eens een reeks alternatieve bronnen en daarmee een aardige indicatie over de waar die vandaan komt en hoe betrouwbaar die kan zijn.

Een LLM is gevoed met historische data die meestal een paar jaar oud is (daarom kun je via ChatGPT niet de voetbaluitslagen van afgelopen weekend vinden) en is bedoeld om jou de indruk te geven dat het systeem intelligent is. De focus is gelegd op zelfverzekerdheid, niet op correctheid, van het antwoord. ChatGPT is een 'bullshitter', iemand die zelfverzekerd iets uitroept maar die het niet kan schelen of het klopt of niet, zolang het maar overtuigend overkomt.

Daarnaast zit er ook nog best een verschil tussen het vergaren van data. Als jij een website hebt en je optimaliseert die voor SEO zodat Google hem kan vinden dan doe jij dat omdat er een soort symbiose is. Jij deelt jouw data, Google stuurt jou traffic. Het is een win-win.
Als jij daarentegen een website hebt die zonder toestemming door ChatGPT is gekopieerd en ChatGPT gebruikt delen van jouw website in antwoorden naar mensen dan krijg je juist minder traffic. Jij hebt misschien een week gestoken in een review van een nieuw apparaat, helemaal uit elkaar gehaald om details te kunnen beschrijven, uitgebreid getest onder allemaal omstandigheden en er dus flink werk in gestoken. Daarna is ChatGPT langsgeweest, heeft alles opgeslurpt, en volgende keer als iemand vraagt hoe de THX1138 werkt dan spuwt ChatGPT delen van jouw bevindingen uit, zonder bronvermelding.
De thx1138 is 1 ding. Maar als ik chatgpt vraag "wie is Maurits van Baerle van tweakers" op chatgpt dan krijg ik ook een samenvatting van je tweakers activiteiten.Of wellicht die van iemand waarbij hij er dingen bij hallucuceert.. Daar gaat de privacy over, niet over the THX1138.

als ik die van "leuk_he" vraag roept hij iets over privacy.
Ik denk vooral dat het een beetje paniek voetbal is van de toezichthouders die hun controle en overzicht aan het verliezen zijn omdat ze geen idee hebben hoe ze dit moeten controleren.
Niet alleen hoe ze dit moeten controleren, maar ook of en in welke mate ze dit moeten reguleren. Stel je gaat het reguleren, wat gaat dat uiteindelijk betekenen voor de concurrentiepositie van de EU? Gaan we achterlopen op de rest, omdat we onszelf toegang ontzeggen tot dit soort technologie. Dit zijn hele complexe vraagstukken, met gevolgen aan verschillende kanten (ethisch, privacy, economisch).
Ik verwacht dat het nu gaat verwateren omdat de Chinese concurrentie om de hoek staat (en nergens slechter is). Ierland gaat er over ophouden. De EU gaat het proberen stilzwijgend rond te krijgen.
'Niet beschikbaar in de EU' is in deze vrij relatief gezien je het gewoon kan gebruiken via VPN. Google heeft niet al teveel moeite gedaan om EU-gebruik tegen te houden. Misschien niet zo verrassend.
tja, je kan ook naar de vs vliegen en het daar gebruiken. Standaard is het geblokkeerd, en 98% werkt het zo, die hebben geen vpn of weten niet wat het is.
Het speelt allemaal in het nadeel voor Google, want europeanen adopteren de andere ai's nu.
Het zal moeilijk worden om ze te overtuigen om terug over te stappen.
Een mens die een gewoonte heeft veranderd niet gauw, en ze zullen zeker niet zoveel televisie publiciteit krijgen als chatgpt gehad heeft

you snooze you loose

[Reactie gewijzigd door sebastienbo op 27 juli 2024 14:36]

diezelfde 98% die geen vpn gebruikt gebruikt ook geen AI... Of ken jij wel mensen die niet in de IT werken die ChatGPT gebruiken?
Iedereen dat ik ken eigenlijk maakt er gebruik van, zelf de kinderen voor al hun vragen te beantwoorden, tot mijn buurvrouw van 72 die haar vakantie ermee gepland heeft. Mijn tante gebruikt het voor haar Italiaanse les te ondersteunen. En mijn ouders gebruiken het ook om teksten te vertalen. In de plaats van al hun vragen te beantwoorden zeg ik altijd van het eerst aan chatgpt te vragen.

Wat betreft vpn was ik verschoten hoeveel non it kennissen het gebruikt hebben voor Netflix in een andere regio te gebruiken.

[Reactie gewijzigd door sebastienbo op 27 juli 2024 14:36]

vrijwel iedereen die studeert of op kantoor werkt gebruikt (wel eens) chatgpt. Stukjes typen, vertalen etc.
Chatgpt is net voor mensen die niet in IT werken, toch IT dingen te laten doen.
Het speeld allemaal in het nadeel voor Google, want europeanen adopteren de andere ai's nu.
Ik denk dat dit erg meevalt. Iedereen zit naar mijn mening eerder te wachten tot het geïntegreerd wordt in producten die we echt gebruiken (zoals Microsoft Word / Google Docs, Outlook / Gmail).

Het zal moeilijk worden om ze te overtuigen om terug over te stappen.
Eenvoud (of luiheid) is altijd de drempel. Waarom naar een site gaan als de AI opties al in de app zitten? Waarom nog ChatGPT openen als ik ook die knop in kan drukken in Gmail en hetzelfde resultaat behalen. Zoveel verschil zit er nu al niet meer tussen Bard en GPT4, dus die extra handeling zal men niet doen.
Tot voor kort dacht ik ook dat een VPN voor de meeste mensen hogere wiskunde is, tot Netflix met hun blokkades kwam met account sharing. In 1 keer wisten bijzonder veel mensen dat ze een VPN nodig hadden en ook bijzonder veel mensen konden mij vertellen hoe ze het omzeilde. Mijn ouders (70+) wisten zelfs dat ze een vpn nodig hadden, alleen niet hoe ze het moesten installeren. Daar moest ik bij helpen.

Dus ik denk dat die 98% wel een stuk omlaag mag inmiddels.
Indeed, laatst gehoord van een klasgenootje van slechts 7 jaar oud! Om Roblox te spelen op sommige servers. Crazy!
Als je klasgenootje 7 is, zal jij niet veel ouder zijn. En je hebt al een account op Tweakers! Het wordt steeds gekker :-)
Brainwise inderdaad rond de 10 jaar :+
Boel jaar blijven zitten :p.
Als we we het via een vpn in een ander land moeten gebruiken, is het nog steeds niet beschikbaar in de EU.

Vpn is hier gewoon het middel waarmee je een systeem benaderd in een land dat wel toegang heeft.
Je mag het gerust omzeilen noemen (actieve acties nemen om je voor te doen alsof je van ergens anders bent)
Als je een Google Cloud account hebt werkt dit ook gewoon vanuit Nederland:
https://console.cloud.goo...tive/language/create/chat
99,9% van de EU gebruikt geen VPN.
waar baseer je deze cijfers op?
Met alle reclame bij streamers/youtubers/influencers denk ik dat je dat getal wel even kan bijstellen ;) Het is enorm eenvoudig om een VPN te gebruiken tegenwoordig en Marietje van 60 kan het eenvoudig op haar telefoon installeren en los gaan.

Dus ga er maar vanuit dat die 99.9% niet klopt en ver van de waarheid af zit.
"99,9% van de EU gebruikt geen VPN."

In jouw omgeving misschien, in mijn omgeving gebruiken velen het voor Netflix of prime libraries te bekijken van andere regio's. (of voor de lagere prijs...)

Zelf privé vpns
Asus routers hebben dat ook zeer simpel gemaakt, waardoor je de nieuwe Netflix account sharing Kan omzeilen,door eventjes vpn aan te zetten naar je hoofd adres,net voor je de stream start. Nadien zet je het weer uit tijdens de film

[Reactie gewijzigd door sebastienbo op 27 juli 2024 14:36]

Alle tech giganten willen natuurlijk zo veel mogelijk tractie genereren door zsm hun AI uit te brengen. Als jouw AI immers het meest gebruikt wordt dan heb je een voorsprong op de rest.

Vind het wel goed dat er op de rem wordt getrapt als het gaan om privacy. Als het eenmaal actief is is het een stuk lastiger om het tegen te gaan dan het voor de lancering te blokkeren.
Ik zie bij de behandeling van AI en privacy veel vaagheid en misverstanden.

Het eerste punt om te beseffen is dat alles dat je vraagt aan een AI kan worden opgeslagen en verwerkt. Net als iedere andere website en applicatie op internet. Wat dat betreft is het niks speciaals maar het wordt wel aan alle kanten vergeten. Als je een mail van een klant door de AI laat beantwoorden kan de AI de volledige mail opslaan inclusief de privacy risico's die daar bij horen.

Het tweede punt is dat huidige generatie AI's z'n informatie van internet heeft gehaald. Internet staat vol met data die er niet thuis hoort of die niet goed is afgeschermd. Het kan niet anders dan dat er ook een hele berg gevoelige data in de trainingsdata zit en dat je die er weer uit kan peuteren met de juiste vragen. Dat iets op internet staat betekent nog niet dat je het zomaar mag gebruiken.

Het derde punt is dat AI's in staat zijn om complexe informatie af te leiden uit indirecte data. Een klassiek voorbeeld is dat supermarkten eerder dan hun klanten zelf weten wie er zwanger is op grond van veranderingen in de producten die mensen kopen. Dat is natuurlijk geen feitelijke zekerheid maar het is meer dan goed genoeg om je reclame op aan te passen.
Wat betreft jouw laatste punt, in het laatste voorstel voor de AI Act van het Europees Parlement staat expliciet dat AI niet gebruikt mag gaan worden voor "predictive policing" omdat het risico's dat daar dingen mee mis gaan veel te groot is, al helemaal als je het systeem bewust of onbewust voedt met onzin.
Ik hoop dat ze dat dan letterlijk enkel 'policing' bedoel want AI is juist enorm geschikt om 'predictive' en analytische acties uit te voeren. Zo niet, dan slaan ze innovatie direct plat voor geheel Europa.

Ik zie het nu net als zelf-rijdende auto's. Daar rijden tienduizenden van rond in de US en we kunnen de Europese autoindustrie straks wel gedag zeggen.

Niet dat deze nog veel kans had vanwege China, maar goed. Innovatie is hier onmogelijk...
Ja, het gaat specifiek om politiedoeleinden, waar er sowieso flinke extra eisen worden gesteld voor het de Europese markt op kan.

Wat zelfrijdende auto's betreft, het Amerikaanse wegennet leent zich daar nou eenmaal goed voor, alsmede de slechte bescherming van consumenten, maar het is op dit moment een Europees bedrijf (Mercedes) die koploper is en als eerste Level 3 en Level 4 autonoom rijden goedgekeurd heeft gekregen. Level 4 voorlopig alleen in Duitsland geloof ik maar het zou me niets verbazen als Mercedes ook de eerste is die in de VS met Level 4 mag testen.
Ja, het gaat specifiek om politiedoeleinden, waar er sowieso flinke extra eisen worden gesteld voor het de Europese markt op kan.
Dat is fijn om te horen.

maar het is op dit moment een Europees bedrijf (Mercedes) die koploper is en als eerste Level 3 en Level 4 autonoom rijden goedgekeurd heeft gekregen.
Koploper zou ik ze niet noemen maar ironisch is het zeker. Het systeem van Mercedes werkt enkel op voorgedefinieerde stukken snelweg (en enkel in Nevada volgens mij?), onder perfecte weersomstandigheden en onder de 60 KM per uur (dus effectief enkel in de file). Dat is L3 en in Duitsland is de L4 enkel toegestaan op 1 parkeerplaats. Het is dus voornamelijk om te kunnen zeggen dat ze eerste waren. Waymo daarentegen...
Chatbot Bard, niet te verwarren met Bart Chabot.
Zo bizar dat humor hier niet is toegestaan.
Dank voor de glimlach, in ieder geval :D
Google + WHO gaan samenwerken.. Ik weet niet zo zeer hoe leuk dit gaat uitpakken voor ons als burgers qua informatie die straks met elkaar gekoppeld wordt via EU + WHO + Google.. but lets see!
Tja, die boetes komen er pas als er al grove inbreuk op de privacy van EUburgers is gemaakt, ik weet niet of je dat moet willen.
Als de overheid volgens jou maar schijt moeten hebben aan de burgers dan kunnen ze die miljard(en) ook wel rechtstreeks van onze rekening af halen toch?
Tuurlijk.
En de beste manier om snel veel geld te verdienen is via een levensverzekering zeker?

Op dit item kan niet meer gereageerd worden.