Google Chrome krijgt lokaal Gemini Nano-model voor opsporen oplichterij

Google gebruikt vanaf Chrome 137 voor pc's het taalmodel Gemini Nano om te helpen bij het herkennen van oplichterij. Het AI-model draait lokaal en maakt onderdeel uit van de functie 'Geoptimaliseerde beveiliging' van Safe Browsing voor Chrome.

Google Gemini Nano in ChromeGebruikers kunnen in de nieuwste versie van Google Chrome in de Instellingen onder het kopje 'Privacy en beveiliging' bij Beveiliging al langer kiezen tussen verschillende vormen van beveiliging, waaronder de optie 'Geoptimaliseerde beveiliging'. Deze instelling voegt vanaf versie 137 op pc's een lokale versie van Gemini Nano toe aan de manieren waarop Chrome oplichterij en andere kwaadwillige praktijken opspoort. Later dit jaar moet de functie ook uitkomen voor Chrome op Android.

Google schrijft in een toelichting dat Gemini Nano ingeschakeld wordt wanneer er een potentieel gevaarlijke website bezocht wordt, bijvoorbeeld een site die een api voor toetsenbordblokkering gebruikt. Chrome geeft het taalmodel lokaal de inhoud van de website. Dit is volgens de techgigant het belangrijke voordeel van een lokaal model: het systeem krijgt dezelfde informatie te zien als de gebruiker. Websites worden vaak verschillend gerenderd afhankelijk van het systeem. "Vaak gebeurt dat om legitieme redenen, bijvoorbeeld om rekening te houden met uiteenlopende apparaten, personalisering of tijdelijke content. Maar soms gebeurt dat uit kwaadwillige beweegredenen, bijvoorbeeld om beveiligingscrawlers te omzeilen."

Nadat Gemini Nano de potentiële oplichtingswebsite evalueert, worden de resultaten naar Googles Safe Browsing-server gestuurd. Daar wordt een eindoordeel gemaakt over de site en daarna krijgt de gebruiker eventueel een beveiligingswaarschuwing te zien.

Beveiliging en AI

In een andere blogpost benadrukt Google dat kunstmatige intelligentie een steeds belangrijker onderdeel van online beveiliging is. Het bedrijf zegt in Zoeken de afgelopen jaren twintig keer meer oplichterijwebsites te hebben kunnen herkennen en blokkeren dankzij ontwikkelingen zoals kunstmatige intelligentie. Het bedrijf blokkeert naar eigen zeggen dagelijks honderdduizenden zoekresultaten die oplichting als doel hebben.

De laatste tijd zegt Google een 'significante stijging' te detecteren van het aantal gevallen van vliegmaatschappijhelpdeskfraude. Ook websites die zich voordoen als officiële overheidswebsites voor bijvoorbeeld visums nemen toe. Het bedrijf claimt deze gevallen van oplichting met respectievelijk 80 en 70 procent te hebben teruggedrongen in Google Zoeken.

Google Gemini Nano voor Chrome

Door Yannick Spinner

Redacteur

09-05-2025 • 10:13

40

Reacties (40)

40
37
19
1
0
15
Wijzig sortering
Ik zie hier 2 kanten aan.

De positieve kant is dat deze AI door honderden miljoenen browsers gevoed wordt met informatie over oplichtings- en phisingsites. Het model kan hierdoor steeds beter bepalen of iets wel of geen oplichting is. Dat lijkt mij een goede ontwikkeling om minder adepte internetgebruikers te beschermen tegen deze vorm van misdaad.

De negatieve kant is dat je data gewoon naar Google gaat om geanalyseerd te worden. Het verdwijnt eigenlijk in een zwart gat (Safe Browsing Server), vervolgens komt er iets aan de andere kant uit. Wat gebeurt er met die data? Ik neem aan dat Google hier ook iets op wil gaan verdienen en dat dit verkocht gaat worden.

Ik was in het verleden een groot fan van Google Chrome, maar dergelijke zaken (en dan voornamelijk het recente Manifest v3 verhaal) heeft mij toch doen besluiten om over te stappen op een andere browser (in mijn geval Mozilla Firefox).

Ik zie zelfs dat dit dus DEFAULT aangezet wordt!

[Reactie gewijzigd door EquiNox op 9 mei 2025 10:37]

Het model draait lokaal. De data gaat dus niet naar servers van Google.
Beg to differ; gezien het feit dat {domain reputation} wordt bepaald op de Safe Browsing Server van Google (buiten je device), gaat er dus wel (herkenbare) data naar Google, zoals het domein wat je probeert te benaderen. Zie ook het schema in het artikel. Ik ben echt wel benieuwd hoeveel data Google Safe Browsing Server doorgestuurd krijgt van je lokale Gemini AI.

Zie ook deze screenshot van de Google Settings mbt Enhanced Protection.
Domain reputation was altijd al extern (en vergelijkbaar met de sentinelone plugin die bij ons verplicht draait, en dat is laag een, laag twee is de lokaal draaiende Ai die page intent met Safebrowsing communiceert.
en vergelijkbaar met de sentinelone plugin die bij ons verplicht draait
Dat is een enterprise product met ditto overeenkomst. Totaal niet vergelijkbaar met de willekeurige privacy voorwaarden van een partij als Google.

Jouw werkgever heeft een overeenkomst met SentinelOne en daarmee ook een contract wat afdwingbaar maakt dat jouw surfgedrag niet publiek wordt gebruikt voor reclame en/of andere 3rd party interests waar jij geen drol om geeft. Gigantisch verschil.
lol

"Stuurt alle URLs een klein beetje content, downloads, activity van extensions op de pagina en systeem info door"

oh en als je ingelogd bent "knuppen we het ook direct aan je google account"


Nee wordt niks doorgestuurd hoor _/-\o_
Het model draait lokaal. De data gaat dus niet naar servers van Google.
Die conclusie kun je niet logisch trekken.
Windows draait ook lokaal, toch gaat er data naar Microsoft. Telemetrie bijvoorbeeld.
Er wordt hier niets gezegd over welke (telemetrie)data naar Google gaat.
Je kan er denk ik veilig van uit gaan dat alles wat je doet in Google Chrome naar Google wordt gestuurd.
Het model draait lokaal, de data zal gedeeld worden. Het is Google.
Het model draait lokaal. De data gaat dus niet naar servers van Google.
Als het model publiek beschikbaar is kunnen oplichters dus heel makkelijk controleren of hun trucs wel of niet door het filter gepakt worden. Heel benieuwd of dat de waarde op termijn niet heel erg gaat ondermijnen.
Dat zijn dus allebei nadelen. Het voeden met informatie (wat voor informatie?) van een systeem van Google door honderden miljoenen browsers. Sorry, maar Google en data zijn niet te vertrouwen.
Begint AI niet teveel in ons leven te komen op deze manier?
Kun je dat ook onderbouwen? Ik vind dit juist een mooie toepassing van een taalmodel. Mijn zorgen zouden eerder false positives zijn, zoals @Infor40 ook al beschrijft. Het is feitelijk een zwarte doos voor webontwikkelaars wanneer hun site plots als oplichting gemarkeerd word.

[Reactie gewijzigd door Wolfos op 9 mei 2025 10:44]

Dat is zeker zo, maar door AI gaat men zelf minder nadenken, want AI weet alles.

Het is heel handig, maar ik denk uiteindelijk dat je zelf ook gewoon nog moet kunnen nadenken over hoe je iets doet; internet kan ook ermee stoppen.
Feit blijft dat deze oplichting echt constant gebeurt en mensen er ook nu al intrappen.
Kun je dat ook onderbouwen?
hoeft niet, heeft MS al gedaan voor ons:
https://www.microsoft.com...vey-of-knowledge-workers/

De samenvatting: https://gizmodo.com/micro...hinking-skills-2000561788
Mijn zorgen zouden eerder false positives zijn
Zolang AI geen sarcasme en ironie begrijpt (spoiler-alert, gaat ie niet) wordt dit echt wel een ding.
AI is here to stay denk ik. We hebben een soort neuro brein bedacht wat we kunnen trainen met data om ons leven makkelijker te maken. Alleen is het credo "rubbish in = rubbish out" wel van toepassing. Het systeem staat of valt met de trainingsdata van het model.

Voorbeeldje wat we allemaal wel kennen : Tesla Autopilot. Werkt geweldig, onder omstandigheden. Alleen was het model niet getrained op een op zijn kant liggende vrachtwagen. Het had geen idee wat dat was en ook geen flauw benul dat dat gevaarlijk kon zijn. De bestuurder overleefde het niet.

Ander voorbeeld : Meta wil hun AI trainen met de inhoud van Facebook en Instagram. Als je ziet hoeveel tenenkrommende leugens en onwaarheden daar langskomen dan kan dat model nooit wat worden. Nu heb je uitdrukkingen als "het heb op facebook gestaan dus het is waar!". Straks moet je dan AI invullen ipv facebook. En dat is waar het gevaarlijk wordt. Het teveel vertrouwen in een systeem en verwachten dat wat het roept klopt.
Alleen was het model niet getrained op een op zijn kant liggende vrachtwagen.
Hoe kom je hier bij? Dit is volgens mij namelijk op 2 manieren een broodje aap.
WAARSCHUWING : De beelden kunnen als schokkend worden ervaren.

YouTube: The Hidden Autopilot Data That Reveals Why Teslas Crash | WSJ

Beeld vanuit de Tesla zelf die de op zijn kant liggende vrachtwagen negeert. Ook beelden van een 2e ongeval waarin de Tesla niet ziet dat er een vrachtwagen op zijn kant ligt.

En je antwoord na 04:00 : "it was not trained on the kind of pictures of an overturned double trailer. It did not know what it was". Op 06:10 komt een voormalig Tesla medewerker aan bod die de training van de AI deed. Het viel hem op dat de camera's niet gecalibreerd waren en dat objecten in de ene feed ergens anders waren dan in een andere, of compleet niet te zien (06:55).

Tot zover je broodje aap :P
Ah oke, dat is een nieuwe voor mij, Dacht dat we het over die trailer hadden paar jaar terug. Dat was namelijk nog geen "AI" en die stak gewoon normaal over. Dat ging op hele andere manieren desastreus mis.


Maar even. Het model zou ook helemaal niet getrained moeten zijn op dat soort specifieke dingen, het zou getraind moeten zijn om te herkennen dat de weg niet meer bestaat. Zoals duidelijk te zien is in andere crash documentatie herkent het ook het einde van een weg niet goed. En dat is gewoon zonde. Had zo'n systeem moeten weten. Het systeem doet het in 99% van de gevallen wel veel beter dan mensen en dat is an sich wel een vooruitgang. Nu alleen de uitzonderingen nog even goed krijgen.

Sowieso vind ik het raar dat deze mensen klaarblijkelijk niet aanwezig zijn bij het rijden, want ze missen echt gigantisch belangrijke clues (zwaailichten en barrières) of hebben gewoon pech (pick-up die kennelijk gecrashed was zag ik ook pas op het moment dat het te laat was.)
De overleden bestuurder had ook 19 waarschuwingen van de Tesla genegeerd dat hij moest opletten. Hij zat kennelijk op zijn telefoon of de krant te lezen ofzo.

Je kan AI alleen trainen met iets wat gedetecteerd kan worden. Je kan het met foto's niet leren om te ontdekken wat er juist niet is. Dan zou je het nog kunnen leren om "iets" te detecteren maar zoals je in het filmpje kan zien registreren de camera's hetzelfde object niet op dezelfde plek, of een camera ziet het compleet over het hoofd.

De oplossing zou radar zijn, maar die zit sinds 2021 niet meer op de modellen en is eind 2021 compleet uit de software geschreven. Volgafstand "1" (Audi mode) is vanaf dat moment ook niet meer mogelijk.
Volgafstand "1" (Audi mode) is vanaf dat moment ook niet meer mogelijk.
Klopt. Groot gemis kan ik je vertellen. Nu moet ik zelf inschatten hoeveel 1,5 meter is 8)7
De overleden bestuurder had ook 19 waarschuwingen van de Tesla genegeerd dat hij moest opletten.
Ik niet begraip. die dingen worden op een gegeven moment echt heel irritant. Dat je er 19 kunt negeren is bizar.

Overigens ook erg raar dat ie dan niet gewoon die auto aan de kant zit.

19 waarschuwingen is enkele kilometers.
Je kan het met foto's niet leren om te ontdekken wat er juist niet is
Zeker wel. "zie jij hier een weg? Nee? misschien moet je dan remmen.." D'r zijn wel manieren ;)
Wat lastig is met die soort inzet van AI is dat de keuzen die het systeem maakt heel impliciet blijven. Oftewel je kunt niet zien (als gebruiker) waarom jij nu deze website niet meer kunt zien of wat er aan de hand is. Dat kon je al bij veel dingen niet (gemakkelijk) maar het wordt wel steeds lastiger.

Daarbij wordt het ook voor techneuten onder ons veel moeilijker om dit soort 'keuzeprocessen: wel/niet veilig" te doorgronden. En hoe toets je dan nog? En waar ligt de macht?

Nu lijkt dit een decentrale oplossing maar deze is wel centraal vormgegeven, communiceert ook met een centrale server/systeem binnen een markt die al met gemak als een monopolie kan worden beschouwd. Dat is geen goede combinatie van ingrediënten zou ik zeggen.
Niet alleen dat, maar ook als websiteontwikkelaar is het onmogelijk om met dit soort tools te werken. "Waarom is mijn website kwaadaardig?" -> "weten we niet, is AI" is niet te debuggen.

Eerder heb ik ook gezien hoe dit mis ging bij een internetfilter voor kinderen: websites werden met "AI" gescoord (lees: statistieken over termen die in de tekst voorbij kwamen) en soms had je een website die afhankelijk van hoe de pagina uitkwam wel of niet door het filter heen kwam. Dan terug gaan zoeken welke (gedeeltelijke) woorden het systeem nu weer kapot maakte en welke statistisch bepaalde regelzwaartes nu weer moesten worden aangepast om een normale schoolwebsite door te laten was praktisch onmogelijk.

Op zich is er wel wat te zeggen voor zo'n AI mits deze alleen triggert bij extreem overduidelijke gevallen. De "je whatsapp moet worden geüpdated klik hier whatsapp.apk" en "Microsoft Windows heeft 102984 virussen op je computer gevonden"-type websites zijn op zich niet zo moeilijk te herkennen en zeer zelden zijn de uitdragingen en het gedrag van die websites moeilijk te verwarren met legitieme websites. In het slechtste geval wordt fakebsod.com of zoiets misschien verkeerd beoordeeld.

Aan de andere kant, die pagina's worden bezocht omdat Google Search die dingen suggereert middels AdWords, dus als men die detectie kan doen, mag Google daar ook eens beter hun verantwoordelijkheid in nemen...

[Reactie gewijzigd door GertMenkel op 9 mei 2025 10:39]

mag Google daar ook eens beter hun verantwoordelijkheid in nemen...
Dat kost geld. Ik heb laatst bij YT wat ads gerapporteerd die bestiality met kindern promootte (AI Stories) en daar heb ik wel even een goed woordje gedaan over hoe kansloos ik dat vond dat dit door de screening kwam, maar die Ads zijn niet verwijderd. Kun je dus nog gewoon tegenkomen. Hartstikke illegaal in de meeste landen.
Woord/token associaties en resp. gewicht ten opzichte van intentie zijn bovendien twee heel wezenlijk andere zaken.
Een mens kan de intentie, het gevolg van een toegepast bedrijfsmodel bijvoorbeeld, herkennen.
Ongeacht of er woorden/tokens gebruikt worden die associaties hebben met een scam of social engineering, etc.

Mensen kunnen dus op meerdere lagen intenties en effect hebben die verhuld kunnen gaan achter anderzijds waardeloze/platte woorden.
Dit zal voor veel mensen een mooie feature zijn, maar het blijft wel een kat -en -muisspel, en ik vraag me af wat de performance impact hier weer van gaat zijn.
Dit is nu voor "Chrome voor PCs". Daarbij denk ik aan msWindows, Apple Mac en eventueel linux geïnstalleerde versies. Verder in het bericht staat dat Android later aan de beurt komt. Waar kan ik de ChromeOS versie verwachten?

De autist in mij zegt dat die niet aan de beurt komt want ze wordt niet genoemd. De nerd in mij zegt dat ze met de "Chrome voor PCs' mee gaat en er dus al is...
neeeeee rot op met je AI forceren. Als ik het wil zet ik het wel aan of uit.
Ja dat kan je nu toch doen. Je kan het uitzetten als je niet wil.
Het bedrijf zegt in Zoeken de afgelopen jaren twintig keer meer oplichterijwebsites te hebben kunnen herkennen en blokkeren
nouja, ik ook. Want wat ik daadwerkelijk zoek vind ik niet meer. Google search is 1 grote marketing grap geworden.

Promoted search (dus ads) passen perfect bij wat je zoekt, maar de organische resultaten (die je al bijna op pagina 2 moet vinden) zijn veelal niet wat je zoekt, en soms precies het tegenovergestelde.

Zoek je op producten dan is het helemaal debiel. De adsense products zijn spot on (dus google weet heel goed wat je wel bedoelt), maar de organische resultaten komen nog niet eens in de buurt.
Zal het systeem Google ook als oplichtersbende weten te herkennen?
@YannickSpinner

oplichterij --> oplichting
Beide woorden zijn volgens onze eindredactie mogelijk; het zijn synoniemen.
? Ik denk juist dat dit dan weer één van de positievere kanten van AI is.

De gemiddelde tweaker zal een oplichtingssite of mail er makkelijk uit pikken, voor een halve digibeet is dit soms lastig. Ik zit zelf te wachten op een AI die je telefoon opneemt en zo scam calls eruit vist (of ze gewoon lekker een uurtje bezig houdt).
De gemiddelde tweaker zal een oplichtingssite of mail er makkelijk uit pikken, voor een halve digibeet is dit soms lastig.
Ik snap het echt niet.

We zijn nu al wat 10 jaar bezig met allerlei troep om scams te voorkomen met allerlei voorlichting over "DON'T FUCKING DO IT EVER" en toch gebeurt het.

Denk niet echt dat AI hier nou iets nuttigs bij gaat dragen.
Ik zit zelf te wachten op een AI die je telefoon opneemt en zo scam calls eruit vist (of ze gewoon lekker een uurtje bezig houdt).
hmmm das wel een goeie. Ik zal eens kijken, misschien niet zo heel moeilijk om te maken.
Welnee joh: ik voel me een stuk veiliger nu. Danzij de inzet van AI door Google. Ga gerust slapen.


Om te kunnen reageren moet je ingelogd zijn