Google laat Gemini-agent darkweb afspeuren naar cyberdreigingen

Google test een nieuwe functie voor de dienst Google Threat Intelligence waarmee een Gemini-agent het darkweb doorzoekt op cyberdreigingen. De tool moet organisaties informatie geven over potentiële dreigingen door bijvoorbeeld hackersgroeperingen. Het gaat vooralsnog om een previewversie en het is niet duidelijk wanneer iedereen de dienst kan gebruiken.

Volgens Google is het probleem van darkwebanalyses niet het gebrek aan data, maar aan de relevantie die de data heeft. De techgigant claimt dat zijn Gemini-agent miljoenen 'events' per dag kan analyseren en beoordelen op potentiële dreiging. De tool heeft ook toegang tot informatie van menselijke analisten van de dienst, waaronder tot een database van 627 bekende hackersgroeperingen en cybercriminelen.

Dergelijke tools bestaan al, maar werken volgens Google voornamelijk met exacte trefwoorden. Google Threat Intelligence moet op basis van het gebruikersprofiel ook minder concrete dreigingen kunnen opsporen op basis van context.

Het bedrijf noemt als voorbeeld: "Stel dat een hacker op een onbekend forum claimt dat hij actieve vpn-toegang tot een groot Europese bedrijf met 15 miljard dollar aan jaarlijkse omzet verkoopt, met toegang tot het loonadministratiesysteem en logistiekportals." Google Threat Intelligence zou op basis van die informatie moeten kunnen herleiden of het om een dreiging voor de afnemer van de dienst gaat of niet.

Vooralsnog test Google de tool als preview. Uit interne tests zou blijken dat Google Threat Intelligence met Gemini 98 procent accuraat is. Het is niet duidelijk hoe de tool in de praktijk presteert. Overigens stopte Google onlangs met een vergelijkbare dienst voor particulieren, waarmee op het darkweb naar e-mailadressen gezocht kon worden.

Wat is het darkweb?

Het darkweb is een naam voor de verzameling sites die niet toegankelijk zijn via reguliere browsers zoals Chrome of Safari. Bovendien indexeren zoekmachines deze sites niet, dus ze zijn niet via bijvoorbeeld Google Zoeken te vinden. Gebruikers moeten direct naar een dergelijke website surfen, eventueel via speciale linklijsten.

Om op het darkweb te komen, moeten gebruikers speciale software inzetten zoals de Tor Browser. Deze browser maakt via meerdere tussenlagen verbinding met de te bezoeken website en maakt de gebruiker in dat proces zo goed als anoniem. Het darkweb wordt gebruikt voor privacy- en veiligheidsdoeleinden, maar ook voor illegale handelingen, zoals het aanbieden en verhandelen van illegale diensten, spullen en content.

Door Yannick Spinner

Redacteur

23-03-2026 • 20:11

28

Reacties (28)

Sorteer op:

Weergave:

Bovendien indexeren zoekmachines deze sites niet, dus ze zijn niet via bijvoorbeeld Google Zoeken te vinden.
Dat is dus de vraag. Schijnbaar weet Google genoeg van dergelijke sites te vinden dat ze deze kunnen doorzoeken om cyberdreigingen te vinden. Ik gok dus dat ze ze wel al indexeren, maar dit niet via de normale zoekmachine beschikbaar maken (aangezien daar waarschijnlijk alleen maar meer problemen van komen).
Er zijn zat zoekmachines op het darkweb om websites te vinden. En daar maakt Google denk ik ook dankbaar gebruik van
Reguliere zoekmachines indexeren die sites niet. Er zijn wel indexers op het darkweb waarmee je dergelijke sites kan vinden.
Hmmm, een AI die het dard web begint af te zoeken naar dreigingen ...... ik zie hier het begin van een doom scenario verschijnen ... :D
Het darkweb is een naam voor de verzameling sites die niet toegankelijk zijn via reguliere browsers zoals Chrome of Safari.
Wat is dit voor huis-tuin-en-keuken uitleg? Het “darkweb” is prima bereikbaar via iedere reguliere browser zolang je je netwerk maar routed door e.g het Tor Netwerk.
Kun je dan ook nog even de correcte uitleg van het darkweb geven? Of hou je het alleen bij affakkelen van andermans definitie.
Het "darkweb" is een term die eigenlijk nooit door experten in dat veld gebruikt wordt, het is eerder een sensatieterm gebruikt in media en film. Onion services (in Tor) of Eepsites (in i2p) zijn de gebruikte termen.

Om dan toch een definitie te geven zou ik eerder zeggen: Een subset van 't internet bestaand uit diensten die gehost worden op overlay-networks en die protocolspecifieke routering en adresseringsschema’s vereisen die niet standaard ondersteund worden door de publieke routeringsinfrastructuur van het internet.

De gebruikte definitie in dit artikel zou nog aanvaardbaar zijn op een algemene nieuwssite, maar op een technische nieuwssite verwacht ik toch meer inzicht en accuraatheid. Door het Tor Project te linken aan termen als "het darkweb" is er direct een annotatie met iets "crimineels", wat afdoet aan het eigenlijke doel van dat en soortgelijke projecten.

[Reactie gewijzigd door ONiel op 24 maart 2026 10:00]

Ik denk eigenlijk dat je als Tweaker helemaal geen uitleg nodig hebt voor wat betreft de term darkweb. Tweakers richt zich echter op een groter publiek en dan is hun uitleg wel degelijk beter. Jouw uitleg vereist namelijk dat je ook mag gaan uitleggen wat een overlay-network, routering en adresseringsschema is.

Dus misschien moet je je niet al te druk maken over een stukje huis-tuin-en-keuken uitleg en gewoon accepteren dat er ook minder goed geïnformeerde bezoekers op Tweakers langs komen. Als ze echt willen doorgronden hoe het Tor netwerk werkt dan moeten ze maar naar Wikipedia gaan.
Akkoord, geen uitleg is beter dan foute uitleg die dan ook nog eens nadruk legt op "llegale handelingen, zoals het aanbieden en verhandelen van illegale diensten, spullen en content".

Als je het werk van een hele non-profit en alle vrijwilligers errond gaat minimaliseren tot dat, zorg dan op z'n minst dat je uitleg correct is.

[Reactie gewijzigd door ONiel op 24 maart 2026 11:41]

Laten we 'hopen' dat ze geen last krijgen van Prompt Injection.
Grootste probleem bij al die diensten is inderdaad wel de relevantie.
Telkens er ergens opnieuw een grote dump is van loginnamen en wachtwoorden zit ik er wel bij, met een linkedin account die 12 jaar geleden ofzo gehacked is, jah... totaal niet relevant dus want dat wachtwoord gebruik ik al lang nergens meer.
Lekker de datasets van hackgroepen binnenhalen en de profielen aanvullen zullen ze bedoelen.
Denk dat die scrapers tor nu niet echt ten goede komen, jammer. leuk om kwetsbaarheden te zoeken maar zijn er echt zo veel niet publiek bekende die een dergelijke scraper kan vinden?
Interessant! Afgelopen weekend twee papers gelezen over het feit dat zoekmachines an sich irrelevant zijn geworden dankzij LLM’s. Door dit soort ontwikkelingen worden ook aanbieders van dark web threat intel geraakt. Ik ken er genoeg die een houwtje touwtje oplossing hebben en die voor een paar duizend per jaar verkopen, dit lijkt al veelbelovender door de automatiseringen die ingebouwd kunnen worden.
Ik zoek een loodgieter of een adres of telefoonnummer een LLM gaat mij daar niet me helpen. Of openings tijden van een winkel. Google vindt dat alles zonder problemen. Vaak skip ik de totale onzin van Ai! Tenzij ik iets zoek specifiek. Een bekende persoon of datum dat iets gebeurde dat soort dingen kan een LLM wel. Maar een wiki had mij vast ook geholpen
Om verder te gaan op jouw loodgieter analogieën: gebruik je gereedschap waar het voor bedoeld is.

Een schroevendraaier kun je gebruiken als hamer, maar dat werkt niet zo goed.

Openingstijden van een loodgieter, zal elke LLM met een zucht zeggen: "let me Google that for you", dat klopt.

Maar, een lijst van alle loodgieters in een straal van 10km van jouw huis, geordend op reviews. Dat gaat je niet lukken met Google.

[Reactie gewijzigd door TechSupreme op 24 maart 2026 03:10]

Maar, een lijst van alle loodgieters in een straal van 10km van jouw huis, geordend op reviews. Dat gaat je niet lukken met Google.
Google maps?
Ik wist niet dat Google maps lijstjes kon maken en ordenen op reviews. Weer wat geleerd.
De LLM gaat wel helpen als die exact jouw voorkeuren weet. Als jij alleen loodgieters met 4.7 ster gemiddeld of hoger wilt. Of alleen in de avonduren. Een LLM kan dat sneller correleren dan jouw zoekopdracht.
Een taalmodel (large language model) heeft niets te maken met personalisatie zoals jij beschrijft. Een taalmodel kan eventueel zijn zoekopdracht interpreteren, doorgeven aan een 'traditionele' zoekmachine, zoals Google, en als deze een profiel van jou heeft opgebouwd kan die jouw voorkeuren meenemen. En om het dan hip te maken, die resultaten weer teruggeven aan een LLM om weer een mooi textueel resultaat te geven.

Een taalmodel is 'ooit', vaak enige tijd geleden, gebouwd door grote datasets te parsen. Die weet per definitie niets van jou, en niets wat heel recent is.

Ik zie veel partijen nu wel de kans grijpen om onder de noemer 'AI' allerlei nieuwe features te introduceren vanwege het momentum dat er nu is, maar niet alles is AI.
LLM’s zijn al veel verder dan wat jij beschrijft. Die personalisatieslag is er al een tijdje, en maakt dat antwoorden grotendeels afgestemd kunnen worden op het profiel van mensen.
Op LLM niveau personalizeren is zeker een ding met LoRA Adapters welke het gedrag en taalgebruik van de LLM beinvloeden. Maar zoals @thegve al aangaf, dit zijn niet de personalisaties waar @Jorah_Newstone het over heeft.

Een profiel waarin staat dat de gebruiker hoge eisen heeft en van 8:00 tot 17:00 werkt horen thuis in een RAG database. Dit is tooling rondom een LLM net zoals er tooling kan bestaan rondom een zoekmachine.

Het mooie van de AI chats is natuurlijk de directe communicatie met de gebruikers. Een profiel opbouwen gaat veel makkelijker als de gebruiker verteld wat die wil. In tegestelling tot een Google die het profileren via allemaal omwegen moeten doen.
Die personalisatie realiseren is mijn werk. De ontwikkelingen gaan snel en ik mis heus wel eens wat mogelijkheden, maar denk dat ik redelijk 'bij' ben. Er zijn veel misvattingen rondom AI en het is geen magisch wonder.

Met LoRa kan je eventueel iets personaliseren (nuttig en efficiënt afhankelijk van je doel), maar op je persoonlijke voorkeuren afstemmen is niet wat je in het model zelf doet. In mijn werk prompt ik dat meestal mee, maar RAG kan ook, net om hoe veel data het gaat en hoe complex die is.
Probeer is Gemini, ik verbaas mij erover hoe sterk verbeterd dat systeem wel niet is.
Lees je eens in in AI SEO en ook dit soort use cases kunnen verwerkt worden door een LLM.

Vergeet niet dat het een taalmodel is. Gekoppelt aan live internet vindt het beter de oplossingen dan traditioneel googlen.
Afgelopen weekend twee papers gelezen over het feit dat zoekmachines an sich irrelevant zijn geworden dankzij LLM’s.
Ik zie de links naar deze papers gaarne te gemoed.
Ik ben er ook wel benieuw naar, want dat TekstVoorspeller 3000 een zoekmachine zou vervangen is gewoon dikke treut. Hebben we allemaal al aan de lijve ondervonden.

Om te kunnen reageren moet je ingelogd zijn