Tweaker wil met Wirewiki-tool internetinfrastructuur inzichtelijk maken

Tweaker Ruurtjan Pul, op Tweakers bekend onder de naam Pul, heeft een platform geïntroduceerd dat de infrastructuur van het internet inzichtelijk wil maken. De tool scant continu de IPv4-ruimte op publieke DNS-resolvers om IP-adressen, DNS-servers en domeinnamen aan elkaar te koppelen.

Volgens de oprichter is WireWiki ontwikkeld voor website-eigenaren die problemen met hun configuratie willen oplossen en DevOps-engineers die een duidelijker beeld willen krijgen van hoe de internetinfrastructuur in elkaar zit. Het platform biedt onder meer DNS-lookup en DNS-propagatiecontrole, waarmee beheerders kunnen controleren of wijzigingen in DNS-instellingen al zijn doorgevoerd op verschillende DNS-servers.

Wirewiki toont nu gegevens over domeinnamen, IP-adressen en DNS-servers. Later dit jaar wil Pul ook gegevens toevoegen over domeinregistrars, hostingproviders, content delivery networks en autonomous system numbers. Asn's zijn unieke 16- of 32bits-identifiers van een autonomous system – een verzameling IP-netwerken onder beheer van één entiteit – die via het Border Gateway Protocol hun eigen IP-prefixen adverteren aan de wereldwijde routingtabel van het internet.

Uiteindelijk wil Pul een compleet overzicht van alle internetinfrastructuur bieden, vertelt hij aan Tweakers. "Er zijn genoeg sites met DNS-lookuptools, maar er is er nog geen die alle internetinfrastructuur aan elkaar linkt zodat je er doorheen kan struinen. Het internet is een netwerk, dus wat mij betreft moet het ook op die manier te verkennen zijn. Ik ben er nog lang niet, maar dat is mijn visie voor Wirewiki."

Het verdienmodel van de website is gebaseerd op partnerships met bedrijven. Advertenties zijn op de website niet te vinden. "Dat wil ik graag zo houden, want dat levert een te groot compromis op richting gebruikerservaring en privacy", vindt Pul. "Wirewiki zit nog in de opstartfase en heeft dus nog geen partnerships. In de toekomst hoop ik met hostingproviders, cdn's of data-api-vendors samen te werken."

Wirewiki

Door Imre Himmelbauer

Redacteur

17-03-2026 • 09:00

60

Submitter: Pul

Reacties (60)

Sorteer op:

Weergave:

Waarom alleen IPv4? Het internet is zich langzaam aan het verplaatsen naar IPv6.
Het eerlijke antwoord is dat ik het simpelweg nog niet gedaan heb. Dingen bestaan pas nadat ze gedaan zijn ;)

Er is nog veel te bouwen voor Wirewiki. Publieke IPv6 recursive DNS resolvers scannen staat zeker op de lijst, maar nog niet heel hoog.
Kan je het een beetje anders noemen dan "Internet infrastructuur" ? Ik denk meer aan "Hosting Dependency" - dat komt veel dichter in de buurt. Bij "Infrastructuur" denk ik meer aan "Router Down" "BGP Failover" "Power Outage" "Fibre Cut" - en dat zou ik ook graag gecoverde willen zien, maar een utopie omdat je ook uitwijk naar andere ISPs mee moet nemen en a-symmetrische peering, alle (of de meeste) accessproviders. Zelfs RIPE lukt dat maar gedeeltelijk.

Je huidige scope is "Hosting" en inderdaad, complex veel afhankelijkheden. Wat ik nog mis: Certificaten, RootCA en Intermediate/Cross-Signing/SSLLabs-Test?
Het constant scannen van álle IPv6 adressen is in praktijk niet te doen, daarvoor zijn er veel te veel addressen. Voor IPv4 is het behapbaar.

Voor de rest lijkt de site wel voorbijrijd voor IPv6, ik gok na een paar iteraties dat er wel iets van IPv6 komt.
Er zijn wel technieken om IPv6 space te scannen, hier zijn meerdere talks over geweest op verschillende hackers conferences/camps, waaronder deze inmiddels 10 jaar oude talk:

https://media.ccc.de/v/33c3-8061-you_can_-j_reject_but_you_can_not_hide_global_scanning_of_the_ipv6_internet
Je hoeft toch ook niet alle losse IPv6 adressen te scannnen? Ik zou verwachten dat een /48 of /64 fijnmazig genoeg is. Ook dat zijn natuurlijk alsnog erg veel netwerken.
Pff is wel te doen, kost alleen veel tijd (10^31 jaar, aannemend dat 1 ping 1 seconde duurt) :+.

Maar als je er genoeg geld tegenaan gooit kun je honderden zo niet duizenden systemen dit werk laten doen.
Kennelijk heeft iemand al een systeem gebouwd wat 2 miljard pings per seconde kan doen: https://wiki.nikhef.nl/grid/2Bpps_Machine
Met één zo'n systeem kom je al best een eind, lijkt mij :)
Langzaam is inderdaad wel de juist term :+
Dit soort tools zijn er al volop. Het wordt interessant als je ook historische data gaat aanbieden. Daar zit het geld nog wel in vermoed ik.
Wirewiki doet nu inderdaad alleen active DNS. Elke page load geeft verse resultaten.

Historische DNS-data is minder vaak relevant, maar soms erg nuttig. Ik wil eerst nog wat andere tools en data live zetten, maar hij staat op de lijst!
Kun je dat uitleggen? Waar zit de waarde in van het aanbieden van historische data?
Die historische data, of passive dns, wordt in de cyber security veel gebruikt voor diverse onderzoeks doeleinden. Ik weet uit ervaring dat er grof geld in om gaat.
Aardige tool, maar voor zover ik nu kan zien loopt 'ie wel tegen de beperkingen van standaard DNS-bevragingen aan. Als in: je moet exact weten wat je wilt vragen...
Ik kon bijvoorbeeld de TLSA_records van mijn eigen site niet getoond krijgen, omdat er (schijnbaar) niet gedigd wordt naar een _443._tcp.domeinnaam.ext
En datzelfde geldt voor subdomeinen op andere servers, of specifiekere TXT-records.

Het is een aardige tool, maar voor sommige bevragingen is een DIG (of eventueel digwebinterface.com) praktischer, omdat je daar toch meer vrijheid hebt, en zelf sub (of zelfs sub-sub-)domeinen kunt opvragen.
edit:
[edit] I stand corrected... Je hebt wel degelijk de mogelijkheid om dat te doen, door de complete URL op te geven.
DNS ondersteunt geen subdomain discovery, dus Wirewiki kan - net als alle andere DNS clients - inderdaad niet alle DNS records vinden.

Er zijn wel tools voor subdomain enumeration die met behulp van wat heuristieken veel DNS-requests doen en zich erdoorheen brute forcen.

Dat duurt wat mij betreft te lang voor een page load en is ook niet heel vriendelijk voor authoritative DNS-servers. Voor nu moet je dus zelf het subdomein weten en invoeren.
Tegenwoordig heeft bijna elke website wel een certificaat, dus je zou subdomeinen kunnen discoveren via certificate transparancy logs zoals bijvoorbeeld https://crt.sh/?q=tweakers.net

Gaat alleen mis met wildcard certificates, maar je zou een aardig eind kunnen komen.
Ik vind het wel grappig dat wanneer er geo-aware dns in het spel is (dus de client verwijzen naar iets in de buurt ipv de andere kant van de wereld) het toch gepresenteerd wordt als een rode fout "A records not consistent". Terwijl dat juist het hele stuk is van het geo-aware dns ontwerp. Dat wordt nog wel gemeld in de toelichting "This is normal for A records. They can be geo- or round-robin load-balanced." maar nog steeds in een rood kader.

Nu nog even wachten tot de tool alle (publieke) dns-servers in de wereld kan raadplegen.
Ja, dat was een lastige ontwerpkeuze. Aan de ene kant komt geo-aware DNS vaak genoeg voor, en wil je dus geen waarschuwing geven, maar aan de andere kant kun je ook geen onderscheid maken wanneer een statisch IP veranderd is en nog niet overal bekend is.

Uiteindelijk dus maar opgelost met een waarschuwing met uitleg.
Mooi initiatief. Is de link ook beschikbaar? Succes, Pul!
Grappig, als je de kleine moeite had gedaan om de link van het bronartikel te bekijken (je hoefde hem niet eens te openen) had je al antwoord op je vraag gehad.
Je hebt helemaal gelijk hoor! Weinig moeite gedaan deze keer. Toch fijn dat er medetweakers zijn die het niet erg vinden om de link nog eens te noemen. Direct extra reclame voor de website denk ik dan maar!
Leuke tool, werkt goed!
Vette tool. Extra business model voor bedrijven die niet met hun domein in de database willen :P
Haha. Internet infra data zoals DNS is inherent open, dus die vlieger gaat helaas niet op.
Hoe ga je om met verzoeken van prive personen die hun unieke identifiers zoals domeinnaam/ip-adres liever niet in een extra database hebben staan (AVG is hierin lastig lijkt me)?
Het doel van het registreren van een domeinnaam en het instellen van DNS-records is precies het publiek toegankelijk maken van die gegevens, zodat anderen je op het internet kunnen vinden.

Als je je domeinnaam of DNS-records verwijdert, dan verdwijnen ze ook van Wirewiki.com.
Het doel van het registreren van een domeinnaam en het instellen van DNS-records is precies het publiek toegankelijk maken van die gegevens, zodat anderen je op het internet kunnen vinden.
Uiteraard, dat is de noodzakelijk voor de werking van de dienst. Verwerking door jou is echter niet noodzakelijk voor de werking van die dienst. Je verwerkt potentieel prive gegevens denk ik, maar dat weet ik als niet-jurist natuurlijk totaal niet zeker haha.
Als je je domeinnaam of DNS-records verwijdert, dan verdwijnen ze ook van Wirewiki.com.
Wat is dan de toegevoegde waarde van wirewiki tov nslookup in een terminal bijvoorbeeld?
Wat is dan de toegevoegde waarde van wirewiki tov nslookup in een terminal bijvoorbeeld?
Vooral gebruiksvriendelijkheid en dataverrijking.

Het is allemaal wel te doen met CLIs, maar die ondersteunen standaard maar 1 recordtype en DNS-server per keer. Wirewiki bevraagt meerdere tegelijk, voegt bijvoorbeeld IP-data toe aan A/AAAA-records en laat je makkelijk doorklikken naar gerelateerde data.

Zo heeft elke tool op Wirewiki verbeteringen aan de UX die ik in andere tools niet zie.
Het is publieke data. Je kunt je postcode toch ook niet verstoppen?
Mijn postcode is niet uniek herleidbaar naar mij als persoon. Mijn IP adres in theorie wel. Binnen de AVG is verwerking van uniek herleidbare persoonsgegevens, zonder toestemming, simpelweg niet toegestaan. Het maakt daarbij niet uit of die gegevens reeds elders openbaar zijn voor zover ik weet.
Vreemd, er zijn al talloze sites waar je deze data op kunt vragen, dus waarom zo ingewikkeld doen? Wat kan ik nou met jouw IP? En doorgaans is dat ergens bij een hosting club belegd. Uiteraard zijn er een aantal mensen die een vast IP hebben voor een site, maar dan nog....wat kan iemand ermee? Naar mijn iedee helemaal niets. En ik kan jouw IP toch ook zien als ik naar jouw site ga? Wat is er nou zo geheim aan?

En volgens mij slaat deze de data niet op, maar vraagt ze gewoon op. Zou anders een forse db worden denk ik zo.
Ja ik dacht te lezen dat historische data ook (mogelijk in de toekomst) opgeslagen zou worden. Daar zit mijn bezwaar.
Dit gaat over DNS... voorzover ik zie toont deze site geen WHOIS-info (en die is in 99.9% van de gevallen volledig AVG-proof, en in dat laatste geval is het vaak een prive-klant die een bedrijfsregistratie gedaan heeft).
Daarnaast toont de DNS het IP-adres waar vandaan de site gehost wordt. Als je om je privacy geeft, dan moet je dat dus niet vanaf je thuiscomputer doen, maar via een hoster... en in dat geval is het IP-adres (van de (vaak shared hosting-)server van je hoster) echt niet naar jouw als persoon te herleiden.
Het gaat me puur om de gedachte, want het kan me oprecht niet boeien aangezien de data ook met een simpele nslookup te achterhalen is.

Als ik lekker op mijn thuislijn iets wil hosten achter een domeinnaam, geeft dat niet iemand het recht die data dan maar te verwerken.
Als jij lekker op je thuislijn iets aan het hosten bent, dan heb je je gegevens (je IP-adres) allang zelf in een publiek te benaderen database (DNS) gezet. Dat wil zeggen: op het moment dat jij die gegevens gekoppeld hebt aan een domeinnaam.
Dat is wezenlijk anders dan je NAW-gegevens afgeven aan een Odido omdat je een internet-abonnement van ze afneemt.
Dat de data publiek toegankelijk is, betekend niet dat die ook verwerkt mag worden. Als deze tool dus simpelweg een wrapper is voor dig/nslookup en wat andere CLI tools is er weinig aan de hand, maar als historische data opgeslagen wordt bijvoorbeeld is dat naar mijn weten wel problematisch.
Dan heeft de bouwer je punt al ontzenuwt: Pul in 'Tweaker wil met Wirewiki-tool internetinfrastructuur inzichtelijk maken'
Het punt blijft vooralsnog wel dat jij er - in het hypothetische geval dat jij een site vanaf je thuis-IP host - je zelf die data al beschikbaar stelt via DNS... en DNS is sowieso openbaar ;)
Ja en nee. Historische data staat op de wishlist en daar zie ik wel potentieel issues in. Het is iets waar ik voor een tool die ik nu aan het bouwen ben ook hard aan werk om data te anonimiseren vóórdat die mijn database in komt. Ergens openbare data vandaan halen en die netjes weergeven is geen bezwaar, maar op het moment dat je die data ook maar ergens opslaat is dat het wel.
Toegevoegd aan mijn bookmarks. Op het moment klinkt vooral de DNS-propagatiecontrole interessant, dat vond ik tot nu altijd een beetje een opaque iets. Kijken of dit wat is de volgende keer om dit inzichtelijker te krijgen.

I.i.g. veel succes gewenst met je project @pull! Klinkt als iets om in de gaten te houden.
Bedankt!

Opaque, ja, want DNS-caches zijn overal en meestal niet te beïnvloeden. Aan de andere kant: DNS stelt je juist ook in staat om caches te inspecteren. Je kunt precies zijn wanneer de TTL afloopt, en de server dus weer verse records gaat ophalen.
Is deze tool niet vergelijkbaar met Robtex? Robtex - Free DNS Lookup & Network Intelligence

Ik zie in elk geval een hoop overeenkomstige tools op beide sites.
Dat is ook zeker een nuttige tool. Ik mik op een betere gebruikerservaring en dataverrijking.
Beste,

Ik gebruik de tool Dnsdumpster is dit dan niet hetzelfde (vind dit nl interessant voor osint investigation)
Spammers en hackers zullen het prachtig vinden als ze achterdeurtjes of onbekende reeksen zoeken. Ook nog netjes alle namen.
Elke tool kan welwillend en kwaadaardig gebruikt worden.

Internetinfrastructuurdata is inherent openbaar. Ik geef het alleen op een gebruiksvriendelijkere manier weer. Iedere voldoende gemotiveerde persoon kan dezelfde data verkrijgen.

Heb je een voorbeeld van wat kwaadwillenden met Wirewiki zouden doen dat ze zonder Wirewiki niet of niet makkelijk kunnen?

Om te kunnen reageren moet je ingelogd zijn