Door Olaf van Miltenburg

Nieuwscoördinator

Het Interplanetary File System

Opslag voor decentraal web krijgt tractie

11-02-2021 • 17:07

104

IPFS

Begin dit jaar kondigde Brave aan dat zijn desktopbrowser IPFS ging ondersteunen. Dit zal nog niet iedereen wat zeggen, maar Interplanetary File System is een belangrijke stap voor voorstanders van een gedecentraliseerder web. Het is niet de eerste stap, want Cloudflare zette in 2018 al een IPFS Gateway op en vorig jaar maart maakte Opera bekend IPFS bij zijn Android-browser te ondersteunen. De aandacht voor de technologie groeit en daarom wordt het eens tijd dit p2p-netwerk voor internet en dan met name het web onder de loep te nemen.

IPFS is dus een bestandssysteem, een systeem dat regelt hoe data opgeslagen en opgehaald wordt. Offline doen NTFS voor Windows, ext4 voor Linux en APFS voor macOS bijvoorbeeld hetzelfde. Systemen om bestanden via netwerken te kunnen benaderen zijn er ook al sinds de jaren tachtig van de vorige eeuw, zoals Network File System en Server Message Block. Die bestandssystemen voor netwerken werken nog op de traditionele wijze: er is een client en die wil toegang tot data opgeslagen op een server.

Zo werken veel technieken die gebaseerd zijn op het klassieke model van internet ook. Denk bijvoorbeeld aan het Hypertext Transfer Protocol voor het web. Als je een url intypt in je browser, vraagt je browser als client via een HTTP-request de data op van een adres dat behoort bij de website van de url. Die data is opgeslagen op een server. Die stuurt de data, zoals HTML-bestanden, terug naar de client. Er kunnen verschillende tussenstations zijn, zoals proxies of zoals relaynodes in het Tor-netwerk, of de data kan versneld via een webcache geleverd worden, maar het principe blijft hetzelfde: de opgevraagde data is opgeslagen op een centraal punt.

De problemen met centrale servers

Dat klassieke model van internet is enorm succesvol geweest en heeft bijgedragen aan de jarenlange groei van internet en ook van het web op dat internet. Het heeft geleid tot een complex en wijdvertakt netwerk. Dat is dankzij zijn vele routeringmogelijkheden bestand tegen uitvallen van delen ervan: het maakt niet uit hoe je tot het uiteindelijke eindpunt komt, zoals de centrale server. Als je er maar komt. Toch heeft dit model ook tal van negatieve eigenschappen, die de laatste jaren steeds meer aandacht krijgen.

Want de beschikbaarheid van veel websites en informatie is zo afhankelijk van de aanwezigheid van de corresponderende data op een enkele plek, de uiteindelijke server. Wat als die server offline gaat, de data gewist wordt of een ddos-aanval de server platlegt? Berucht is het voorbeeld van GeoCities. Yahoo trok in 2009 de stekker uit die dienst waardoor in een klap 38 miljoen GeoCities-websites voorgoed dreigden te verdwijnen. Hetzelfde leek in 2013 met de bijna 14 miljoen torrentbestanden van IsoHunt te gebeuren toen die site op de knieën gedwongen werd en dichterbij huis was het Hyves dat een gapend gat in de Nederlandse internetgeschiedenis dreigde achter te laten. Inderhaast kwamen ArchiveTeams in actie om die data van GeoCities, IsoHunt en Hyves te redden. Die staat nu bij het Internet Archive, maar de vraag is hoe toekomstbestendig de afhankelijkheid van die organisatie is voor het archiveren van relevante delen van zo'n beetje het hele internet.

Hyves Archive
Archive Team redde van 12 tot 30 november 9.386.508 items, in totaal 25502GB, van Hyves.

Er zijn meer problemen met de client-server-opzet. Regimes of bedrijven kunnen de toegang tot voor hen gevoelige of ongewenste gegevens makkelijk blokkeren, zoals we in de afgelopen jaren hebben gezien. In landen met een matige infrastructuur kan het lang duren voor bestanden binnengehaald zijn, waardoor er een groot verschil is tussen de internetervaring in welvarende landen en de rest van de wereld. Dat is helemaal het geval als bestanden een lange afstand via netwerken moeten overbruggen. Last but zeker not least: de distributie van content vanaf centrale plekken brengt hoge kosten met zich mee als het om grote hoeveelheden data gaat. Dat heeft er voor gezorgd dat praktisch gezien alleen een handjevol techgiganten nog bepaalde diensten kunnen aanbieden. Alleen onderling lijken ze nog te kunnen concurreren met video-, game-, app-, muziek- en opslagdiensten.

Paul Baran 1964 On Distributed Communications
Bron: Paul Baran, On Distributed Communications

Van Global naar Galactic naar Interplanetary

Juan Benet
Juan Benet. Afbeelding: Nala28 - Wikimedia

Die problemen staan al jaren op de radar van organisaties die streven naar een decentraal web, of DWeb, of Web3. In de praktijk gaat het daarbij overigens vaak om een gedistribueerd netwerk in plaats van alleen decentraal. Een van die organisaties is in ieder geval Protocol Labs. De oprichter van Protocol Labs is Juan Benet, die tijdens zijn studie computerwetenschappen aan Stanford geïnspireerd raakte door het succes van de peer-tot-peernetwerken van begin 2000, zoals Napster, Gnutella, BitTorrent en Skype. In 2013 bedacht hij dat een beter systeem voor het delen van datasets en het bijhouden van versies van datasets mogelijk moest zijn, door de voordelen van het versioning-systeem van Git te combineren met mogelijkheden van BitTorrent. Dit systeem zou als aanvulling op HTTP moeten dienen. Volgens Benet is HTTP weliswaar het succesvolste gedistribueerde systeem van bestanden tot nu toe, maar is het niet geschikt voor de huidige uitdaging van 'heel veel data, altijd beschikbaar'. In 2014 publiceerde hij daarop een whitepaper met zijn oplossing: het Interplanetary File System. Aanvankelijk koos hij overigens de naam Global File System, maar dat bestond al waarna de keuze op Galactic File System viel, maar ook de afkorting GFL bleek al in gebruik. De uiteindelijke naam is nog steeds een hommage aan Intergalactic Computer Network van begin jaren zestig, een van de eerste concepten voor een datanetwerk, bedacht door J.C.R. Licklider.

Benets ambities waren groot. Volgens hem kon IPFS het wereldwijde web veranderen. De basis van het systeem ligt in content adressing, in tegenstelling tot location adressing bij HTTP. Met andere woorden: IPFS richt zich bij het opvragen van de content niet op de locatie van de content of waar in een netwerk die data opgeslagen is, zoals een webserver met een bepaald adres en domeinnaam. In plaats daarvan adresseert het systeem de content zelf, op basis van een cryptografische hash, ongeacht waar de data zich in een netwerk bevindt.

In zijn paper beschrijft Benet het combineren van enkele techieken om IPFS mogelijk te maken. Het systeem gebruikt distributed hash tables voor het beheer van metadata bij het p2p-systeem en BitTorrents technieken voor het uitwisselen van datablokken. Het neemt enkele verdere eigenschappen van BitTorrent over zoals het belonen van nodes die bijdragen in een netwerk en het geven van prioriteit aan 'zeldzame' bestandsdelen bij het ophalen van data, om seeders die hele bestanden aanbieden vervolgens te kunnen ontlasten. Daarnaast gebruikt het beheer van publieke en privésleutels van Self-Certified Filesystem of SFS, een gedistribueerd bestandssysteem dat in 2000 ontwikkeld werd en waarbij bestanden te adresseren zijn via een pathname dat begint met /sfs/location:hostid. De locatie is bij SFS het ip-adres of de domeinnaam en hostid is een hash die mede gebaseerd is op een publieke sleutel. Hiermee is het sleutelbeheer losgetrokken van het bestandssysteem en clients kunnen beveiligde verbindingen opzetten zonder eerder van de server gehoord te hebben.

De werking van IPFS

Grofweg gezien bestaat de verdere uitwerking van IPFS uit vier onderdelen. Het eerste is het adresseren van content via een unieke identificatie, de Content Identifier, of CID. Daarnaast is er een systeem voor het structureren van data-objecten met de naam Interplanetery Linked Data en tenslotte zijn er de distributed hash tables voor het kunnen vinden van content en BitSwap voor het ophalen van datablokken.

IPFS Basis

Stel, je wilt content publiceren op IPFS. Dat kan om van alles gaan, van video en websites tot applicaties, enzovoorts. De eerste stap is dan dat deze data lokaal op je eigen systeem wordt opgedeeld in chunks. Identieke chunks worden later in het netwerk als redundant beschouwd en via deduplicatie verwijderd voor efficiënte transfers. Bij corrupte chunks hoeft niet het hele bestand opnieuw opgevraagd te worden, alleen dat stukje. Vervolgens krijgen alle bestanden van de content een CID, dit is een hash met metadata, om een naam te geven aan elk databestand in een netwerk. Die pointer is permanent: als je als gebruiker die CID opvraagt, krijg je ook altijd dat bijbehorende bestand en geen ander bestand. De hashes maken het dus meteen verifieerbaar dat het ook echt om de bestanden gaat die een gebruiker moet hebben. In feite gaat het om een multihash: een hash met prefixes. Dit maakt het onder andere mogelijk over te stappen op andere hashingalgoritmes dan het gebruikte SHA-256 en maakt ook het interpreteren van de data mogelijk. Zo is te interpreteren of het bij de data om bijvoorbeeld Bitcoin, Ethereum of JSON gaat.

De hashes komen vervolgens in een Merkle DAG-datastructuur, vergelijkbaar met het objectenmodel van Git. De Merkle DAG of Merkle Directed Acyclic Graph is een boomstructuur met stam, vertakkingen en blaadjes en het verschil met een traditionele Merkle-boomstructuur is dat de 'blaadjes', de deelbestanden, aan meerdere 'stammen' gelieerd kunnen zijn. Anders gezegd: de hashes van versies van hoofdbestanden of mappen, bij IPFS de Root CID van een node, zijn het gevolg van die van deelbestanden. De hashing werkt dus van onder naar boven. Als een bestand onderaan de structuur gewijzigd wordt, wijzigt die hash, maar ook de bovenliggende hashes van hoofdbestanden of mappen en zelfs die van versies van die hoofdbestanden of mappen.

IPFS Merkle DAG

IPFS bouwt die Merkle DAG-datastructuren op met zijn Interplanetery Linked Data-techniek en het doel is dus om alle onderdelen van bestanden en mappen adresseerbaar te maken, niet alleen de root-CID, de hoofd-identifier van de video, website, wetenschappelijke paper, presentatie, applicatie, maar ook eventuele onderdelen daarvan. Dat maakt het bijvoorbeeld mogelijk certificaten aan te spreken of transactiegegevens die onderdeel zijn los te adresseren en toe te voegen aan een blockchain.

Als je de content vervolgens op het IPFS-netwerk publiceert, kunnen anderen deze ophalen en via hun cache dat bestand ook beschikbaar maken. Zo ontstaat een netwerk van caches voor de content. Ze kunnen die content vastpinnen om deze beschikbaar te houden, als ze dat niet doen maakt garbage collection dat deze automatisch verwijderd wordt. Vereist is het bijhouden wie in het netwerk welke CID heeft. IPFS gebruikt daarvoor een routing table die gedistribueerd is onder de gebruikers door middel van distributed hashing tables, waarbij Kademlia gebruikt wordt om bij te houden wie weet wie welke CID heeft. Kademlia zorgt er ook voor dat gebruikers de content krijgen van de peers die het dichtst in de buurt zijn voor snelle overdrachten.

IPFS Peer

Alle bestanden op het netwerk hebben nu een unieke identifier, ze zijn opgedeeld en beschikbaar gemaakt en gedeeld over een netwerk; dan resteert het probleem met het ophalen ervan. Hiervoor is Bitswap verantwoordelijk. Dit is een protocol dat nodes gebruiken om verlanglijstjes te sturen naar peers. Dit zijn lijstjes met root-CID's, oftewel de content, die ze willen ontvangen. Via want-have-requests en don't-have-antwoorden kunnen ze zo aangeven wat ze willen, hebben en niet hebben. Als geen van de peers de CID's hebben, vraagt Bitswap aan de distributed hash table wie die wel hebben.

IPFS Bitswap

Zelf IPFS gebruiken

Als je zelf een IPFS-node wilt draaien en zo bijvoorbeeld content beschikbaar wilt maken of downloaden, kan dat via de command-line of een programma voor macOS, Windows of Linux. In aanvulling daarop kun je een add-on gebruiken voor Chrome, Edge, Firefox en Opera. En zoals hiervoor gezegd heeft Brave vanaf versie 1.19 standaard ondersteuning voor IPFS. Gateways maken het mogelijk om met IPFS via de browser contact te maken. Protocol Labs heeft zelf de gateway https://ipfs.io, maar derde partijen zoals Cloudflare kunnen ook gateways aanbieden. Er is een lijst beschikbaar van publieke gateways.

IPFS DesktopIPFS DesktopIPFS Desktop

Bij het gebruik van IPFS zul je merken dat het systeem datapaden gebruikt en geen url's en dat de namen door het gebruik van de hashes te lang zijn om te onthouden en niets zeggen over de content, zoals ipfs://QmY6pHjpF9HeruZJwBdBt9mXsN6FokhpcDva71NyPvuatd. Browsers die IPFS ondersteunen kunnen bestanden ophalen van paden met /ipfs/{cid}. Ook kunnen ze overweg met protocollen als ipfs://, ipns:// en dweb:. Zo opent de browser een snapshot van Wikipedia via IPFS bij het invoeren van het datapad ipns://en.wikipedia-on-ipfs.org/wiki/.

Wikipedia was een van de eerste sites die via een snapshot beschikbaar kwam via het online bestandssysteem, als onderdeel van het Distributed Wikipedia Mirror-project. Dat gebeurde in 2017 toen de encyclopedie geblokkeerd werd in Turkije. Protocol Labs gebruikte het als showcase voor het netwerk, waarbij het de voordelen bij censuur benadrukte: er is maar één node in een netwerk nodig om de content voor iedereen beschikbaar te maken.

Aangezien IPFS een bestandssysteem is, is het voor veel meer dan alleen websites te gebruiken. Bedrijven kunnen het voor tal van diensten en applicaties inzetten en daarbij voordeel halen uit de mogelijkheden met loadbalancing, caching, deduplicatie en het ontlasten van servers. Een logische toepassing is de inzet voor een Content Delivery Network, zoals Netflix die momenteel heeft in samenwerking met providers. Het kan ook ingezet worden als onderliggend systeem voor messagingplatforms, zoals Berty.tech, dat ook op lokale netwerken en via bluetooth werkt. Videoplatform DTube gebruikt het om de belasting op zijn servers te verlichten en PeerPad.org maakt het samenwerken aan opgeslagen documenten mogelijk. De Amerikaanse fabrikant KODA ontwikkelt een robothond met de naam Koda-9 die onder andere beveiligingsbeelden gedecentraliseerd opslaat. Daarnaast wordt er gewerkt aan gedistribueerde, serverloze databases. Zo gebruikt OrbitDB IPFS. Ook is er een extensie voor Nextcloud waarmee gebruikers externe opslag op IPFS kunnen inzetten. IPFS is te combineren met Ethereum voor distributed apps, of dapps, waarbij de frontend op IPFS opgeslagen is en de back-end, of smart contract, op de blockchain van Ethereum.

IPFS KODA

Die flexibiliteit maakt meteen het verschil met BitTorrent inzichtelijk. Ook dat is natuurlijk een gedistribueerd opslagsysteem, dat eveneens in combinatie met browsers en voor het ontlasten van servers kan werken. BitTorrent breekt bestanden 'domweg' op in gelijke blokken, maar IPFS kan dankzij de Merkle DAG-structuur afzonderlijke bestanden of subsets van content in een map adresseren en verbinden aan andere nodes, wat de mogelijkheden aanzienlijk vergroot.

Problemen met IPFS

Dat betekent niet dat er geen openstaande problemen met IPFS zijn. Het systeem vergt momenteel veel bandbreedte, ondanks deduplicatie en andere technieken om de efficiëntie te verbeteren. Standaard is het weliswaar mogelijk om met behulp van publieke en private sleutels te garanderen dat je bestanden van een betrouwbare bron ontvangt, en dankzij hashing weet je ook dat dit ook echt de juiste bestanden zijn, maar voor nodes en relayservers is geen authenticatie, wat een beveiligingsrisico is.

Dan is er nog het probleem van het updaten van de content. Bij elke update van een onderdeel van een bestand of map, maakt IPFS een nieuwe CID aan. Gebruikers moeten op de hoogte gesteld worden van die nieuwe CID, aangezien de oude blijft bestaan. De oude CID vervangen op de locatie door de nieuwe is niet aan de orde, want het hele idee is dat IPFS bestanden lokaliseert op basis van de content zelf. De oplossing tot nu toe is het Interplanetary Naming System, dat maakt dat steeds dezelfde pointer gebruikt kan worden bij updates van bestanden. Dit systeem doet dat door naar een identifier van de peer te verwijzen: die verandert dus niet, ook als de hash van het gezochte bestand wel wijzigt. Het probleem is dat InterPlanetary Naming System traag werkt.

Sowieso is het natuurlijk niet handig gebruikers te verwijzen naar bestanden met als naam de hash, zoals ipfs/QmbezGequPwcsWo8UL4wDF6a8hYwM1hmbzYv2mnKkEWaUp. Daar is dan weer DNSLink voor bedacht, dat voor een koppeling tussen dns en IPFS zorgt. De link in de dns-records van een domein maakt dat gebruikers met een eenvoudige naam doorverwezen kunnen worden naar de hash. In combinatie met het Interplanetary Naming System komt dat de snelheid echter ook niet ten goede.

Een fundamenteel probleem is dat er veel nodes vereist zijn om het systeem te laten werken, maar waarom zou je een node opzetten om bestanden van anderen te cachen en uit te serveren? De oplossing die daarvoor bedacht is, ligt bij, hoe kan het ook anders, cryptovaluta. Gebruikers kunnen Filecoin gebruiken om cryptocoins te verdienen als incentive om nodes voor opslag op te zetten. Filecoin-nodes zijn automatisch IPFS-nodes, maar een IPFS-node hoeft geen Filecoin-node te zijn. Filecoin-gebruikers bieden in feite opslagcapaciteit voor bijvoorbeeld grote hoeveelheden data en voor langere tijd aan, en krijgen daarvoor betaald.

IPFS samenwerkingen
Partijen die IPFS gebruiken of waar Protocol Labs mee samenwerkt.

Tot slot

Over aandacht heeft het Interplanetary File System niet te klagen. De integratie in Brave heeft het project een nieuwe impuls gegeven. Een groot deel van de bedrijven en projecten die werken met het systeem, komen uit de hoek van voorstanders van decentralisatie van internet en Web 3.0, maar ook bij andere partijen groeit de interesse. Zo werkte Protocol Labs vorig jaar samen met Netflix aan verbeteringen voor Bitswap. Met de release van IPFS 0.5.0 richtte het project zich op het verbeteren van de snelheid van de routering, dus aan de problemen met het systeem wordt actief gewerkt. In 2019 werd IPFS door 'honderdduizenden' mensen gebruikt en gateways ontvingen gemiddeld zo'n 13 miljoen requests per dag voor dagelijks in totaal 5TB. Recentere cijfers kon het project Tweakers nog niet geven, maar het lijkt waarschijnlijk dat die cijfers flink gestegen zijn. Koersstijgingen van Filecoin zoals die begin februari plaatsvonden kunnen daarbij natuurlijk helpen. Tegelijkertijd gaat het nog duidelijk om technologie die zich in de kinderschoenen bevindt en zijn er tekortkomingen met snelheid, gebruikersvriendelijkheid en massa-adoptie te overwinnen. Ongeacht of internet verandert naar iets wat je met hippe termen Dweb of Web 3.0 zou kunnen noemen, kan IPFS een rol spelen bij hoe we in de toekomst omgaan met de opslag van grote hoeveelheden data en hoe grote en kleine partijen content kunnen publiceren.

Reacties (104)

104
98
51
10
1
44
Wijzig sortering
De grote vraag die ik bij een dergelijke node heb is: wat als mijn node illegale content opslaat of doorgeeft? Ook een snippertje van illegale zaken wil ik niet doorgeven of bewaren. En als ik het niet in kan zien omdat het versleuteld is, dan vertrouw ik het al helemaal niet.
Ter info: er bestaat op dit moment al enige tijd een gedistribueerde zoekmachine: YaCy. Maar of dat nu echt een succes is...
Zoals ik het begrijp: niemand kan jou node actief inzetten om illegale content te verspreiden. Een andere node kan wel illegale content aanbieden en als mensen dat dan opvragen, is er een kans dat het via jou cache verspreid wordt. Zolang je niet pint, wordt deze na een uur verwijderd bij geautomatiseerde garbage collection. Het kan dus inderdaad dat jouw node illegale content doorgeeft.
Ik weet niet of dit een gerechtelijk effect heeft, en het is alweer een tijdje geleden dat ik iets met IPFS gedaan heb, maar ik weet nog dat alles in IPFS losse datablokken zijn van (default) 256KB ipv complete bestanden. Elk datablok heeft een eigen CID, content identifier en een bestand (of map) wordt gecreeerd in IPFS door een IPFS object waarin staat welke CIDs je moet opvragen via de DHT om tot een geheel bestand te komen. Natuurlijk geldt dat voor elk file system (je werkt voor zover ik weet altijd met datablokken) maar in dit geval vraag je dus ook op applicatieniveau aan een node om een bepaalde datablokken, niet om "illegale_film.iso"
Als je node illegale content bevat ben je enerzijds facilitaire verlener van illegale content, anderzijds een doorgeefluik zoals een ISP.
Telecomwet en opsporing criminaliteit botsen dus op dat gebied met elkaar.

Ik ben daarom ook voorstander van I2P: Een encrypted alternatief op IPFS waarbij node en client anoniem zijn en blijven. Zelfs de node is dus anoniem met I2P !

[Reactie gewijzigd door Mushroomician op 22 juli 2024 21:52]

users zijn zelfs verantwoordelijk, net zoals je zelf een open FTP zou opzetten.
I2P is dan weer een droom voor wie illegale content wil verspreiden en vinden (je kent het voorbeeld al :X )
Illegale content verspreiden komt met bepaalde vooroordelen en stereotypen, maar als je dit objectief bekijkt:

Illegaal is een relatieve term. Of iets illegaal is hangt af van
  • A ) locatie
  • B ) tijd
  • C ) soms ook intentie
Het bekende onderwerp is wiet: in de USA sinds kort bijv legaal (voor hoelang nog?), in sommige landen mag je er niet eens een blog over schrijven.

Wil je op vakantie in Thailand aangehouden worden omdat je een wietblog host op hetzelfde IP adres waarmee je op de website van de Thaise douane reisinformatie hebt bekeken?
Als content niet anoniem wordt gehost ben je in ieder land wel een wet aan het overtreden.

Ook kun je in de VS aangehouden worden als je in NL iets verkeerds host wat hier gewoon mag. En laat die VS nu net degene zijn die van iedereen weten wie wat doet.

Foreign Intelligence Surveillance Act. Iedere verbinding mag worden getapt tenzij het om Amerikaanse burgers gaat.

[Reactie gewijzigd door Mushroomician op 22 juli 2024 21:52]

je geeft het zelf al aan: locatie is belangrijk en dat is jouw verantwoordelijkheid om de lokale wetten te kennen en volgen. Je zal in Thailand niets ten laste kunnen worden gelegd voor een site in NL, tenzij je Thaise klanten hebt.
Je begrijpt het niet. De Thaise overheid kan (potentieel) je het hosten al ten laste leggen. Of dat zo is weet ik niet, maar er zijn voorbeelden waarbij niet-amerikanen op niet-amerikaanse grond een amerikaanse wet overtreden en daarvoor zijn veroordeeld door Amerikanen. Kim Dotcom bijvoorbeeld.
I never lived there
I never traveled there
I had no company there
But all I worked for now belongs to the U.S.

bron: https://twitter.com/kimdotcom
Vanwege deze potentie is anonieme hosting belangerijker dan ooit, omdat ieder land maar wat kan doen met je wanneer je op vakantie bent, of in het geval van uitleververdragen politieke relaties bemoeilijken waarbij je als ruilmiddel wordt ingezet. Potentieel.

[Reactie gewijzigd door Mushroomician op 22 juli 2024 21:52]

Het probleem met "anonieme" hosting is natuurlijk dat je de hoster alsnog moet vertrouwen. En juist bij dit soort dubbel-blinde setups mag je er gevoegelijk van uit gaan dat de gebruikelijke partijen een paar nodes draaien, puur om IP adressen te verzamelen van gebruikers.

Eén van de krachtigste opsporingsmethoden is om netwerken van contacten in kaart te brengen. En "netwerken' in dat verband is niet beperkt tot alleen computer-netwerken. Je naam bijvoorbeeld is een indicatie van familiebanden, wat ook een soort netwerk is. Al die verschillende soorten netwerken hebben hun eigen contacten, en de combinatie geeft je een hypercomplex netwerk van verbanden.

En dat is ook waarom het pas recent zo'n populaire methode is geworden. Met goede algoritmes en veel hardware kun je nauwverante subgroepen vinden. Jouw IP adres is niet 100% exact gelijk aan jouw persoon, maar er is zowel een direct verband als honderden indirecte verbanden. En voor gebruikers van dingen als I2P is er dus ook een direct verband tussen jouw IP en I2P, met daarna dus duizenden extra verbanden.
Als I2P node heb je geen idee wat je doorgeeft en aan wie. Je weet alleen wat je opvraagt (als een hash) en daarvan weet je verder nooit van wie het komt. Het is TOR en IPFS in één jas. Wil je dus een illegaal wietblog bekijken, dan heb je geen idee waar het vandaan komt (decentraal) of door wie. Ook niet aan de tussen nodes vanwege encryptie. Als de content ook nog eens encrypted is is het helemaal compleet.

Op IPFS kun je nog geïdentificeerd worden bij het hosten van een nieuwe hollywood film. Met I2P niet.
Hypothetisch. Houd je aan de wet.

[Reactie gewijzigd door Mushroomician op 22 juli 2024 21:52]

Het klopt ongetwijfeld dat de opsporingsdiensten niet weten met wie je via I2P communiceert. Dat is ook verder niet zo belangrijk. Je bent ook niet meteen verdachte omdat je I2P gebruikt. Maar op het moment dat je vanwege andere zaken in het vizier komt is het wel een punt wat meetelt. Dat is het grote verschil met HTTPS - iedereen gebruikt HTTPS. HTTPS maakt je daarom niet verdacht.
Je begrijpt het niet. De Thaise overheid kan (potentieel) je het hosten al ten laste leggen. Of dat zo is weet ik niet, maar er zijn voorbeelden waarbij niet-amerikanen op niet-amerikaanse grond een amerikaanse wet overtreden en daarvoor zijn veroordeeld door Amerikanen. Kim Dotcom bijvoorbeeld.

[...]
Behalve dat Kim Dotcom hier nogal een stap overslaat: hij faciliteerde iets in de VS dat illegaal was naar Amerikaanse maatstaven. Ik kan ook geen (soft)drugs naar Thailand gaan verschepen met een website die ik in Nederland host, maar op de Thaise markt richt. Of eigenlijk is dat nog niet eens het beste voorbeeld, want eigenlijk zouden die drugs uit Nederland dan ook een Thaise markt moeten benadelen.

Zodra je diensten levert in het buitenland, moet je je aan de in dat land geldende regels houden. Je kunt je niet verschuilen achter "ik heb daar nooit gewoond, ik ben er nooit geweest, mijn bedrijf zit daar niet...", want dat is echt onzin. En dat principe van je diensten aanpassen aan de lokale wetgeving, staat I2P behoorlijk in de weg.

[Reactie gewijzigd door Grrrrrene op 22 juli 2024 21:52]

Als je in Nederland geld verdient met legale zaken die in Thailand illegaal zijn heb je dus wel een probleem dan kan Thailand je pakken op uitgeven van geld wat in hun ogen illegaal is verkregen. Daar kan een zekere koffieshop houder over meepraten.
Je doet voorkomen alsof hij hier nette handel had. Helaas was dat niet. Hij had met zijn shops zwart geld verdiend en heeft dit witgewassen. Het daarna uitgegeven in Thailand was wat minder handig. Dat heeft hem in de cel doen belanden. Niet het legale gedeelte van zijn winkels in Nederland.
Hij was/is hier dus ook in Nederland een verdachte van witwassen en deelnemen in een criminele organisatie.
je geeft het zelf al aan: locatie is belangrijk en dat is jouw verantwoordelijkheid om de lokale wetten te kennen en volgen. Je zal in Thailand niets ten laste kunnen worden gelegd voor een site in NL, tenzij je Thaise klanten hebt.
een sterk tegenvoorbeeld is Japan: Japan verbied het aan haar burgers om drugs te consumeren. OOK in het buitenland. Als een Japanner dus naar een Nederlandse coffeeshop gaat kan hij daar in Japan voor aangehouden worden.
Foreign Intelligence Surveillance Act. Iedere verbinding mag worden getapt tenzij het om Amerikaanse burgers gaat.
De Foreign Intelligence Surveillance Act of 1978 ("FISA" Pub.L. 95–511, 92 Stat. 1783, 50 U.S.C. ch. 36) is een federale wet van de Verenigde Staten die procedures voorschrijft voor het fysiek en elektronisch toezicht op en het verzamelen van "buitenlandse inlichtingeninformatie" tussen "buitenlandse machten" en "agenten van buitenlandse machten" verdacht van spionage of terrorisme.

Niet helemaal hetzelfde toch?
Voor zover ik het begrijp (ben nog deels bezig :) ) weet jij dus niet dat je illegale content opslaat, zowel door het opbreken/verdelen als door dat dit totaal niet zichtbaar is.

Het is het zelfde als een pakketdienst zegt die een pakketje doorstuurt: "wat als er drugs in zitten"? Ja dat kan, dat kan ook niet. Als het goed is weten ze dat niet (dan gaan we uit van een pakketje waar je niet de inhoud van hoeft aan te geven. :P )
Voor zover ik het begrijp weet jij dus niet dat je illegale content opslaat,...
Het gaat mij er niet om of je wel of niet juridisch aansprakelijk bent, maar of ik mij (moreel) aansprakelijk voel.
Je zult maar slachtoffer zijn van één of ander delict: argumenten als "iedereen gebruikt het" lijken me dan een klap in je gezicht.
Het is een lastig dilemma.

Aan de ene kant ben ik het geheel met je eens dat ignorance niet hetzelfde is als innocence.
Aan de andere kant.. je weet ook dat van (een gedeelte) van het belastinggeld dat jij aan de staat geeft ook corrupte mensen betaald worden die illegale dingen doen.. moet je dan maar stoppen met belasting af te dragen om zo te voorkomen dat je ook maar enigszins illegale praktijken faciliteert?..

Mijns inziens zit de waarheid ergens in het midden, zoals dat met veel dingen het geval is..
Net als mensen, denk ik dat het 'meest praktisch' is om een optelsom te maken van goed vs kwaad.
Iemand die 95% van de tijd goed doet en 5% van de tijd slecht, beschouwen we overwegend als een 'goed' persoon, of iig een 'meer productief dan contraproductief' persoon.
Zo'n zelfde meestaf kun je natuurlijk ook voor dit soort zaken opstellen (en feitelijk gezien is dát wat we met praktisch alles doen).
Het is wel degelijk waardevol om anonieme en p2p data uitwisseling te hebben.
Ja, er zal ook illegale data over verspreid worden.. net zoals er gestolen auto's (met neppe kentekens) op de weg rijden.. maar het algemeen nut is er mijns inziens meer bij geholpen om wegen te hebben (en ook anonieme p2p data uitwisseling) dan het algemeen nut erbij geholpen is om illegale dataverspreiding dwars te zitten.

Om nu dus te gaan zeggen dat het onwenselijk is om zo'n file system te hebben beschouw ik een beetje van hetzelfde idiote niveau als "we verbieden alle messen want messen worden soms gebruikt om iemand te vermoorden".

[Reactie gewijzigd door Ayporos op 22 juli 2024 21:52]

Je hoeft dit filesysteem niet te gebruiken, je kunt gewoon http-secure gebruiken (en een privacy bewuste provider kiezen) om je privacy te beschermen.
De analogiëen met belasting betalen en messen gebruiken gaan mank op deze twee punten: daar is nog steeds te traceren wie er welk kwaads mee uithaalt en het dient in het algemeen ook een schappelijk doel dat niet op een andere manier is te verwezenlijken.
Het is wel degelijk waardevol om anonieme en p2p data uitwisseling te hebben.
Zou je voor mij, in een vrije democratische samenleving, een voorbeeld kunnen geven waarin je data geeft of ontvangt aan iemand die je niet kent (en dus niet kan vertrouwen)? Ik weet er namelijk geen. Mocht je machtsmisbruik willen onthullen, dan zal elke journalist je om je identiteit vragen, om er zeker van te zijn dat je geen laster verspreid. Ter info: dezelfde journalist is niet verplicht zijn bronnen vrij te geven.
"vrije democratische samenleving"

Je bent vrij op sommige punten, maar niet alle.
Die vrijheid heb je nu, maar er is geen garantie dat je die altijd zult hebben.
Jou laatste alinea leest een beetje als "waarom zorgen maken om privacy, heb je iets te verbergen of zo?"
Dát is toch een argument wat vrij goed te ontkrachten is.

"Arguing that you don't care about the right to privacy because you have nothing to hide is no different than saying you don't care about free speech because you have nothing to say." - Snowden
Nee, je gooit alles één hoop. Ik vroeg "iemand die je niet kent". De privacy bewaken tussen twee (of meerdere) personen die elkaar kennen, vindt ik prima. Ik vroeg je alleen om één positief voorbeeld te geven, want roddel en chantage zijn al twee negatieve zaken die zo bij me opkomen.
Elke vorm van broadcasting kan je hier onder scharen.
Er zijn genoeg youtube kanalen waar de 'content creator' anoniem is voor zijn publiek, en het publiek tegelijk ook anoniem is voor de creator en waar deze wederzijdse anonimiteit gewenst is.
Een aantal kanalen bijvoorbeeld die ik toevallig kijk zijn 'MGTOW' kanalen waar de creator ongecensureerd zijn mening deelt omtrent de problematiek tussen vrouwen en mannen.
Dit is content die zeker gewaardeerd wordt (ze hebben genoeg publiek) maar die wél voor problemen zouden kunnen zorgen in het geval dat de creator (of het publiek) gedoxxt zou worden.
Denk: cancel-culture.

Dat jij iets wilt delen met mensen betekent niet automatisch dat het wenselijk is dat jij die mensen kent noch omgekeerd.

Ik ben blij voor jou dat al jou communicatie plaatsvind met mensen die jij kent en dat alles wat jij communiceert dusdanig 'inoffensief' is dat je niet bang hoeft te zijn voor repercussies, maar dát is niet de rozegeur en maneschijn waar iedereen mee te maken heeft.

[Reactie gewijzigd door Ayporos op 22 juli 2024 21:52]

journalist je om je identiteit vragen
je hebt geen identiteit nodig om journalistiek te bedrijven. Kijk maar naar wikileaks. Gewoon anoniem posten en je valideerd de content, niet wie het gelekt heeft.
Dat kan inderdaad, maar er ook wel duidelijk kritiek. En vaak worden privégegevens niet verwijdert, terwijl er daardoor wel mensenlevens in gevaar kunnen komen. Doxing is een kwalijke zaak.
Ik weet niet hoe jij erover denkt, maar daar wil ik niet aan meewerken.
daardoor wel mensenlevens in gevaar kunnen komen
een excuus veel gebruikt door overheden en tot op heden nog NOOOOOIT ! bewezen.
niet 1 persoon is omgekomen door publicaties van Wikileaks. Dit is zeer goed onderzocht en met name de Amerikaanse overheid stond meerdere keren in hun hemd toen ze ook van daken schreeuwden dat soldaten en bevriende connecties in Afganistan, etc in gevaar zouden komen.
Trouwens is dit excuus sinds de Pentagon Papers ook gebruikt en trouwens bij alle klokkenluiders die data van overheden hebben gelekt.
Dus als jij 1 bewijs hebt, dan hoor ik het graag. Je zou nl. de eerste zijn.
Ik snap wat je bedoeld. Maar dat is de kern (kracht) van dit file systeem, de onafhankelijkheid en vooral anonimiteit.

Als je je zelf moreel bezwaard voelt om mogelijk anonieme content te 'hosten' dan moet je het niet gebruiken.
En helaas wordt je er wel verantwoordelijk voor gehouden.

In Oostenrijk is er in 2014 iemand veroordeeld die een TOR-node hostte waarover illegale content is verspreid. Dat hij het zelf niet actief deed was volgens de rechtbank geen obstakel om hem te veroordelen aan medeplichtigheid. Hoewel de veroordeling geen jurisprudentie in Nederland is, zou men zeker kunnen proberen om dezelfde argumenten aan te voeren en dan een veroordeling te bewerkstelligen.

[Reactie gewijzigd door ocf81 op 22 juli 2024 21:52]

De vraag lijkt me dan relevant of er daar doorgeprocedeerd is tot het Europees Hof. De uitspraak in Oostenrijk staat nogel laag op de jurisprudentie-volgorde in Nederland, maar het is alsnog een ander EU land. En juist als er geen "betere" jurisprudentie is, dan kan een Nederlandse rechter kijken naar jurisprudentie uit andere landen. Jurisprudentie van de EU staat echter veel hoger op de lijst.
De veroordeelde had het geld niet om door te procederen en is niet in beroep gegaan. Het heeft destijds best wat stof doen opwaaien. (voorbeeld)
Beetje vreemd verhaal, toch. Een strafzaak en een veroordeling voor de kosten van het hof? In Oostenrijk? Dat is een EU land. Kijk, Nederland schendt die EU regel massaal bij verkersboetes, maar formeel mag je in de EU in het strafrecht geen kosten in rekening brengen bij de dader. Nederland komt weg met een paar euro opslag, maar dat werkt alleen omdat het bedrag te klein is om daar effectief tegen te procederen. En de Nederlandse overheid is, zoals recent wel duidelijk is geworden, wel een veelpleger.
Mijn vermoeden is dat de kosten voor de advocaat er door Weber ook onder worden geschaard.
Waar schendt Nederland de EU regels in een strafzaak? Aannemende dat u met 'verkeersboetes' refereert naar de Wet Administratiefrechtelijke Handhaving Verkeersvoorschriften (ook wel de wet Mulder genoemd) geeft de benaming al aan dat het geen strafrechtelijke boetes zijn. Het zijn "beschikkingen" en het gaat om "betrokkenen". Je kan geen verdachte zijn van bijvoorbeeld afslaan zonder knipperlicht.
Je kan wel verdachte zijn van afslaan zonder knipperlicht met als gevolg een dodelijk ongeval. Maar dan hebben we het gelukkig niet over 'massaal' en ook niet over zelf je proceskosten betalen.
Dat vraagt om iets meer duidelijkheid. Wat was precies de rol van die Tor-node in het proces? Was het een Tor hidden service of een Exit relay? Daar zit namelijk nogal een verschil in.

Daarnaast denk ik dat als jij kan ontkennen dat je weet wat er is opgeslagen je er ook niet/nauwelijks verantwoordelijk voor kan worden gehouden. De content in dit netwerk wordt opgedeeld in blokken. Dus als jij slechts een paar blokken opslaat van een illegale film, ben je dan verantwoordelijk? Ook als jij aan die blokken niet eens kan zien dat het om een film gaat?
Het was een exit node. Men hield de man verantwoordelijk omdat hij had kunnen weten dat verkeer van onbekenden mogelijk illegale content kon bevatten.
Bijzondere uitspraak. Dit zou iedere ISP kunnen treffen, want hetzelfde argument geldt voor Ziggo, KPN en alle andere partijen die gebruikers op het internet aansluiten. De ISP kan logischerwijs weten dat er ooit illegale handelingen via die verbinding zullen plaatsvinden. Zijn ze daarom strafbaar? In Nederland lijkt dit mij bijna onmogelijk.
E echte vraag is: hoe kan je hier aan verdienen? leuk dat dit conceptueel werkt, maar net als het succes van internet, dient er een commerciele insteek mogelijk te zijn. Zo ver het nu staat, zie ik weinig motivatie voor de gemiddelde persoon om over te stappen, en ook vanuit het bedrijfsleven geen reden om dit te pushen. eerder anersom: hosting partijen.. hoe gaan die hier mee om? Hoe garrandeer je beschikbeerhaeid van je site? hoe ga je om met toegangs beperkingen, etc. etc.
Voordat dit mainstream wordt, zullen deze vragen beantwoord moeten worden.
Klopt, maar dat geldt voor meer apps en sites (zie nu ClubHouse).
Met alle verdienmodellen die we nu met big-data gezien hebben ben ik zelf steeds meer voorstander van een abonnement met een gebruikstarief: net als je elektriciteitsrekening. Een gedeelte vastrecht voor de administratie en een gedeelte proportioneel met het gebruik, de kWh prijs. Dat is de weg terug naar betere privacy. Een aardig idee is dit: Librem One, een abonnement op e2e e-mail, een chat app, een sociale netwerk en een VPN tunnel.
Ik merk dat ik het artikel nog even rustig moet nalezen; maar hoe werkt het dan eigenlijk als je -om wat voor reden dan ook- dit soort gedistribueerde content wil verwijderen?
Het antwoord daarop lijkt me in het artikel verstopt:
Die pointer is permanent
Als je de content alleen voor jezelf beschikbaar wil maken kun je encryptie gebruiken, maar dan is de vraag waarom je niet gewoon een SSD koopt. D'r staat een PriceWatch hier bovenaan deze site, makkelijk zat. Zet je de content in zo'n IPFS en deel je de key, dan kun je de key niet meer revoken, of voorkomen dat iemand de key aan derden geeft, of je content kopieert en unencrypted online zet, etcetera. IPFS kan geen DRM doen.
Het klinkt allemaal nog niet heel erg bruikbaar, misschien snap ik het niet goed genoeg:
- beveiligingsissues
- werken met onleesbare hashes, of het wordt traag
- is verwijderen überhaupt nog wel mogelijk?
- en heel mooi voor het omzeilen van censuur, maar hoe zit het dan met illegale content, kom je daar ooit nog vanaf?

Ik snap dat het in de kinderschoenen staat, maar volgens mij zouden dit soort dingen "by design" moeten zijn en niet er later aan getimmerd. Maar misschien heb je eerst dit concept nodig om over die dingen na te kunnen denken.
Ik heb ook het idee dat er veel meer data moet worden opgeslagen per bestand en je dus onderaan de streep veel meer opslagcapaciteit nodig hebt. Stel, een groot deel van de datablokken staan op een node die offline gaat. Zijn je bestanden dan onbereikbaar of zijn er reservekopieën op andere nodes? Zo ja, dan is dat dus alles behalve efficiënt. Ik snap dat het bij cloud opslag nu ook al zo werkt (met meerdere kopieën) maar je praat hier nu in eens over hele andere servers. Ook ben ik bang dat een groot deel van de data nog steeds bij cloud-boeren als Google en Amazon terecht komen omdat die het grootste deel van de opslagcapaciteit beheren. Maken we ons dan niet nog steeds afhankelijk van grote providers?
Dit vroeg ik me ook af. Bittorrent is een heel fijne techniek, maar als ineens alle seeds offline gaan heb je niks. Nou is IPFS wat geraffineerder, maar het lijkt me nog steeds mogelijk dat je bestanden kwijtraakt omdat alle 'seeders' toevallig even hun machine uit hebben staan. Er zal dan toch weer een mechanisme moeten komen dat bijhoudt welke content waar staat.

Het weggooien van data is inderdaad ook een probleem. Zoals ik het artikel lees, is het weggooien van data dus niet mogelijk. Alle data blijft voor eeuwig bestaan (en dus opslagruimte innemen), hoe onbruikbaar die data inmiddels ook is. Zou er niet een functie moeten komen zodat de eigenaar ook weer data kan opruimen? En dat staat inderdaad nog los van de normale opslagruimte die nodig is, die is met dit systeem een veelvoud van de bestandsgrootte.

O ja, voor het verspreiden van illegale content is dit natuurlijk een walhalla. Anoniem opgeslagen en niet te deleten, hoe gaan we dan ooit wraakporno of illegaal gedeeld copyrighted materiaal weer verwijderen? Dat kan alleen als er toch iemand de baas is, en dan is het niet meer decentraal...
Ik ben het op alle punten met je eens. Tweakers zou hier wel wat meer aandacht aan mogen geven. Dit zijn de vragen die er toe doen.
Dit vroeg ik me ook af. Bittorrent is een heel fijne techniek, maar als ineens alle seeds offline gaan heb je niks. Nou is IPFS wat geraffineerder, maar het lijkt me nog steeds mogelijk dat je bestanden kwijtraakt omdat alle 'seeders' toevallig even hun machine uit hebben staan. Er zal dan toch weer een mechanisme moeten komen dat bijhoudt welke content waar staat.
Dit is toch met elke online dienst zo? Als ik mijn server offline zet, heb ik ook geen toegang tot mijn nextcloud bestanden. Als google bijvoorbeeld Waze offline gooit, kan je er ook niet meer bij. Je lijkt te doen alsof dit iets inherents is aan bittorrent of IPFS, maar dit geld voor alles wat door een of meerdere partijen aangeboden wordt.
1. Hoe meer nodes er zijn, hoe meer redundantie er kan zijn. Als IPFS daadwerkelijk veel meer gebruikt gaat worden, is het daarnaast niet ondenkbaar dat veel nodes servers zullen zijn die niet (vaak) uitgaan. De use case van Bittorent is anders dan die van IPFS. IPFS kan bijvoorbeeld prima gebruikt worden voor statische websites.

2. Als de content niet gebruikt wordt, komt deze op steeds minder nodes te staan en kan deze uiteindelijk zelfs helemaal opgeschoond worden. Het is niet realistisch om te denken dat alle iteraties van alle bestanden oneindig kunnen blijven. bestaan

3. De definitie van illegale content is in elk land weer anders. In Noord Korea is Tweakers waarschijnlijk heel erg illegaal. IPFS is een write once bestandssysteem. Dit soort vraagstukken zijn belangrijk, maar de vraag is of die van belang zijn op dat niveau, of een hoger niveau (bijvoorbeeld de applicaties zelf of de personen die bepaalde content actief verspreiden).

[Reactie gewijzigd door Ablaze op 22 juli 2024 21:52]

- Beveiligingsissues zullen van alle tijden zijn, die ga je nooit omzeilen.
- Het werken met onleesbare hashes is puur een gebruikersprobleem, geen reeel probleem, of vind je het ook een probleem dat er in bits en bytes gecommuniceerd wordt door computers, er zit gewoon zoveel abstractie overheen dat je er als eindgebruiker niets meer van merkt
- Verwijderen daar beslis jij simpelweg niet meer over, met dit soort systemen is het omgedraaid. Iedereen bewaart alles (voor 1 uurtje) en deelt alles en in theorie kan jouw bestandje in een uurtje verwijderd zijn als niemand hem gaat pinnen (/selecteren om op te slaan) alleen dat geldt voor alle content op dit soort platforms, het gaat erom dat iedereen alles kan pinnen (kiezen om langer op te slaan), waarbij het het meest zinnige is dat jij minimaal je eigen bestanden pinned zodat die niet verdwijnen. Alleen niets houd je buurman tegen om ook jouw bestanden te pinnen, zodat als jij ze verwijdert je buurman ze nog steeds heeft staan.
- En nee, illegale content daar kom je nooit meer vanaf.

En dat laatste punt is ook het grootste probleem met dit soort technische oplossingen, het klinkt allemaal heel leuk, maar in de praktijk moet het wel aan de wet voldoen en daar zijn nogal wat bezwaren ertegen te maken, want copyright etc gaat redelijk de schop op als het niet meer gecentraliseert is.
Dit klinkt wel allemaal extreem complex voor een probleem dat voor de overgrote meerderheid van de internetgebruikers helemaal geen probleem is.
Maar aan die complexiteit wordt dus gewerkt. In Brave kan je gewoon een IPFS link openen nu en dan vraagt hij of hij het aan moet zetten. Dat is alles.

En voor de meeste internetgebruikers geen probleem? Dat hangt ervan af hoe je het stelt. De meeste mensen zijn wel degelijk tegen dingen als tracking. En zoeken zich ook wel eens suf naar oude links (en weten dan vaak ook niet archive.org te vinden).

Vraag je de gemiddelde internetgebruiker of ze het een probleem vinden dat internet gecentraliseerd is, dan krijg je natuurlijk een harde NEE. Maar vraag je ze over de symptomen hiervan dan kan je een heel ander geluid horen.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 21:52]

Thewayback machine is ook een prima archive voor oude zaken.

Dat mensen tegen tracking zijn is een inkoppertje, maar denken dat je er door wat voor technologie dan ook vanaf gaat komen??
"We" zullen nooit van tracking afkomen, alle miljarden inkomsten van Google zijn afhankelijk van die tracking. Het bestaansrecht van Google is tracking. Alles wat ze doen, alles wat ze produceren is daarop gericht. En alles wat je met hun producten doet zal tracking tot gevolg hebben.
Niet dat anderen voor Google onderdoet, maar Google is het meest bekende en duidelijke voorbeeld. Zonder tracking valt Google binnen de kortst mogelijke keren om. Want, geen tracking == geen advertentie inkomsten.

[Reactie gewijzigd door Alfa1970 op 22 juli 2024 21:52]

The wayback machine is archive.org :)

Maar ja ik denk dat Google uiteindelijk wel een keer omvalt ja. Wat mij betreft liever vandaag dan morgen maargoed. Had iemand in 2005 ooit gedacht dat Internet Explorer weg zou kwijnen?

En er is wel wat aan te doen op zich. Zie hoe Facebook echt behoorlijk pissed is op Apple nu met die ad identifier. Ze grijpen elke mogelijkheid aan om er over te klagen. En dat is maar een heel kleine maatregel. We kunnen deze industrie veel meer in de weg zitten, helaas hebben ze bij Apple ook een behoorlijke vinger in de pap (ze hebben het niet voor niets uitgesteld).

En ja met IPFS kom je daar wel vanaf, want je haalt je content van willekeurige servers. Probleem is wel dat het totaal ongeschikt is voor dynamische informatie. Iets als Tweakers met comments kan je er niet op draaien.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 21:52]

Had iemand in 2005 ooit gedacht dat Internet Explorer weg zou kwijnen?
Maar Microsoft bestaat gewoon nog steeds, en is zelfs groter geworden..... slecht voorbeeld.
Het punt is dat je dan wel de content niet van een centraal punt af haalt, maar ze kunnen nog steeds zien wát je binnenhaalt door die informatie door te seinen.
En dat is precies de data die ze nodig hebben om te blijven bestaan.
Google gaat niet weg. Apple, Google, Microsoft, die bedrijven hebben een economie die groter is dan sommige landen.
Het is een principe kwestie.
Ik denk dat dit systeem inderdaad een oplossing is voor een probleem wat gewoon niet technisch valt op te lossen.

En dan te toepassing van cryptovaluta, dat lijkt me geen stabiele basis.
Het is niet "extreem complex" in vergelijking met andere oplossingen. BitTorrent gebruikt al veel van deze technieken. In de praktijk werkt IPFS overigens heel simpel vind ik. Je vraag gewoon direct een CID aan of gebruikt daarvoor de named link. Het systeem queryt vervolgens het netwerk voor je en haalt de nodige datablokken binnen. Publishen van data is ook erg simpel.

Maar of je de concepten nou complex of eenvoudig vindt: het biedt in elk geval voordelen voor eindgebruikers:
- Data gaat niet verloren, tenzij je de enige node bent die de data nog heeft en je de cache verwijdert. Maar er is dus niet één partij die daar controle over heeft
- Je kunt zelf een IPFS "site" hosten zonder dat het je iets kost
- Zeer hoge snelheid (vooral bij populaire data dan)

Als alle browsers IPFS ondersteunen hoeft niemand de normale IPFS clients te gebruiken behalve mensen die actief nieuwe data willen publiceren.
Https is ook complex, denk maar aan http/TLS/DNS/TCP/IP en meer protocollen die allemaal nodig zijn om een website op te kunnen vragen. Dan hebben we het nog niet eens gehad over de datalink en fysieke laag. Voor internetgebruikers maakt dat allemaal niets uit.

De basis toepassing van IPFS is nu al vrij eenvoudig als je een ITer bent. Je kunt IPFS installeren en met een enkel commando content plaatsen. Met een ander commando haal je het dan weer op. Ook is er een js implementatie die je rechtstreeks in je browser kunt draaien.

[Reactie gewijzigd door Ablaze op 22 juli 2024 21:52]

Dat ben ik niet helemaal met je eens, misschien is het in het westen niet zo'n groot probleem, maar als je kijkt naar China, Rusland, het midden-oosten en hoeveel censuur daar is, dan zit je zo aan meer dan een miljard mensen, misschien wel 2 miljard.

Dat gezegd hebbende is het in het westen ook aan het veranderen. Ik denk dat de Web 3 revolutie (decentralisatie) niet snel genoeg kan gebeuren. Het kan in ieder geval geen kwaad.
Ik denk dat dit eerder met desinteresse dan een probleem te maken heeft. Dat desinteresse in privacy en (online) veiligheid voor velen (nog) geen ondrwerp is waar ze zich mee bezig (willen) houden, is dat de politiek (om allerlei redenen) en de hieraan vaak gelinieerde massamedia er ook geen interesse in heeft.

Dank voor het prima leesbare artikel, echt zware kost.
Dat de msm er geen interesse in heeft is niet waar he.
Er wordt veel over gepubliceerd, over Google, Facebook, zeker als ze de UELA weer een aanpassen.
Over de corona app is meer dan nodig geschreven, ook door Tweakers, maar zeker door rtl\Daniel van der LVerlaan. Ook weer nu over site die niet voldoet aan de overheidseigen richtlijnen. Heise is een uitgever die er wel veel over publiceert.
Ook geldt voor de msm dat ze over oneindig veel onderwerpen veel moeten schrijven. Niet alles kan door elk msm in detail of überhaupt, want verondersteld kennis van t publiek.

[Reactie gewijzigd door boschhd op 22 juli 2024 21:52]

Blijvende interesse, nou niet in de Nederlandse massa media iig. Er wordt alleen over gepubliceerd als er bepaalde excessen/ schandalen etc. zijn m.b.t. privacy/veiligheid.
Over een maand weet niemand meer iets over het privacy schandaal bij het RIVM...misschien nog een keer als de daders voor de rechter staan....dan heb ik het niet over de verantwoordelijk bestuurders.


Maar ik zie graag een door de (gerespecteerde) media gepubliceerde artikelen (structureel) waar het belang van privacy keer op keer duidelijk wordt gemaakt, met voorbeelden zoals dit artikel (nog iets toegankelijker) Dat zelfde zie je ook in de politiek. Er is 1 partij die er werkelijk een kernpunt van maakt, en die maakt geen kans op een zetel, dat geeft exact het probleem aan. Alle middenpartijen blabla'en een beetje in de populistische leegte over veiligheid en privacy maar echte plannen waar electorale risico's aan zitten of machtige marktpartijen als Google of facebook ook maar iets van financiele schade door zouden kunnen lijden zie je niet.
Zoals ik al zei: RTL doet t regelmatig en laat ook de uitwassen zien. Bij de NOS zit Joost Schellevis.
Maar het is voor de meeste mensen een saai en taai onderwerp, dat zal ook de reden zijn dat media er niet alle dagen over publiceren. Sterker nog, het is een onderwerp dat me na aan het hart ligt, maar elke dag, zeker niet.
Ik vind wel dat Tweakers meer en vaker hierover mag publiceren. Veel van de onderwerpen die bijvoorbeeld Daniel Verlaan (hè hè, zo heet ie) uitdiept, passen mi. bij uitstek bij een site als deze.
De uitwassen zien, inderdaad. (90% van ons leven is op een of andere manier verbonden met internet/data (dat ergens anders is opgeslagen). De maatschappelijke interesse in hoe, wat waar en vaak ook waarom er persoonlijke data wordt gebruikt.gedeeld is bij het gros van de politiek, media en dus ook het gros van de de bevolking (anders zou er namelijk electoraal, en dus ook vanuit de massa media wel aandacht voor zijn) om te huilen. Je hebt als overheid hier ook een taak in, die wordt in Nederland waardeloos uitgevoerd. De redenen hiervoor zijn ook wel duidelijk.

ik vind dat er veel meer aandacht moet zijn in juist die media buiten Tweakers, want een tweaker is gemiddeld ruim op de hoogte hoe belangrijk privacy en anonimiteit is.

Schrale troost het is niet alleen in Nederland
Wat is de reden van de overheid?

Maar, zelfs de Linda doet eraan.
Alle media samen doen er vrij veel aan, de algemene, regelmatig, de speciale zoals Tweakers vaker. En zelfs de Linda waar het voor de doelgroep geen issue is, wat was het deze week ook al weer, billen?, schrijft erover.
En elk bedrijf heeft er een pagina over, wat er met je data gebeurt.

Uiteindelijk kunnen de media onderwerpen aandragen voor hun lezers en kijkers en luisteraars, maar als het niet resoneert of beklijft dan is het geen onderwerp dat mensen interesseert.
---
Zonder overheid hadden we nu geen AVG, geen cookiewall, geen voorstellen om gepersonaliseerde advertenties te verbieden.
Dat een overheid sneller en misschien specifieker moet re(a)geren, zou fijn zijn. Maar zij moeten wel alle belangen behartigen, ook die van de geld verdieners.

Misschien zijn Tweakers redelijk op de hoogte, we zijn het niet altijd met elkaar eens. Je merkt het over het ipfs ook al, de een heeft problemen met de illegale dingen die er op gaan gebeuren, de ander ziet of benoemt alleen de voordelen van anoniem. Waar ligt de balans?
---
Blijkt morgen dat t EDPS nog een klapje bij het voorstel op doet.

[Reactie gewijzigd door boschhd op 22 juli 2024 21:52]

Waarschijnlijk doelt hij erop dat hij eigenlijk het woord gelieerd had verwacht
Precies dat dus. litebyte weet het echter wel zo te draaien dat het lijkt alsof mijn grapje uit zijn mouw komt. Echt een politicus-in-de-dop :/
Dit vind ik een heel goed voorbeeld van een Plus artikel. Ik had wel van IPFS gehoord maar er nooit echt naar gekeken. Dit is een goede samenvatting van hoe het e.e.a. werkt, en helemaal goed als achtergrond nu het gebeuren van Brave overal in het nieuws opduikt.

Ik ga ook eens zo'n node opzetten om te proberen. Wel raar dat de Linux/FreeBSD nodes van ipfs-shipyard juist nog 'experimental' zijn. Juist zijn het de open-source enthousiastelingen die met zoiets beginnen.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 21:52]

Gewoon weer lekker ouderwets nerd nieuws :-) Hier hou ik ook wel van. Niet dat ik het meteen allemaal snap, maar nog eens rustig nalezen, in ieder geval interessant.
Inderdaad, van een artikel als deze kan ik genieten. Meer van dit en dat premium gaat z'n bestaansrecht nog eens een keer bewijzen :)
Voor de fans van de geniale sitcom "Silicon Valley": Pied Piper is here!
Pied Piper ging toch over datacompressie, niet distibuted content?
In seizoen 4(?) gebruiken ze het voor een "new internet"
In het begin wel, maar al snel was dat geëvolueerd naar een decentraal internet dat dankzij hun compressie op een smartphone of zelfs een smart koelkast kon draaien :)
Okay, om het even voor mezelf te verduidelijken. Begrijp ik hieruit dat alle content die opgehaald wordt in je cache wordt opgeslagen om vervolgens klaargezet te worden voor anderen die het willen opvragen (Met de keuze om het te verwijderen)? Levert dit vervolgens geen enorm opslag en bandbreedte probleem op wanneer je veel content op je node hebt staan en mogelijk veel leechers (bij gebrek aan een beter wordt) die je bandbreedte dichttrekken?
Dat kan je ongetwijfeld tot in de puntjes instellen. Net zoals dat je met bittorrent gewoon in kan stellen hoe veel bandbreedte je aan seeding wil toewijzen en na hoe lang de seeds stoppen.

Als ik het goed begrijp hoef je ook niet per se een eigen node te draaien om te kunnen browsen. Je kan ook met een publieke node verbinden. Maar ik moet er nog induiken dus ik kan het mis hebben.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 21:52]

Als ik het goed begrijp hoef je ook niet per se een eigen node te draaien om te kunnen browsen. Je kan ook met een publieke node verbinden.
Dat heb je goed gelezen :)
Voor o.a. Chrome browser moet je een extension installeren.
Wellicht interesant om even op te merken dat de ideeën rondom content adressing en object storage dichterbij liggen qua afstand als wellicht vermoed. Paul Carpentier en Jan van Riel pasten het als eerste toe en bedachten de term CAS toen ze eind jaren negentig bij het Belgische bedrijf FilePool werkten. https://en.wikipedia.org/wiki/Content-addressable_storage
Is dit niet allemaal erg cpu intensief? Ook lijken er wel heel veel laagjes op laagjes te zitten.
En als niemand nu interesse heeft in een blok na een bepaalde tijd doet garbage collection dan de site alsnog verijderen ?

Vraag me wel af hoeveel overhead storage dat je dan krijgt als veel nodes alles op gaan slaan, Internet storage X 100 of zo ?

Op dit item kan niet meer gereageerd worden.