Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties

BitTorrent heeft vrijdag de eerste open bèta vrijgegeven van een decentrale browser op basis van het gelijknamige protocol. De browser, Project Maelstrom, werkt voorlopig alleen op Windows. Mac- en Linux-versies zitten in de pijplijn.

BitTorrent, het bedrijf achter het gelijknamige protocol en de μTorrent-client, kondigde de decentrale browser in december aan. De ontwikkelaars willen met de nieuwe browser een 'nieuw internet' opbouwen en een alternatief voor http vormen.

BitTorrent heeft naar eigen zeggen circa 10.000 ontwikkelaars achter zich na de aankondiging in december. Daar komen nog eens 3.500 uitgevers bij, die onderzoeken hoe ze van dit 'nieuwe internet' gebruik kunnen maken. Onder de belangstellenden scharen zich verder technici, academici en onderzoekers, aldus het bedrijf in een blogpost.

Behalve het vrijgeven van de eerste testversie, heeft BitTorrent ook tools voor ontwikkelaars gepubliceerd. Op die manier kunnen zij gebruik maken van de technologie achter de browser. Eén van de tools is een Python-script dat statische webbestanden omzet in geoptimaliseerde torrents. Dat script is verschenen op GitHub.

Maelstrom

Moderatie-faq Wijzig weergave

Reacties (56)

En waar kan ik de source code even bekijken?
Waarom zou ik Bittorrent(bedrijf) vertrouwen om het systeem op te zetten voor het hele internet?
Zo verplaats je het probleem alleen.
Ik vertrouw het ook niet helemaal, kijk alleen maar wat voor rotzooi bittorrent zelf in utorrent stopt.
En dat moet dan hele internet omgooien ?
Het protocol werkt waarschijnlijk niet alleen met de Browser van bittorrent, maar ook met andere torrentbrowsers in de toekomst.
Ik hoop het, ben laatst van utorrent van ellende maar overstapt op Vuze. Die crashed in elk geval niet om de haverklap of een melding dat utorrent al draait.

Door alle rotzooi en gewoonweg slecht presteren van utorrent laat ik dit wel even schieten. Het initiatief vind ik prachtig, maar bij de uitvoering heb ik zwaar mijn twijfels.
Opera 12 had ook al support voor torrents. Ben benieuwd of ze dat weer terug inbouwen.
Ergens in het verleden was ooit ook al zoiets geopperd, om zo internet op plekken te krijgen waar het gecencureerd is. Daar waar het handig zou kunnen zijn interesseert de broncode niet zo erg.
Daar waar het handig zou kunnen zijn interesseert de broncode niet zo erg.
Dat is een hele rare uitspraak. Het feit dat we broncode kunnen nakijken en eventueel zelf onze binaries in elkaar kunnen zetten maakt software juist betrouwbaar(der).

Je hebt misschien gelijk dat "closed source" software wel nuttig kan zijn (zie Windows), maar dat is geen argument om te zeggen dat je de vertrouwenskwestie, waar de hele ontwikkeling van BitTorrent's decentrale internet om gaat, onder de tafel kunt schuiven. Het is wel degelijk iets wat van belang is.
In de landen waar gecencureerd wordt wordt ook heel veel illegale Windows gebruikt en dus ook veel meer illegale software. Dat soort mensen maken zich minder druk over de correctheid van hun software.
Maar ik kan me wel voorstellen dat het fijn is te weten dat je geen aangepaste versie met een backdoor van je overheid krijgt...
Interessant. Iedereen wilt een betrouwbaar anoniem en neutraal internet, wat een enorme berg aan data is. Maar niemand wil een stukje van zijn harde schijf opofferen om hiervan onderdeel te zijn. Om het maar even kort door de bocht te stellen.
Ik zie een nieuwe community ontstaan. Mooie ontwikkeling.
De torrentbrowser is zeker niet anoniem.
Bij nazoeken naar wat mijn ip was,
Kwam hi gewoonj uit op m'n persoonlijke ip.

Dus je verkeer is wel te herleiden naar jezelf.
Wat de torbrowser doet, is het hele internet 'downloaden' op de schijven van gebruikers (standaard 5gb, minimaal 1) en dat dan p2p delen. Zodat je niet meer afhankelijk bent van servers die uit de lucht gehaald kunnen worden.
Maar dat betekend dan dus ook dat het kan zijn dat je illegale content en bijvoorbeeld delen van een kinderporno site weer deelt. Hier wil ik geen deel vanuit maken.
Niet geheel waar. het zal eenvoudiger worden om dat soort zaken op te sporen juist omdat je niet hoeft te zoeken: het komt automatisch op je systeem. Zet een server-ruimte in handen van een overheid als seeder ergens neer en filter alle foto/film bestanden lokaal.

Het zal wel moeilijker worden om debestanden dan van het internet af te krijgen, maar daar tegenover staat de grotere pakkans. Daarnaast kan een overheid de browsers ook verplichten bepaalde bestanden simpelweg niet te downloaden.

Zo blokkeert Opera bijvoorbeeld ook fotobestanden die discutabel zijn.
Simpeler op te lossen: zet alle data in raid 0
Dan heeft niemand ook maar iets bruikbaars opzichzelf op z'n computer, alleen maar betekenisloze bits. (en dus ook geen discutabele foto's of andere belastbare waren)
het gaat er mij niet om dat de fotos op mijn systeem wel of niet bruikbaar zijn of te bekijken zijn... ik wil gewoon niet mee werken aan dit soort zaken.
Dat weet je dan niet, maar is wel net neutraal.
Alle data hetzelfde behandelen.
Of het nou een stuk van een illegale Photoshop of een stuk van Wikipedia is.
Zo is het ook niet bedoelt, het is geen vervanging voor de tor browser. Websites in deze browser worden gehost door de "Seeders" oftewel de gebruikers van de Bittorrent Browser, de browser zelf maakt je niet anoniem.

Dat moet je niet door elkaar heen gaan halen.

Sidenote: Als iemand van plan is deze soort technologie voor piraterij te gaan gebruiken, dan zal zo iemand de juiste maatregelen nemen (lijkt mij) en ook zeker snappen hoe de browser werkt. Dus op gebied van piraterij, is de browser (gelukkig) niet gericht op anonimiteit, maar decentralisatie van de "grotere internet partijen/bedrijven en services". Natuurlijk zal het verkeer nog steeds over het normale internet gaan, en zal anonimiteit geregeld moeten worden (voor nu) via systemen die al bestaan, zoals een vpn etc.

Het is soort van een begin aan iets revolutionairs, de torrent P2P technologie was er al even, maar het is knap dat het nu om te zetten is in webpagina's. Als hier interesse in blijft, en dit een van de protocollen wordt voor de toekomst als het neerkomt op gedecentraliseerd internet, dan kan dat zeer interessant worden.

Want zelf ben ik vaak wel tevreden met het internet, echter zie ik de controle erg toenemen, en de concurrentie in de markt steeds oneerlijker worden. Intressant te zien dat dit misschien een manier is om de "Communities" en "Volunteers" weer in de voorgrond te plaatsen.

[Reactie gewijzigd door pepijn809 op 11 april 2015 12:39]

Maar wordt het op deze manier niet veel makkelijker om man in the middle attacks uit te voeren, want wie zegt mij dat de seeder niet met de site geknoeid heeft? En hoe zit het eigenlijk met certificaten van https sites?
2 dingen die mij te binnen schieten, zonder me nog grondig in te hebben gelezen in het concept...
Daar heb je gelijk in, ik ga er vanuit dat ze ideeën hebben om dit op te lossen. Maar ik zou me zo niet kunnen bedenken wie de seeders en hun content kan verifiëren.

Zoiets als content controleren via hashes in misschien een idee, maar wie heeft dan "de hash die gecontroleerd moet worden"? Er zal in principe spraak blijven van iets dat het verifieert.

Maar goed, ik laat me maar verassen. De technologie is nog vrij nieuw, en dus nog onbeproefd.
Leuk, maar hoe gaat dit werken met websites met gegenereerde content ('active content')? Dit werkt alleen als de content statisch is lijkt mij.

[Reactie gewijzigd door ArtGod op 11 april 2015 11:18]

Verdere ontkoppeling tussen front-end en back-end, alles dus via AJAX doen als je het dynamisch wil hebben. Zie je steeds meer gebeuren maar veelgebruikte scripts en frameworks als Drupal en Wordpress zitten nog vrij vastgeroest aan het direct uitleveren van content vanuit PHP scripts. Het zou veel efficienter zijn om alles via AJAX of web sockets te doen :)

Hoort een beetje bij het "nieuwe" internet lijkt me. Al kun je natuurlijk zeggen dat het niet meer decentraal is ... het grootste centrale punt is nog wel DNS en dát is hiermee samen met statische content wel decentraal.

[Reactie gewijzigd door Ventieldopje op 11 april 2015 14:54]

Dan heeft het weinig nut want dan moeten de AJAX calls altijd naar een vaste server.
Dat is bij Tor niet anders :) Zoals ik al zei lijkt mij het belangrijkste dat het meest centrale punt als eerste wordt aangepakt, DNS en dat is gelukt.
Dan gaan ze gewoon IP adressen blokkeren. Dus ik denk niet dat dit veel gaat uitmaken. Als ze ook content gaan verspreiden en opslaan in de nodes dan krijg je wel een blocking-proof internet. Maar dan krijg je weer problemen met actieve sites.

En dit systeem is ook niet gericht op privacy en veiligheid zoals Tor. Dus ik zie veel haken en ogen.

Last but not least the intellectual property. Als BitTorrent alle patenten op dit systeem dan gaat men dit nooit gebruiken. Het WWW is juist een success geworden omdat CERN de patenten op HTML en web-browsing gratis weggaf.

[Reactie gewijzigd door ArtGod op 13 april 2015 09:04]

Mooi,
Ons 'centrale' internet wordt steeds meer en meer geclaimed door politici en de content-industrie.

Een decentraal internet via p2p, zorgt dat internet een stuk minder vatbaar wordt voor die partijen.
Helaas geldt dit dan ook voor C&C servers om malware en botnets aan te sturen.
Niet dat dit een reden moet zijn om er tegen te zijn, maar dit gaat zeker een probleem zijn.

[Reactie gewijzigd door lampstoelkast op 10 april 2015 20:53]

Waarom zou dit hiervoor extra problemen oplevern? C&C servers hoeven niet met de protocollen van het Internet mee te gaan, ze kunnen bijvoorbeeld al tor gebruiken, of een eigen protocol.
Zo te zien kan je alleen HTML gebruiken, voor databases heb je dus alsnog een server nodig... |:(
ook niet meer als het aan deze jongens ligt:
https://www.ethereum.org/
Ik kan simpel zeggen: Een project zoals ethereum is gedoemd om de mislukken.

Als je niet binnen de 10 seconden kunt uitleggen op je website hoe je technologie werkt, dan ben je te druk bezig met jezelf op de blazen als een kikker.

Gans het project geeft mij een verwarrende indruk en is niet wat fritek373 over spreekt. Iedereen moet meewerken aan dat project om enige nut te hebben, want nooit zal gebeuren.

Moest hun project een systeem zijn, waarbij data / tekst uit web pagina's gehaald werd, automatisch in een databanken gestoken werd en p2p gedeeld werd, dan zou het nog een nut kunnen hebben en je vereist niet de medewerking van mensen. Zoiets zou tractie kunnen behalen.

Veel data op het internet heeft een logica. Een forum ... neem phpbb als voorbeeld ... je ziet de poster naam, zijn post, de thread, enz ...Eenmaal je een plugin geschreven hebt voor één website dat die software gebruikt, kan je in theorie 99% van alle website forums ( dat dezelfde thema gebruiken ) afschuimen en een databank opbouwen. Die gegevens kan je dan weer delen via een p2p systeem. En voila, je hebt een redundant internet ( voor deel deel ) waar als een server onderuit gaat, je in theorie alle tekstuele data behoud. En je moet geen massa's aan data nutteloos opslagen ( je reverse engineer de data ). Het weergeven in archief vorm is dan ook weer geen probleem want je kan de thema voor een groot deel hermaken.

Ik ben al lang aan een project zoals dat aan het denken geweest. Want het kan ver gaan... websites, boeken, enz ... alles wat tekst bevat kan uiteindelijk als er een plugin is, ingelezen worden. Het nadeel is dat de plugins up to date moeten blijven met de software.

Het voordeel is dat zo een internet niet te blokkeren is want alles word p2p op data gebied.

Maar zodra je een Foundation nodig hebt, om mensen te overtuigen om mee te werken aan zo een project... zal volgens mij niet werken.

De bittorrent browser is een stap in de goede richting maar bevat nog te veel redundant data transfers en data opslag. Website pagina's omzetten naar torrents... kost veel plaats. Waar een pagina in theorie 500k is, bevat het mogelijk enkel 10k echte tekstuele data wat je echt leest. Dat is 490k verloren plaats. Van die 10k is er mogelijk 2k of meer redundant data dat ook x aantal keren herhaalt word.

Iedere web ontwikkelaar weet dat de echte data in je server databank vaak minuscuul is vs als iemand die website zou proberen te archiveren. Ik zeg maar:

Voorbeeld: 10mb aan php scripts / html / jquery enz + 400mb aan databank data = 5GB of meer aan data als iemand een website echt wilt archiveren of redundant wilt "delen".
Ik ben het helemaal met je eens, vandaar "als het aan hun ligt".
Heb een presentatie gekeken van de bedenker en snap nog steeds niet hoe het nou precies zit... dus ja, te ingewikkeld.
Althans, het concept is makkelijk: de blockchain is data, altijd openbaar beschikbaar en controleerbaar en decentraal, dus we kunnen alles decentraal en "accountable" maken! Wat me niet duidelijk is zijn de oplossingen voor de voor de hand liggende problemen zoals veel veranderende data, snelheid en de grootte van de blockchain als het veel gebruikt gaat worden...
Hoe moet ik dit nou zien dan.. een totaal nieuwe webwereld en mensen gaan sites p2p zodat het niet meer via een server gaat ?
Nu is het zo dat bij het aanvragen van een website URL, er één verbinding wordt opgezet met de server, waarbij er daarna mogelijk nog 3rd party content wordt ingeladen (reclame). Maar bij P2P maak je connectie met een 'hive' oftewel een groot aantal connecties waarbij de website als het ware bij vele 'servers' vandaan wordt gehaald.

Dit betekent dat de client ook een server kan zijn, doordat bij het openen van de webpagina, je na het opvragen en downloaden ervan, de website ook weer (kan) gaan uploaden naar andere gebruikers.

Simpel gezegd is het dus als het ware dat de URL van de webpagina een torrent file link is, waardoor de website als een torrent wordt binnengehaald.
Dit gaat gewoon niet werken. Vroeger waren sites statisch, echter gaat dit helemaal niet meer op. Veel sites werken met databases, nieuws sites en bijvoorbeeld blogs updaten heel vaak, er zijn inlogsystemen (moet er niet aan denken dat mijn data bij de buurman belandt), etc.

Verder zal SSL niet werken, ajax, service worker (heeft SSL nodig), etc.

De enige nuttige mogelijkheid lijkt mijn CDN, al is http2/2 al veel sneller en illegale sites als The Piratebay.

Edit: Typo

[Reactie gewijzigd door svenvNL op 10 april 2015 21:25]

Op dit moment is het lastig te zeggen wat wel en niet gaat werken. Echter is er zeer veel in development voordat het als "nuttiger" wordt beschouwt. Dit is de eerste open beta, die zonder al te veel problemen werkt.

Hoe meer interesse er in dit soort projecten wordt gestopt, hoe groter de kans dat het platform, of eventuele andere platformen groter worden. Het doel van dit is misschien niet (of niet op dit moment) om huidige dynamische sites te gaan vervangen, maar te starten met meer statisch content, en wanneer technologie er klaar voor is, dit ook te gaan proberen

Dit moet je met een scheutje zout nemen, want het is maar een idee, wat ik heb. Wat wel een feit is, Bittorrent Browser lijkt de eerste P2P browser te zijn die laat zien dat de technologie (hoe gelimiteerd dan ook op dit moment) werkt. En ik geef daarvoor wel meer dan een applaus.

Afgezien van de mogelijke interesse, vraag ik me af of Bittorrent .Inc hier baat bij heeft qua bedrijf/inkomen etc of dat het net als torrents in het begin, meer interesse heeft in het platform ontwikkelen samen met anderen. Als het "Protocol" meer gaat ondersteunen, dan kan dit wel iets worden, maar te closed source, en dan kunnen ze dat wel vergeten, denk ik.
Tja, het kan een goede toevoeging zijn op het huidige internet maar zolang de broncode gesloten is zou ik het nooit gebruiken.
Een goede toepassing hiervoor zou misschien Tor kunnen zijn, bandbreedte is schaars en technieken die de beschikbare bandbreedte beter kunnen benutten is altijd welkom, maar zoals gezegd, zonder broncode een grote no go.
Dat bestaat al en heet I2P.
Films verspreiden via p2p is natuurlijk ideaal (vanuit technisch en gebruikers-oogpunt), veel mensen laten een film nog wel een poosje op de HDD staan. Maar plaatjes, youtube-achtige filmpjes en andere data vretende content zou toch nooit onderhouden kunnen worden? Gebruikers zouden kleine pakketjes data van verschillende sites moeten opslaan waardoor opslagruimte bij de gebruiker verloren gaat zonder direct voordeel (die film speel je wellicht nog een keer met vrienden af, pakketjes data doe je niks mee).

Dit doet mij meer denken aan een verdere ontwikkeling van een browser als de PirateBay browser

[Reactie gewijzigd door Peoplen op 10 april 2015 22:15]

Net even gedownload bij wijze van test.

Ik ging direct naar Nu.nl, wachte heel even (gewoon op de homepage) en BAM kreeg ik deze error:
http://sharesnake.com/download/f4f99c8eb7eadab2123985e087501ebf

Andere mensen hier ook last van?

OS: Windows 10 (64-bit)
RAM: 6GB

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True