Het begon met een error - De voorganger van internet begon 50 jaar geleden

Het is vandaag vijftig jaar geleden dat Arpanet van start ging. Deze voorloper van internet was het eerste werkende computernetwerk. Op 29 oktober 1969 om 22:30 pst werd het eerste bericht verzonden via Arpanet. Het systeem crashte na de eerste twee letters.

Het eerste succesvolle bericht werd over Arpanet verzonden door een student van de Universiteit van Californië in Los Angeles. Hiervoor werd een SDS Sigma 7-computer gebruikt. Het bericht kwam ruim 500 kilometer verderop aan in het Stanford Research Institute. Het bericht bevatte de tekst 'LO'. Het moest eigenlijk 'LOGIN' zijn, maar het netwerk crashte na de eerste twee letters. Desalniettemin was dit het eerste bericht dat ooit via een digitaal netwerk werd verzonden tussen twee computers. Een uur later werd het systeem gerepareerd door programmeurs, waarna er daadwerkelijk ingelogd kon worden.

Op 21 november werd er een permanente verbinding tussen de universiteit in Los Angeles en Stanford aangelegd. Twee weken later, op pakjesavond, was het volledige netwerk werkzaam met vier nodes; de Universiteit van Californië in Los Angeles en Santa Barbara, het Stanford Research Institute en de Universiteit van Utah.

Arpanet IMP-log

De eerste Arpanet imp-log, gedateerd op 29 oktober 1969

Arpanet groeide gedurende de opeenvolgende jaren door en aan het eind van 1971 bevatte het netwerk al 23 host-computers, die allemaal met elkaar konden communiceren. In 1973 ging Arpanet internationaal. Via een satellietverbinding werd het aangesloten aan nodes van het Nosar in Noorwegen en het University College in Londen. In datzelfde jaar werd het file transfer protocol, oftewel ftp, ontwikkeld.

Een van de grootste ontwikkelingen vond echter een jaar later plaats; in 1974 werd door Stanford een protocol gepresenteerd om verschillende netwerken met elkaar te laten communiceren. Het transmission control protocol/internet protocol, beter bekend als tcp/ip, wordt vandaag de dag nog altijd gebruikt voor gegevensoverdracht via internet en op computernetwerken. Zo werken de protocollen ook via lan en thuisnetwerken. De ontwikkeling van tcp en ip is de grootste stap richting internet zoals wij het vandaag de dag kennen. In 1982 werd tcp/ip het standaardprotocol van Arpanet.

In de volgende jaren ontstonden verschillende computernetwerken die stuk voor stuk aan Arpanet werden gekoppeld. Hieronder viel ook usenet, een netwerksysteem dat vandaag de dag nog steeds wordt gebruikt. In 1978 werd de allereerste spammail verstuurd naar alle vierhonderd gebruikers van Arpanet. Gary Thuerk van Digital Equipment Corporation verstuurde een aankondiging van een 'open huis' naar aanleiding van nieuwe computermodellen over Arpanet; een streek waarvoor Thuerk later een van de ontvangers, het Amerikaanse Ministerie van Defensie, op zijn dak kreeg. Dat ministerie runde destijds namelijk ook het computernetwerk.

In 1983 werd het domain name system, ook wel dns, opgezet met de welbekende tld's als .com, .gov, .edu en .net. Dit systeem, dat vandaag de dag nog vol in gebruik is, bood als voordeel dat moderne domeinnamen aanzienlijk makkelijker te onthouden zijn dan ip-adressen voor websites. Het zou een van de laatste grote ontwikkelingen zijn die Arpanet doormaakte voor het moderne internet het verdrong. Computers en technieken werden door de jaren heen echter steeds geavanceerder, waardoor Arpanet tekenen van ouderdom begon te vertonen; het netwerk was traag en outdated. In 1990 maakte Arpanet officieel en definitief plaats voor het wereldwijde internet as we know it. Dat internet was dankzij samenwerkingen van providers commercieel te exploiteren. Het werk van de knappe koppen van twee Amerikaanse universiteiten speelt vandaag de dag echter nog altijd een enorme rol in onze digitale samenleving.

Arpanet netwerkkaart

De Arpanet-netwerkkaart uit 1974

Door Daan van Monsjou

Nieuwsredacteur

29-10-2019 • 16:48

59

Submitter: tim427

Reacties (59)

59
52
30
6
0
14
Wijzig sortering
Man,

Ik herinner me nog het eerste bericht dat ik las, samen met een studiegenoot, vanuit Zuid Afrika. Ik kon op dat moment niet bevatten dat het 'live' was verzonden naar de TU in Delft. Mindblowing.

Ik vroeg nog: "Internet, internet?, je bedoelt ethernet?". "Nee, internet" was het antwoord. Huh?!?

Kort daarop kon ik inbellen tegen lokaal tarief bij Planet Internet en was ik zelf ook los.

Daarvoor had je alleen 'lokale' bulletinboards op 2400 baud. Planet Internet zat al snel op 28k8... alweer: mindblowing.

[Reactie gewijzigd door Henk-Bakker op 23 juli 2024 07:58]

Het oude BBS (bulletin board system) , met 9600 baud text bestandjes over sturen.... the good old days
Ja.... Fiets BBS - Oosterhout
http://bbs.idefix.net/nnbl/nnbl132.008

Elke week nieuwe nummers uittesten vanaf de abnlijsten, maar regelmatig weer terugkeren op een paar 'bekende honken'

[Reactie gewijzigd door FreshMaker op 23 juli 2024 07:58]

Ik heb zelf nog een tijdje een Excalibur BBS gedraaid met wel 32 nodes (2 via POTS en de andere 30 via Internet)
Vroegâh toen ADSL nog niet bestond was ik één der gelukkigen met en permanente 28k8 verbinding naar het internet via Cistron Internet (thx Danny) voor 150 gulden per maand.
Gezien de telefoonrekeningen die ik in die tijd had voor inbellen naar het internet was dat een koopje.
Oude 486dx2 met RedHat 2(?) erop als firewall/gateway en een P60 als werk pc....
Zucht... ik ben oud geworden.

Grappig iets over Excalibur, je kon “sites” programmeren met een programma genaamd “G-Wiz” en dat lijkt verdomt veel op de hedendaagse Node-Red waar ik nu mijn Home Assitant in programmeer.

[Reactie gewijzigd door Goldwing1973 op 23 juli 2024 07:58]

Ik draaide een kleinschalige, BBS, op RA met een setje plugins
Maar de constante ingesprek zijnde telefoonlijn, en regelmatige geklik van het modem zorgde voor nog meer irritatie in een al 'verstoorde' relatie ;)

Heeft geen lang leven beschoren, ik heb het imho zelfs niet tot die lijsten gehaald.
Tijdje als sysadmin geholpen bij een vereniging, en ze met de komst van internet de boel mee omgezet naar een nieuws/homepage op compuserve, en later op het 'echte' internet.
Relatie??? Daar had ik geen tijd voor toen (ok, eerlijk toegegeven, ik was teveel “nerd” wat niet echt aansprak op de dames)
Ja, die telefoonrekeningen van Fl. 400,- en meer daar waren mijn ouders in 1984 ook niet zo blij mee.
Nog een Videotex server gedraaid op een P2000T met een 1200/75 Baud modem, waar ik ook een tekenprogramma voor had geschreven om de VideoText-pagina's te maken (in assembler natuurlijk).
Later nog mee gedaan met Fido-Net, werd de rekening ook niet minder van, haha...
haha leuk, ik zie dat mijn BBS ook in de lijstjes staat..

Telefoonlijn met fax/modemselector ertussen. BBS ging online om 23:00 uur, maar selector bleef wel eens hangen waardoor de hele nacht de telefoon rinkelde. Inderdaad goed voor de relatie ;)
Ook overdag natuurlijk vaak modems aan lijn.

daarna inbellen met trumpet/winsock bij oa. Tulip waar je gratis het internet op kon.

Good old days...
Oh ja die BBS lijst ken ik ook nog. Elke week keek ik hoopvol of er nog nieuwe BBS-en in mijn regio zaten, want dan kon je tegen lokaal tarief inbellen. 1 tik per tien minuten ofzo.
Buiten de regio was toen (voor mij) niet te doen.
Op een P2000T ooit met Videotex in 1982 _/-\o_
Yes! Kon je mee bestellen bij wehkamp en chatten met Suze of zo iets toch?
Fidonet, kon je ook berichten tegen beltarief de wereld rondsturen.
Toen ik als kleine jongen voor het eerste het world wide web zou gaan betreden (de lokale bibliotheek had voor het eerste internet op hun computer) dacht ik dat ik op het scherm een groot spinnenweb zou zien.

Dat viel toen toch tegen. Ik denk dat dit het eerste plaatje is dat ik ooit op internet heb gezien.
123.456.789.10
Dat hoop ik niet :P
daar dacht ik ook gelijk aan, hebben we ineens een stuk groter dan 32 bits TCP/IP systeem misgelopen wat ARPA net blijkbaar wel had :+ . Waarom al die moeite voor IPV6 als het in '70er jaren al geregeld was
Laat ons de fiere Belgen weer eens niet vermelden

1990: In 1989 stelden de Belg Robert Cailliau :*) en Brit Tim Berners-Lee onafhankelijk een hypertextsysteem voor als toegang tot de CERN-documentatie. Dit leidde tot een gezamenlijk voorstel in 1990 en daarna tot het World Wide Web.

[Reactie gewijzigd door OxWax op 23 juli 2024 07:58]

'de Belgen'? Het was er slechts één hoor. O-)
Wat was de rol van het Amerikaanse ministerie van Defensie bij deze ontwikkeling? Want ARPA (nu DARPA) was/is toch een defensie-instituut?
Wat was de rol van het Amerikaanse ministerie van Defensie bij deze ontwikkeling? Want ARPA (nu DARPA) was/is toch een defensie-instituut?
Zie wikipedia: ARPA en ARPANET.

O ja, en zij wilden een netwerk dat zou blijven functioneren, ook als door een (kern)aanval een deel van de nodes en links down zou zijn. Het netwerk moest dan gewoon blijven functioneren, en bijvoorbeeld niet afhankelijk zijn van een centrale hub.

Edit: dat had ik zo op school geleerd. Echter, als je de wikipedia pagina leest, dan staat daar dat dat een fabeltje is...
Feit blijft dat de bestaande 'circuit-switched' netwerken niet voldeden, en dat ze iets wilden dat ondanks een onbetrouwbare onderliggende verbinding toch zou blijven werken, en desnoods de data via een andere verbinding zou sturen.

[Reactie gewijzigd door RJG-223 op 23 juli 2024 07:58]

Zie wikipedia
Ze hebben het project gefinancierd dus...
Edit: dat had ik zo op school geleerd. Echter, als je de wikipedia pagina leest, dan staat daar dat dat een fabeltje is...
Toch niet helemaal een fabel. Volgens Lukasic, de man die het ARPANET financieel echt aan het rollen bracht, was dat wel het design goal:
The goal was to exploit new computer technologies to meet the needs of military command and control against nuclear threats, achieve survivable control of US nuclear forces, and improve military tactical and management decision making.
Logisch misschien om dat te zeggen natuurlijk, anders kon hij nooit genoeg budget krijgen van Defensie ;)
Maar dat was maar een van de mogelijke toepassingen. Het onderliggend probleem moest wel eerst aangepakt worden (de echte design goal):
[...] since the principal reason was that the switching nodes and network links were unreliable, even without any nuclear attacks.

[Reactie gewijzigd door Fireshade op 23 juli 2024 07:58]

Ivm het kernaanval gedoe: urban legend
Lees eens Where Wizards Stay Up Late: The Origins of the Internet.
Desalniettemin was dit het eerste bericht dat ooit via een digitaal netwerk werd verzonden tussen twee computers.
Dit zal toch wel eerst lokaal uitgeprobeerd zijn ipv gelijk 500km ertussen?

Offtopic:
Overigens iemand misschien een goede documentaire hierover? Of over het begin van het internet in Nederland?
Dit zal toch wel eerst lokaal uitgeprobeerd zijn ipv gelijk 500km ertussen?
Ik denk het niet. Die 500km is van geen belang. Het was waarschijnlijk gewoon over een kabel die er al lag. En als het na de eerste twee letters crashte, dan is het niet waarschijnlijk dat er lokaal veel getest is. Het procotol zal ook behoorlijk eenvoudig zijn geweest. Een goede programmeur kan zoiets in een keer redelijk bugvrij implementeren. We hebben het echt niet over tienduizenden regels code.

Edit: en in die tijd was er op elke locatie waarschijnlijk exact één computer. Wellicht was de concentratie van beschikbare computers om mee te testen zelfs niet hoger dan 1 stuk per 500 km2 . Als je met een andere computer wilde testen, dan moest er dat wel een zijn die ver weg in een andere stad stond.

[Reactie gewijzigd door RJG-223 op 23 juli 2024 07:58]

Lijkt me wel, de eerste steen zit ook altijd decimeters van de grond.
Ik denk dat dat vooral ligt aan je definitie van digitaal netwerk en computers :)
Toen had je vaak maar 1 "computer" op de campus. Die vulde een complete klaslokaal (of meerdere) en had dan enkele terminals.

Dus berichten van 1 terminal naar de ander telde niet als andere computer ;)
Wat een opmerking van niveau weer. Hij vraagt toch gewoon, aan mensen met dezelfde interesse, of ze nog een recommendation hebben? Wat moet hij Googlen dan? "Good documentary about the start of the internet"? Dan krijg je ik weet niet hoeveel resultaten. Je mag toch wel verwachten dat je mede-Tweaker graag even verteld wat hij of zij een interessante en goede documentaire vind?

Waarom reageer je zoals je doet? Of moet ik dat ook Googlen?
Zullen we dan maar meteen alle forums als Stackoverflow, GoT, Reddit, etc, etc maar meteen sluiten. Als je al niet eens vragen mag stellen...
Iemand afbranden om een vraag en dan niet eens een docu linken maar een nieuws item van Tv over een paar pipo's die de krant via de Pc versturen, Picard kom d'r maar in...
Je beseft toch wel dat het zoeken via Google je vaak naar dit soort threads brengt?
123.456.789.10 :+

edit: @JapyDooge was me net voor :)

[Reactie gewijzigd door Lukse op 23 juli 2024 07:58]

Anoniem: 551631 29 oktober 2019 16:57
Ik vind het bijzonder knap dat je als pionier iets schrijft wat gelijk al bij de 1e keer zo efficient is dat het 45 jaar later nog gebruikt word.
Inmiddels zitten we al op versie 6 :)

En ik denk niet dat je de lange levensduur aan efficiëntie kan toedichten. Aangezien het zo'n beetje de basis vormt voor alle internet-communicatie is het praktisch onmogelijk om dit protocol even te vervangen. Dat zie je ook al heel duidelijk bij implementatie van v6. Hier zijn ze ook al bijna 10 jaar mee bezig.
Ik weet niet of het echt zo efficiënt is, een groot deel van de boodschappen bevat nog op strings gebaseerde formaten voor allerlei lagen terwijl die tegenwoordig alleen nog maar door computers gelezen en geschreven worden. Volgens mij zou een compact binair formaat echt een enorme verbetering geven.
Ik weet niet of het echt zo efficiënt is, een groot deel van de boodschappen bevat nog op strings gebaseerde formaten voor allerlei lagen terwijl die tegenwoordig alleen nog maar door computers gelezen en geschreven worden. Volgens mij zou een compact binair formaat echt een enorme verbetering geven.
Zoals z1rconium al zegt: de onderste lagen IP en TCP dus) zijn binair. Anders zou het te inefficient worden. En de formaten zijn ook niet erg complex. (het protocol is wel complex, het formaat valt heel erg mee).

Voor HTTP en HTML is het juist heel goed dat het formaat leesbaar is. De computers verwerken wel het meeste, maar de mensen moeten het schrijven/programmeren. En als je dan gewoon kunt zien en lezen wat je hebt, of wat je krijgt, dan is dat wel zo makkelijk. Eigenlijk bijna essentieel. Debuggen van zulke complexe formaten is zeer onpraktisch als je de formaten zelf niet kunt lezen. En een luxe editor die een binair formaat naar tekst vertaalt is geen optie, omdat die ook weer bugs kan bevatten. Je moet dan toch het feitelijke formaat zelf kunnen lezen. En computers zijn juist zeer goed in het interpreteren van gestuctureerde informatie, of dat nu tekst is, of binair. Veel beter dan wij zijn in het interpreteren van binare informatie. Dus laat ieder gewoon doen waar ie goed in is. Zeker als computers toch al zo krachtig zijn dat ze voor het interpreteren van een HTTP request, of van de tekst van een webpagina, amper uit slaapstand hoeven komen (het afbeelden van de pagina, en het draaien van alle javascript code is een andere zaak, maar dat moet bij een binair formaat ook).

En nog een voordeel van tekst, is dat er talloze tools bestaan die tekst kunnen verwerken. Heel makkelijk dus om met die tools nieuwe code te schrijven die bijv webpagina's verwerkt. Ik heb een aantal weken geleden nog een eenvoudig scriptje geschreven om van een website wat prijzen en andere informatie te halen. Gewoon zoeken waar in de HTML code de prijs staat. Zien dat er vlak voor altijd het woord 'prijs' staat. En dan dus in elke pagina zoeken op 'prijs' en het getalletje wat daarna komt onthouden. Een kind kan de was doen. Als dat een binair formaat was geweest, was dat een stuk complexer geweest.
De winst in efficiëntie zou ook niet zitten in het sneller kunnen verwerken, maar in reductie van de hoeveelheid te versturen data. Als je de helft aan informatie verstuurt, gaat dat 2x zo snel. Zelfs op het snelste netwerk scheelt dat nog veel. Vooral omdat netwerken nog steeds vaak de bottleneck zijn.

Ik vraag me oprecht af of het feit dat protocollen en formaten string based zijn echt helpt. Goede tooling kan je prima helpen.

Dat gezegd hebbende: het is vrij gebruikelijk om webpagina’s gezipt te versturen. Stiekem toch binair dus!
Ik vraag me oprecht af of het feit dat protocollen en formaten string based zijn echt helpt. Goede tooling kan je prima helpen.
Die tooling kan prima helpen. Doet ie nu ook. Maar als het zonder tooling óók kan, is dat alleen maar een plus.

En als je het echt efficiënter wil maken, dan zou ik beginnen met alle code in assembler te schrijven. Is waarschijnlijk veel compacter én sneller.

... en duurt ook veel langer voor het klaar is, en bevat dan meer bugs, en het is véél minder makkelijk te schrijven, dus zijn de (weinige) programmeurs die het goed kunnen ook véél duurder.

Dan toch maar een moderne inefficiënte taal... Zeker talen als php. perl, python, etc. zijn lang niet zo efficiënt als goede C code. Maar wel veel makkelijker te schrijven en te onderhouden...
Dat gezegd hebbende: het is vrij gebruikelijk om webpagina’s gezipt te versturen. Stiekem toch binair dus!
Sterker nog: als HTTP en HTML zo veel mogelijk binair waren, dan zou het nog steeds gezipt (moeten) worden. Waarom zou je dan in het formaat misschien (zeg) 10% ruimte besparen, als het zippen daarna toch nog steeds de rest van de (zeg) 50% besparing voor z'n rekening moet nemen.
Die onderste lagen zijn dan ook binair.
Dat is een van de grote verschillen tussen IETF en ETSI/3GPP. Zeg maar internet protocollen en telecom protocollen. Telecom protocollen zoals die bijvoorbeeld gebruikt worden in vaste- en mobiele netwerken zijn allemaal gebaseerd op bit streams. Die zijn super efficient. Zowel in packet grootte, maar ook in cpu gebruik. HTML is een heel duur cpu protocol. Het vertalen van een in-memory datastructuur naar een xml-text formaat aan de zendende kant en weer terug vertalen naar een in-memory data structuur aan de ontvangende kant vreet gewoon cpu cycles.

Dan is het wel leuk om te zien dat we toch wel terugkomen van de hele hype rondom XML van jaren terug met o.a. SOAP webservices, om die door json REST services te vervangen. Gewoon omdat de performance beter is doordat voor json minder cpu nodig is. En http zelf zie je ook van tekst naar binary transport verschuiven. Google eerst met zijn SPDY uitbreiding van http/1.1, en nu standaard in HTTP/2.

Als je de laagste mogelijk latency wilt en/of de hoogste verwerkings capaciteit, dan kom je uit op binary protocollen.
Ik zal je vertellen, het alfabet is nog veel ouder, en dat gebruik jij zelfs nog.
Dat is de woord pionier toch

lekkere zins opbouw De woord...
Dat is de woord pionier toch .
Het woord.
De pionier.
Wat is daar knap aan? :+ Verzin het maar eens en bouw het vervolgens maar eens én zorg dat het goed werkt.
Dus een goed idee hebben, plannen en uitvoeren en zo solide ontwerpen dat het 50 jaar later nog steeds de standaard is is niet knap?

Wat vind jij dan knap? Een bierdopje verwijderen met je tanden?
Was Nederland niet een paar dagen eerder dan Noorwegen aangesloten op Arpanet? https://www.cwi.nl/nieuws...g-jaar-internet-in-Europa
Je doelt NOSAR? In 1973 draaide ARPANET nog op NCP, er was nog geen sprake van internet zoals we dat nu kennen.
Mn eerste download weet ik nog. Drivers voor mn Ark videokaart. Windows 95. Tijd gaat snel.. 🙂
Mooi stukje geschiedenis!
Het kaartje moest ik toch even nazoeken, maar IMP is dus een Internet Message Processor punt op de kaart, gelijk aan wat we tegenwoordig een router noemen.
Een TIP is een Terminal Interface Processor, en in het Arpanet was dit dus zowel een router als een terminal.

Maar als dat klopt, dan waren een aantal universiteiten met een IMP van toen alleen maar router-punten, zonder dat ze zelf met een terminal deel konden nemen?
Als ik het goed begrijp konden TIP's dus wel inloggen op het systeem en informatie uitwisselen, want ik neem aan: geen terminal, geen overdracht mogelijk?

Op dit item kan niet meer gereageerd worden.