Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

Ontwikkelaars die meehelpen aan het schrijven van de Linux-kernel, moeten hun systemen controleren op mogelijke inbraken en malware. Dat schrijft een van de ontwikkelaars in een mailinglist. Aanleiding is de hack op Kernel.org.

De lekken zijn inmiddels gedicht en Kernel.org is weer online. Projectleiders raden ontwikkelaars echter aan om de sleutels voor het uploaden van code te vernieuwen. Bovendien moeten ze controleren of hun systemen vrij zijn van rootkits en andere soorten malware. "Uit een analyse van de hack van Kernel.org blijkt dat op z'n minst de systemen van sommige ontwikkelaars getroffen zijn", schrijft ontwikkelaar Greg Kroah-Hartman. Volgens hem moeten accounthouders van Kernel.org rekening houden met hackeraanvallen. "We moeten al onze systemen controleren op mogelijke inbraken."

Hackers kregen eind augustus op ten minste één server van Kernel.org root-toegang. Op de website, die wordt gebruikt voor het verspreiden van de Linux-kernel, werden bestanden van OpenSSH gewijzigd. Ook werd een trojan geïnstalleerd en konden de aanvallers de log-informatie opvragen. De broncode van de Linux-kernel bleef volgens de ontwikkelaars ongeschonden en werd vlak na de hack tijdelijk naar Github overgeheveld.

De hackers leken hun zinnen niet alleen op Kernel.org te hebben gezet; niet lang na de hack op Kernel.org werden de websites Linuxfoundation.org, Linux.com en alle subdomeinen vanwege een beveiligingslek offline gehaald. Kwaadwillenden konden naar verluidt talloze wachtwoorden stelen. Het is niet bekend of dat ook is gebeurd. Na ruim een maand zijn nagenoeg alle websites weer online; alleen Linux.com is op het moment van schrijven nog onbereikbaar.

Moderatie-faq Wijzig weergave

Reacties (85)

In de discussie Linux/Unix vs.microsoft kun je nog jaren doorgaan. Het grote punt is: eerder was het zo dat een server voor criminelen intressant was als er snel geld mee verdient kon worden. Deze server zijn zeer goed beveiligd vaak met bijvoorbeeld SElinux (door de NSA ontwikkeld) AppArmor, of LIDS (Linux Intrusion Detection System)

Probleem wat je nu ziet is dat de meest veilige systemen met LIDS enz. zo veilig zijn dat ze amper gehacked kunnen worden.
Of de hackers zijn te snel te achterhalen (of worden zelfs gecounterhacked: wat met LIDS al zou moeten kunnen al is dit een beetje niet legaal) Of ze moeten brute Force aanvallen worden in de hoop dat dat werkt. (daar heb je dus grote speciale zombie netwerken voor nodig bestaande uit servers inpl. van zwakke consumentenzombiepc´s vroeger) Ook kan een zombie als portal dienen om traceren moeilijker te maken.


Daarnaast was vroeger geld maken met botnets en mallware een optie maar zie je steeds meer dat informatie stelen hip. Waar het vroeger was stelen in opdracht. Is het nu meer stelen en daarna kijken of er een koper te vinden is.

Waar het vroeger dus vooral servers met niet standaard info intressant was en deze dus zwaar beveiligd moest worden en de rest met rust werd gelaten en dus ook slechter beveiligd is vanwege gebrek aan kennis en dat beveiliging vaak ook vertraging en andere problemen voor gebruikers oplevert.

Zie je nu dat ineens bijvoorbeeld zelfs de Libelle misschien nog intressant kan zijn en dezelfde beveiliging als een transactieserver zou moeten hebben.

Windows zit amper in dit segment overigens. Linux wel, elke hobbiest of simpelle systeembeheerder kan een apache/mysql server vaak al opzetten. Punt is alleen opzetten onderhouden en beveiligen. Onderhouden en opzetten wil nog. De beveiliging is gewoon vaak mager.

Deze hobbymensen hebben vaak ook een baan ergens waar ze ook even een servertje opzetten of meerdere mensen die het beheren hebben vaak zelfs samen amper kaas gegeten van beveiliging. (Of ze moeten in het bankwezen gezeten hebben)

Zoals ik hiervoor al zei vroeger was dat niet erg. Vraag is: is dat tegenwoordig nog steeds zo?

Linux is voor servers gemaakt en kun je net zo veilig maken als je zelf wilt. Bij windows zijn daar helaas een aantal limitaties. Maar bij Linux/Unix zul je dat toch echt zelf moeten bijhouden en instellen/instaleren. Het is zelfs mogelijk om Root voor bepaalde acties volledig buiten te sluiten (iemand hackt de server heeft rootrechten maar kan alsnog niet alles)

Windows is voor Desktops meer gemaakt en later op servers gericht. Natuurlijk zijn er pakketten maar die zijn niet van MS zelf. Daarnaast ligt Linux daar ver op voor omdat het gewoon langer voor servers bestaat (met Unix samen dan)
Daarentegen is linux transparanter kwa netwerken, firewalls etc.. en helemaal uit te kleden is... En dat niet alleen linux is nog steeds groeiende en die trend zal altijd blijven..
Alles heeft zo zijn voor en nadelen..
Ik snap alleen nooit zo goed waarom... Wat is er nou toch de lol aan om dingen kapot te maken? Black hat hackers gaat het ook vaak om geld, maar ik zie niet echt hoe je geld kunt verdienen met deze hack. Het zal wel een verveelde puber zijn geweest.
Je kunt je beter afvragen of de hackers wel de software releases hadden kunnen aanpassen als je meer tijd hadden gehad.

In dit geval was er niets kapot gemaakt. En ze waren alleen ontdekt omdat zij een programma hadden geinstalleerd welke normaal niet op de kernel.org servers staat en dit programma gaf een foutmelding..

Er zijn heel erg veel developers welke veel vertrouwens hebben in de tarballs op kernel.org. Distributies zoals Gentoo halen hun sources bij de officiele punten. Aangepaste releases (het is niet per se nodig om de broncode in Git aan te passen) zouden bijvoorbeeld een aanloop kunnen vormen tot een nieuw botnet..

Het geld verdienen komt vaak veel later, maar in het verleden zijn botnets ook gebruikt om grote (Amerikaanse) systemen down te krijgen. Cyber warfare wordt een steeds serieuzere bedreiging. Iran wist via een hack SSL certificaten voor domeinen van o.a. Google te bemachtigen. China zit op dat vlak ook niet bepaald stil..
Als ik Gentoo installeer haal ik m'n kernel ook bij kernel.org, maar ik ga ervan uit wanneer er kwade code in de kernel staat de developers dit snel genoeg tegenkomen, dat is het voordeel van open source, er werken zo gigantisch veel bedrijven en mensen aan de Linux kernel dat er altijd wel iemand is die het ziet.
Er werken misschien wel veel mensen aan, maar er is ook gigantisch veel code, en veel van de ontwikkelaars zijn alleen maar bezig met een klein deel, het deel wat voor hen interessant is.
Er werken misschien wel veel mensen aan, maar er is ook gigantisch veel code, en veel van de ontwikkelaars zijn alleen maar bezig met een klein deel, het deel wat voor hen interessant is.
Daarom moet er ook voor elk stukje een beheerder zijn, ook al is het al lang uitontwikkeld en wordt het beschouwd als (praktisch) bugvrij. Veel pakketten worden om die reden verwijderd: er wordt niet meer aan ontwikkeld en dus is er niemand meer geïnteresseerd om het te beheren.
malware standaard met een installatie leveren kan veel geld opbrengen ;)
zorgen dat ze daarna veiliger worden??
Grootste onzin, als ze daadwerkelijk de beveiliging willen aanscherpen door een lek aan te tonen installeer je geen trojan, of steel je wachtwoorden. Lijkt er gewoon op dat ze erop uit waren iets anders te doen met malware, wat exact blijft vooralsnog de vraag.
Sta je dan met je veilige linux, en maar klagen over Windows :D
Software, of het nou Windows, Linux, Closed of Open source is, is allemaal even vatbaar voor lekken en misbruik ervan..
Niet 100% mee eens. Het aantal rootkits en zo voor Linux is significant kleiner dan voor Windows (komt ook door populariteit van het OS).
Enig idee waar de term rootkit vandaan komt? *NIX en BSD systemen hadden er al last van voor Windows überhaupt bestond.
Enig idee waar de term rootkit vandaan komt? *NIX en BSD systemen hadden er al last van voor Windows überhaupt bestond.
De eerste echt in the wild virus kwam van Apple Macintosh .. wel even je bronnen checken en onderbouwen met feiten
Ik zou juist willen beweren dat degenen met de rootkit op hun systeem, waar in het artikel over gesproken wordt, wel windows gebruikers geweest zullen zijn. Dat is net zulke ongefundeerde onzin als billy met z'n fipo, maar zit waarschijnlijk dichter bij de waarheid dan wat hij post...
Het aantal rootkits dat bekend is voor linux, of bekendheid krijgt in de media, is significant kleiner dan voor Windows.

Dat klopt volgens mij beter. 1000en linux machines worden gehacked, maar niemand die er rukbaarheid aan geeft, dus dat schetst inderdaad een erg scheef beeld :)

Ik denk dat het in percentages niet veel scheelt. Natuurlijk met het grote marktaandeel van Windows lijkt dat anders.

[Reactie gewijzigd door BillyBee op 4 oktober 2011 12:47]

Er is nooit beweerd dat Linux totaal geen kwetsbaar heden heeft, echter omdat het nog steeds minder gebruikt word dan Windows is het nog steeds relatief veilig. Voornamelijk het aantal virussen/rootkits dat bestaat voor linux is vele malen kleiner dan dat van Windows.

Om nu alles meteen over 1 kant te scheren wat betrefd veiligheid gaat ook te ver in mijn beleving.
Krijgen we dat fabeltje weer. Linux is niet veiliger omdat het minder gebruikt wordt, Linux is veiliger door de architectuur van het gehele systeem. Hell, Linux wordt zelfs meer gebruikt dan Windows. De enige markt waar Windows nog een meerderheid heeft is de desktop markt, en zelfs daar is het marktaandeel aan het krimpen.

Daarnaast werk je in Linux niet standaard als admin, maar slechts als gebruiker en virussen en dergelijke die binnen komen op een user account komen dan ook niet verder dan de rechten van de gebruiker waar ze op binnen gekomen zijn, tenzij de gebruiker zo achterlijk is om maar overal zijn sudo of root wachtwoord in te voeren.
Linux is niet veiliger omdat het minder gebruikt wordt
..
Hell, Linux wordt zelfs meer gebruikt dan Windows
Wat een onzin.
Een systeem is inherent veiliger als het minder gebruikt is en bij Windows en Linux is dat ZEKER zo.
Ik zeg hierbij niks over of Linux veiliger is dan Windows of andersom als systeem, maar Windows heeft simpelweg een grotere 'attack surface'. een globaal grotere.

Binnen netwerkomgevingen die exposure naar buiten hebben kiest men zelf met opzet voor onbekendere (en uiteraard veilige) systemen om de attacksurface te verkleinen. Denk aan embedded systemen (binnen hardware netwerk totaal oplossingen, die best een Linux smaak kunnen hebben) of OpenBSD bijvoorbeeld.
Dat zijn bekende tactieken voor beheerders, hoe kan jij nou met droge ogen beweren dat een systeem niet veiliger is als het minder gebruikt is??

Daarbij.....
Denk jij werkelijk dat het aantal nodes verbonden met het internet met besturingssysteem GNU/Linux hoger is dan met Windows? echt??
Er is maar 1 tak waar Linux echt goedbevolkt is (en terecht) en dat is de webhosting markt. Get your facts straight: De desktop en server wereld is nog steeds een windows wereld en de markt die MS aan het verliezen is, is vooral op de mobiele markt ten gunste van Apple en Android. Op de desktop EN servermarkt is MS nog steeds verreweg het grootst en ook al heeft de hostingmarkt GNU/Linux helemaal gevonden (en BSD voor een deel), grosso modo is dat een klein percentage op het totaal aantal servers wereldwijd.
Daarnaast werk je in Linux niet standaard als admin
Onder windows ook niet. Ooit van "runas" en UAC gehoord?

Wat mij betreft vertel jij hier fabeltjes.

[Reactie gewijzigd door lenny_z op 4 oktober 2011 14:52]

Daarbij.....
Denk jij werkelijk dat het aantal nodes verbonden met het internet met besturingssysteem GNU/Linux hoger is dan met Windows? echt??
Er is maar 1 tak waar Linux echt goedbevolkt is (en terecht) en dat is de webhosting markt. Get your facts straight: De desktop en server wereld is nog steeds een windows wereld en de markt die MS aan het verliezen is, is vooral op de mobiele markt ten gunste van Apple en Android. Op de desktop EN servermarkt is MS nog steeds verreweg het grootst en ook al heeft de hostingmarkt GNU/Linux helemaal gevonden (en BSD voor een deel), grosso modo is dat een klein percentage op het totaal aantal servers wereldwijd.
En wat dacht je van de routers die bij veel particulieren en bedrijven staan, steeds meer daarvan draaien op Linux, soms op een xBSD-variant.
NAS-systemen gebruiken ook steeds vaker Linux (naast FreeNAS en andere xBSD-achtigen).
Printservers (Sitecom LN-308, LN-309, WL-203, Dymo) draaien vaak op Linux.

Zo zijn er zeker nog meer voorbeelden te vinden.
Onder windows ook niet. Ooit van "runas" en UAC gehoord?
Klopt, meestal hoef je niet als sysadmin te werken, echter UAC is een veel te kleine drempel voor de gebruiker die toch die screensaver, ... wilt proberen.
Het is altijd al aangeraden om op Windows met een normale gebruikersaccount te werken, net als met Linux. Lees de best practices maar eens.
Het is dus simpelweg de gebruiker die er voor kiest om onveilig te werken als 'root' / 'administrator'.

En laat nou sinds Vista ook UAC ingebouwd en standaard aan staan, eigen ala linux sudo...

[Reactie gewijzigd door BillyBee op 4 oktober 2011 12:22]

En dan zetten mensen dat (UAC) weer uit omdat het zo lastig is.

Beveiliging werkt alleen als gebruikers ook bereid zijn enige extra moeite te doen.
Het is niet eens zo lastig, maar meer irritant. Als er een "sudo" nodig is, bevriest je systeem voor twee seconden voordat de overlay en het schermpje zichtbaar zijn. Wanneer je op "ok" klikt bevriest je systeem weer een seconde. En dat is heel irritant, en veel beter geïmplementeerd op ubuntu en (vermoed ik) andere linux distro's.
Het 'bevriezen' dat jij beschrijft (wat overigens al nauwelijks merkbaar is op een snelle machine, dit terzijde) is een functionaliteit genaamd secure desktop. Schakel je deze uit, krijg je alleen maar een toestemmingsprompt. De secure desktop is een extra beveiligingsmechanisme, vergelijkbaar met CTRL+ALT+DEL. "It's nog a bug, it's a feature."

Overigens kun je UAC in Windows 7 veel fijner instellen dan alleen "yes and we continue to our doom", zoals sommigen denken. Standaard stel ik het zo in dat ook om daadwerkelijke credentials wordt gevraagd. Daar komt bij dat in Windows 7 standaard systeemwijzigingen losgekoppeld zijn van het uitvoeren van (potentieel) gevaarlijke applicaties van derden, waarvoor het aantal verzoeken (standaard) geheel acceptabel is.

De implementaties van UAC in Vista zijn inderdaad niet op z'n best, als je ziet wat er nu mogelijk is. Maar ik zie Vista dan ook meer als een test case. Microsoft leert ook nog. Simpelweg omdat ze een groot bedrijf zijn, weten ze ook niet alles op voorhand. Vista had veel vernieuwingen, en UAC was er daar een van. Dat het niet meteen op en top functioneerde, "tja". Dat gebeurt nu eenmaal. Ook bij andere besturingssystemen.

Echter. Er zijn helaas nog steeds allerlei 'experts' op internet die roepen dat UAC onzin is, en je het uit moet schakelen. Dat was voor Vista al niet het geval, en zeker niet voor Windows 7. Ongeplande installatie van virusmeuk vang je er sowieso mee af, en als de gebruiker een beetje bewust omgaat met zijn systeem helemaal. Het is niet voor niets dat een groot deel van de geïnfecteerde pc's UAC uit heeft staan.

Verder heeft UAC te maken met een misverstand. UAC is primair niet ontworpen als middel om programma's met minder rechten te laten draaien (en virussen af te vangen), maar om gebruikers niet als administrator te laten werken en een gebruiksvriendelijke elevation aan te bieden. Een concept op hoger niveau dus zogezegd. De optie "Uitvoeren als...", die al in Windows 2000 (en volgens mij zelfs NT 4) aanwezig was, had nu eenmaal zijn beperkingen. Zeker als het aankwam op systeemwijzigingen. Gebruikers waren zo gewend dat ze standaard alles kunnen, dat zonder een systeem als UAC een wijziging in de mindset van de gebruiksgemeenschap nooit enige kans van slagen zou hebben gehad.

Met UAC kan Microsoft er daadwerkelijk voor kiezen om gebruikers standaard GEEN administrator te laten zijn, en ze pas om rechtenverhoging te laten vragen wanneer het benodigd is. Wanneer zo'n grote omslag wordt ingevoerd in een groot systeem als Windows, vind ik het niet meer dan logisch dat daar enkele tijd aan fine tuning overheen is gegaan.

[Reactie gewijzigd door Eagle Creek op 4 oktober 2011 13:37]

zoals ik het me herinner krijg je eerst een melding/vraag of je het programma wilt uitvoeren, dan of je het wil laten installeren en daarna waarschijnlijk nog of het op internet mag...
3x EXTRA klikken om bijvoorbeeld skype te installeren gaat veel gebruikers te ver!
Het 'bevriezen' dat jij beschrijft (wat overigens al nauwelijks merkbaar is op een snelle machine, dit terzijde) is een functionaliteit genaamd secure desktop.
De gemiddelde thuisgebruiker heeft een budget-machine met een Celeron (of zelfs een Atom) en dan is dat bevriezen inderdaad al snel twee seconden, ik ben al systemen tegen gekomen waar het meer als een minuut was (geworden).

Het grote probleem is juist dat men in NT de juiste onderschijd heeft ingebouwd tussen de administrator (, de gebruiker) en de beperkte gebruiker maar dat men dat bij XP weer heeft verzwakt, iedere gebruiker die aangemaakt wordt, zeker die bij het installeren, is een gepriviligeerde gebruiker, een administrator, en moet dus apart op 'beperkte gebruiker' gezet worden. Hierdoor konden programma's dus van de administrator-rechten gebruik blijven maken, en hoefde de maker het niet aan te passen.

Alleen als de gebruiker/beheerder de de gebruikers-accounts op beperkte gebruiker had gezet was dat niet het geval en gezien de problemen die je jezelf daarmee op de hals haalde liet de thuisgebruiker dat wel uit het hoofd, enkel in zakelijke omgevingen waar men via het domein (policy's) en domein-administrator dingen kan reguleren (terwijl policy-templates de admin van een domeinloze PC snel buiten kunnen sluiten).

Daar komt nog bij dat het gebruikersaccounts-configuratiescherm in XP vereist dat er naast de administrator ook minimaal één gebruikers-account de rechten heeft van administrator. (Via de oude beheer-app, Systeembeheer/Computerbeheer is dat niet vereist, maar er is geen thuisgebruiker die daar weet van heeft. ) Ook dat is niet bevorderlijk.

Ook in Vista en Win7 is de standaardgebruiker een Administrator (al heeft hij daarvoor UAC nodig) al is het echte Administrator-account geblokkeerd buiten de safe mode (waarin je veel software niet kunt installeren), het vereisen van uitloggen en als admin inloggen voor dergelijke taken is veel effectiever, zowel tegen malware, als tegen ondoordacht als admin werken.
Lastig, omdat ze op het knopje moeten drukken?

UAC is niks lastigs aan. Je krijgt een popup met de vraag of het programma dat om rechten vraagt, daadwerkelijk uitgevoerd moet worden.
Verandering wordt meestal ervaren als vervelend, we doen er graag alles aan om het allemaal terug te krijgen zoals we het gewend zijn enz :)
Mogelijk dat dat een rol speelt bij het "UAC is lastig" gevoel :)
Het is dus simpelweg de gebruiker die er voor kiest om onveilig te werken als 'root' / 'administrator'.
En die f***** programmeurs die hun applicaties alleen laten werken als ze schrijfrechten hebben in hun eigen applicatie folder...
Zelfs de programmatuur dat geschreven in in de tijd dat al bekend was dat XP vervangen zou worden door Vista, wilde dat nog.

Zelfs "onderwijs programmatuur" (waarvan de makers dus verdomd goed weten in wat voor situatie / omgeving de programmatuur moet werken hadden dat nog niet (allemaal) aangepast.

Lekker hoor met 1500 clients.... :(
Dat vangt Microsoft af met virtual folder redirection. Wanneer er schrijfrechten te weinig zijn in gedeelde directory's, worden de bestanden 'doorgesluist' naar de persoonlijke directory's.

Dat is hetzelfde systeem als dat Microsoft gebruikt bij de niet meer bestaande C:\Documents and Settings-map. Dit is een virtuele NTFS-link naar C:\Users.

Het is inderdaad aan de huidige programmeurs om ervoor te zorgen dat dit afvangen niet meer nodig is, en applicaties de 'regels' volgen.

[Reactie gewijzigd door Eagle Creek op 4 oktober 2011 13:57]

Dat vangt Microsoft af met virtual folder redirection. Wanneer er schrijfrechten te weinig zijn in gedeelde directory's, worden de bestanden 'doorgesluist' naar de persoonlijke directory's.
Helaas werkt dat niet bij alle programma's even goed. Sommige vragen toch (via UAC) die rechten en weigeren anders dienst.
Dat is hetzelfde systeem als dat Microsoft gebruikt bij de niet meer bestaande C:\Documents and Settings-map. Dit is een virtuele NTFS-link naar C:\Users.
Dat is beter, mischien moesten ze dat ook maar doen met Program Files en Program Data. Geen onnodige spaties in het path is zowiezo beter, MinGW, Lazarus, FreePascal, TotalCommander e.d. kunnen er niet mee overweg.
Het is inderdaad aan de huidige programmeurs om ervoor te zorgen dat dit afvangen niet meer nodig is, en applicaties de 'regels' volgen.
Vertel dat maar aan de maker van mijn Windows 98/2000/XP-compatible games (en dan heb ik het nog helemaal niet over mijn favoriet, Civilisation 2 dat dateert uit het 3.11-tijdperk).
En laat nou het ontwerp van NT veel fijnmaziger zijn als dat van Linux en Unix. Geen van beiden zijn inherent veilig of onveilig en het grootste risico zijn bugs en exploits en gebruikers.
Maar het programma geeft niet aan *welke* rechten en waarvoor.
Als en programma update moet ie toegang hebben tot zijn program files, maar daar is maar 1 optie voor: admin password; en dan kan ie overal bij.

Maar dit is voor wat ik van Linux gezien (2 of 3 VM distro's) heb niet anders; ook daar vraagt de repository update maar om 1 passwordm, en dan kun je alle programma's onbeperkt updaten - en ook dan wordk je gek van elke keer PW invoeren.

En ook dan kunnen programma s de PC slopen, alleen heeft linux geen restore point. (stont ten misnte niet in de quick guide )
Daarnaast werk je in Linux niet standaard als admin, maar slechts als gebruiker en virussen en dergelijke die binnen komen op een user account komen dan ook niet verder dan de rechten van de gebruiker waar ze op binnen gekomen zijn, tenzij de gebruiker zo achterlijk is om maar overal zijn sudo of root wachtwoord in te voeren
Volgens eerdere berichten werd er bij deze hack juist een privilege escalatie lek in Linux misbruikt.
Als het goed werkt uiteraard ;)

Een lek in je Kernel is natuurlijk wat anders dan een lek in de browser dat daarmee het hele systeem kan worden overgenomen omdat ze onder de zelfde gebruiker worden uitgevoerd.

Tot Windows Vista (of je moest in een Windows domein werken) draaide elke gebruiker als Administrator!

Bij Unix systemen waaronder Linux heeft iedereen een eigen account en worden bepaalde services als een database server onder een eigen dedicated-account gedraaid welke ALLEEN die rechten bied onder die zelfde gebruiker/groep, en dan ook nog alleen als de rechten van de map/het bestand dit zelf toestaan.

Hiermee los je het grootste gevaar op, namelijk teveel rechten.
Waarom zou een normale gebruiker kernel32.dll mogen kunnen verwijderen...

De bedenkers van Unix hadden dit al vanaf het begin geïmplementeerd!
Nog voor het internet echt populair was of zelfs maar bestond.

Het werd gebruikt voor netwerken, waarmee je toch een risico hebt.
Niet zo groot als met internet van vandaag de dag, maar wel groot.


Microsoft opricht Bill Gates vond dit allemaal 'overdreven' en wilden een systeem maken dat simpel was en voor iedereen bruikbaar. Helaas werd veiligheid hierbij naar de achtergrond geschoven.
Niet heel gek als je erover nadenkt, het internet was er toen vrijwel nog niet (voor de thuisgebruiker), alleen Windows NT welke in netwerken werd gebruikt had deze beveiliging.

Maar toen het internet wel begon door te breken begon de ellende, één lek programma dat verbinding maakt het internet kan je hele computer infecteren! :o

Unix en dus ook Linux hebben hier minder last van, omdat de software alleen bij jouw eigen bestanden kan! Tenzij er een lek in de Kernel zelf zit, maar dat is een ander verhaal.

Microsoft heeft uiteindelijk dit probleem wel aangepakt in Windows Vista, maar was toen eigenlijk al te laat. En als mensen eenmaal iets gewent zijn komen ze daar niet zo snel meer vanaf.
Tot Windows Vista (of je moest in een Windows domein werken) draaide elke gebruiker als Administrator!
Klinkklare onzin. In alle Windows NT varianten, (dus ook Win2000 en XP) kun je gewoon als normale 'user' werken. Veel gebruikers kozen er voor om als administrator te werken, (deels uit luiheid, en deels omdat ze dat zo gewend waren in Win9x, Win3.x en DOS) en veel slechtgeschreven software ging daar klakkeloos van uit. Maar dat is dus een gebruikers probleem, en niet een fout in de WinNT architectuur. Valt dus onder dezelfde categorie als in Linux altijd met je root account te werken. Ik had mijn studenten al gewoon met 'user' rechten werken op Win2000.

Alleen in Win9x en vroeger waren er geen security rights. En dat was helemaal niet zo raar, aangezien netwerken alleen bij bedrijven waren, en internet nog nauwelijks bestond. Voor een persoonlijke computer, was er nauwelijks behoefte aan een dergelijke security systeem.
Ik heb het even nagezocht. Omdat we het toch over varianten hebben van "altijd al geweest", heb ik gekeken naar Windows XP dat toch wel een hele grote speler was op de desktop besturingssystemen.

Tijdens de installatie van Windows XP moet het administrator wachtwoord ingesteld worden. Vervolgens kunnen een aantal usernames opgegeven worden. Als ik me niet vergis kregen die standaard administrator rechten.

Zie dit screenshot: link

Om het oude gevoel weer eens te herleven (voor sommigen): is dit een leuke link

Verder zit de (on)veiligheid van Linux t.o.v. Windows op een heel ander gebied. Ik denk dat het feit dat de linux kernel open-source is het grootste verschil is. Iedereen kan/mag erin kijken én iedereen mag verbeteringen voorstellen.

De community (en daarmee ook de security) achter het product steekt heel anders in elkaar. (Let op: ánders. Dat betekent niet altijd beter en ook niet altijd slechter).

[Reactie gewijzigd door EnigmA-X op 4 oktober 2011 15:50]

Veel gebruikers kozen er voor om als administrator te werken, (deels uit luiheid, en deels omdat ze dat zo gewend waren in Win9x, Win3.x en DOS)
Ja en een groot gedeelte van dit verschil komt voort uit het feit dat su gewoon doet wat het moet doen en dat runas zelfs op de dag van vandaag vaak nog steeds niet doet wat het hoort te doen. Het was (en in sommige gevallen is) dus hopeloos kut om iets met privileges te starten onder je user account waardoor je steeds moest af-/aanmelden. Dit is inherent aan het ontwerp van windows en (wellicht met name) veel van de software die er op draait.
De gebruiker van het systeem is achterlijk, daar moet het systeem rekening mee houden, niet de gebruiker.
Err zullen we er in hetzelfde kader ook maar allemaal rekening mee gaan houden dat die bijna 17 miljoen andere nederlanders achterlijk zijn? Het is alleen zo vervelend om met zoveel mensen rekening te moeten houden...

Voor je auto heb je ook een rijbewijs nodig. Nou wil ik niemand computer toegang ontzeggen (in tegendeel), maar je moet niet lopen zaniken als je iets sloopt door incompetentie. Je auto dealer repareert je auto ook niet gratis als je lomp genoeg bent hem door een pui ergens naar binnen te rijden.
[...]
Veel gebruikers kozen er voor om als administrator te werken, (deels uit luiheid, en deels omdat ze dat zo gewend waren in Win9x, Win3.x en DOS) en veel slechtgeschreven software ging daar klakkeloos van uit. Maar dat is dus een gebruikers probleem, en niet een fout in de WinNT architectuur. Valt dus onder dezelfde categorie als in Linux altijd met je root account te werken. Ik had mijn studenten al gewoon met 'user' rechten werken op Win2000.
Het is dus een fout van de gebruiker dat Windows na de installatie bij het instellen van de gebruikersaccounts NIET vraagt naar het userlevel van de account, maar gewoon klakkeloos aanneemt dat de account maar administrator moet zijn?

Want dat is namelijk hoe het bij een installatie van Windows werkt. De gebruikersaccounts die je daar aanmaakt zijn standaard Administrator en niet User.

De gebruiker van het systeem is achterlijk, daar moet het systeem rekening mee houden, niet de gebruiker.
Nee, dat is niet het geval. Alleen de eerste account is automatisch administrator, wat ook redelijk logisch is. Linux kent ook altijd een root of administrator account als je root disabled, ik zie daar weinig verschil.

[Reactie gewijzigd door Tijger op 4 oktober 2011 14:02]

Het verschil is dat je bij linux standaard ofwel 2 accounts aanmaakt(een user en een root account), ofwel een account met sudo rechten, die enkel via het invoeren van een passwoord geactiveerd kunnen worden. Bij windows is je eerste gebruiker admin, en heb je als administrator standaard geen passwoord nodig om iets te installeren, je moet alleen maar op enter drukken... ook nu nog!
Windows na de installatie bij het instellen van de gebruikersaccounts NIET vraagt naar het userlevel van de account, maar gewoon klakkeloos aanneemt dat de account maar administrator moet zijn?
Ik ken genoeg linux-distributies die na installatie niks meer dan een root account hebben, en waarbij de gebruiker zelf een user account aan zal moeten maken.
Vroeger ja... maar dat was niet omdat ze er vanuit gingen dat je als root wilde werken, zoals op windows, maar omdat ze gemaakt waren voor de gevorderde gebruiker, die het redelijk vanzelfsprekend vond om zelf z'n account aan te maken met alle opties die hij zelf wil. Tegenwoordig heeft iedere installatie gewoon op z'n minst een simpele prompt voor een username. Behalve als je dingen al LFS draait natuurlijk.
Vroeger ja
Arch, Gentoo en OpenElec, dat zijn er al drie waarvan ik weet dat er geen useraccount aangemaakt wordt na installatie naast het root account.
(OpenElec maakt het helemaal bont, daarbij kun je het root password niet veranderen zonder de boel zelf te her-compileren)
Klopt niet. Ik zou zeggen doe een her-install en let eens goed op .....
kunnen is anders dan doen.. 99% van de windows gebruikers waren administrator omdat anders programma's niet werken.. O-)
en het ergste is dat 99% van de gebruikers niet eens weten wat administrator is of gewone gebruiker...

[Reactie gewijzigd door demilord op 5 oktober 2011 13:30]

Als je software niet werkt zonder administrator rechten dan MOET je helaas wel met die rechten werken (er zijn wel trucks maar die zijn erg omslachtig).

Software ontworpen voor Windows 9x is er daar één van, maar ook veel software MET Windows XP-logo er op doet het niet zonder admin-rechten. Veel software installeerde zich ook alleen in het profiel van de installerende gebruiker zodat andere gebruikers het ook niet konden draaien, maar ook als je na het installeren je rechten verlaagt gaan veel programma's zeuren. Ook veel Games horen daar bij.

Onder Linux e.d. zijn de applicaties wel geschreven met beperkte rechten in ogenschouw.

In die zin is UAC ook slecht, je moet als limited gebruiker niet te gemakkelijk (dus met een klik op Ja) over kunnen schakelen naar Admin-rights, ook al heeft het scherm een waarschuwingskleur. Helaas is dat in Windows nog wel mogelijk.
Typisch dat een onzin berichtje zo omhoog gemod is.

Windows NT (dat oorspronkelijk een nieuwe versie van OS/2 zou worden) is nooit bedoeld om alleen maar "simpel en voor iedereen bruikbaar" te zijn.

Vanaf de allereerste versie (NTFS bestandsysteem) werd er al onderscheid gemaakt tussen administrators, power users en users. En nee, een user kon echt niet bij de systeembestanden.

Misschien kan je de tijd die het kost te 'spammen' beter gebruiken om jezelf wat te informeren over de architectuur en geschiedenis van blijkbaar niet je favoriete OS.

Dat gebruikers van Linux meestal meer kennis van eea hebben dan de standaard PC gebruiker helpt ongetwijfeld met een veiligere instellingen/gebruik.
Er is een groot verschil tussen Operating System en File System. Het is waar dat NTFS voorzieningen heeft om ACL's (Access Control Lists) te gebruiken, maar het is nog steeds de taak van het OS om die regels op te leggen. Ik herinner me nog dat ik op Windows 2000/XP machtigingen op een bestand verkeerd had gezet, met Windows zelf niet op te lossen, maar met een of ander recoveryprogramma had ik wel toegang tot de bestanden. Zoiets zal je op een Unix veel minder snel tegenkomen omdat je daar niet aan de schijf geraakt zonder toestemming.

Om maar te zeggen: Windows is van oorsprong een single-user-omgeving geweest waar security amper tot niet aan de orde was, men heeft daarop voortgebouwd en backwards compatibility willen behouden (een mes dat langs twee kanten snijdt) en pas nadien een sausje van beveiliging erover gegoten met de bekende gevolgen. Nu, met Vista (en ik geloof ook al met XP SP3) hadden ze een een stap in de goede richting gezet, maar ik moet toegeven dat UAC niet mijn favoriet is. Bij Linux is dat net andersom: dat is een afkooksel van Unix en dus van in het begin multi-user met de bijhorende veiligheidsaspecten. Windows zit tegenwoordig ook op multi-user, maar de bijhorende geschiedenis laat zich wel voelen.

NT is zoals je aangeeft geen thuis-OS zoals de 9x-lijn van toendertijd, maar bij XP hebben ze toch de blunder gemaakt om accounts standarard admin te maken. Als je die screenshots bekijkt, staat het daar ook verdoken: "maak hier nieuwe accounts aan, wil je privileges afnemen, ga dan nadien naar het control panel", dus gebruikers stonden standaard als admin.

Er zijn inderdaad Linux-distro's die hetzelfde doen, maar het staat dan ook duidelijk in de handleiding of installatiegids beschreven dat het gevaarlijk is. Bij Windows krijg je al jaren geen handleiding meer bij. Bovendien houden alle beginnerdistro's je aan het handje om dergelijke fouten niet te maken: een domme gebruiker krijgt op die manier nog steeds veiligheid in tegenstelling tot Windows.
Ik ben het gedeeltelijk met je eens. Ja het heeft vooral met de architectuur te maken, maar ook zeker wel met marktaandeel.
De virussen en malware van tegenwoordig zijn veelal helemaal niet meer geschreven door een stel script kiddies. In vele landen zitten hier hele business modellen omheen. Het gaat hier om miljarden euro's aan crimineel geld die er jaarlijks mee worden verdiend.
Deze criminele organisaties hebben het veelal toch wel op Windows gemunt aangezien dat nog altijd de grootste desktop markt is en daar dus ook het meeste geld bij valt te halen.

[Reactie gewijzigd door ro8in op 4 oktober 2011 13:22]

Over fabeltjes gesproken...

Welke specifiek deel van de archtitectuur van Linux mag dan veiliger zijn dan Windows? Noem eens een voorbeeld...

Neehoor, de architectuur van Linux en Windows zit qua veiligheid gelijk in elkaar.
Het is al door vele anderen opgemekt. Ook Windows NT had een account systeem, wat zelfs uitgebreider was (middels acl's) dan Linux file systemen, Overigens verschijnen daar ook filesystems die dat ondersteunen.

M.i. klopt het ook niet dat NT (en zijn opvolgers,XP en, Vista en 7) een slechte architectuur heeft. Het is ontworpen en gebouwd door David Cutler en zijn team wat ook VMS ontworpen heeft. Dit alles valt gewoon na te lezen in 'Inside Windows NT' van Helen Custer. Neemt niet weg dat NT in zijn begin jaren veel te maken had met instabiliteiten. Dit omdat er veel bugs inzaten waar Microsoft ook niet adequaat op reageerde.

Tegenwoordig zou ik 'bloat' het grootste nadeel van de NT familie beschouwen. Om Windows 7 te draaien heb je minimaal 1GB nodig en dan heb je alleen nog een os, zonder applicaties.

Daar scoort Linux vele malen beter in. Performance is heel belangrijk voor server omgevingen. Verder is het ook flexibeler. Je hebt vele desktops tot je beschikking. Als je een beetje kennis van zaken heb kan je een Linux systeem volledig tweaken. Linux heeft ook de reputatie stabieler te zijn. Omdat het open source is kan iedereen naar de code kijken en eventueel patches indienen. Dat neemt niet weg dat zelfs als de code open is, er nog bugs in kunnen zitten. En zelfs een bug arm systeem kan nog verkeerd gebruikt worden. Misschien lag het wel aan de admin van kernel.org die wat deuren open heeft laten staan...
Tja, dit soort problemen kunnen overal voorkomen, 't siert de Linux-community dat ze dit gelijk naar buiten brengen.

Hier wordt gesproken over 'n 7 stappenplan, om te checken of code niet besmet is.
Mee eens, erg netjes van ze.
Jeetje wat is da een irritante site, in een text van 5 regels staan 7 inline reclame berichten :( En een link naar de relevante info staat er weer niet bij ....

Waar staan die 7 stappen dan?
Wat je zegt klopt voor geen meter. Voor het grootste deel hangt het er maar net van af waar een machine voor gebruikt wordt en hoe en of deze is aangesloten op het internet. Aangezien Linux distributies vaak specifieke en verschillende oplossingen bieden (zo zijn er veel verschillende programma's voor dezelfde functie, sommige veiliger dan anderen) zijn deze in de regel vele malen veiliger dan het generieke Windows.

Uiteraard geldt voor alle systemen dat je up-to-date moet blijven met (security) patches en updates.
Natuurlijk hangt het van vanalles en nog wat af.
Maar men schetst altijd het beeld also Linux per definitie altijd veiliger is, en ik vind dat onzin :)
Lezen is een kunst. De Linux code is niet geschonden. En zelfs als dat zo was, hadden ze gewoon de aanpassingen terug kunnen draaien. Het is immers open source en zit in een versiebeheertool.

Je komt over als zo'n windowsgebruiker die ook wel weet dat je op een systeem zit waar nog bugs uit de jaren 90 in zitten, maar om een of andere reden niet over wil of kan stappen, en daarom naar redenen zoekt om het goed te praten :+

[edit:] @billy: wat je zegt slaat nog steeds nergens op. Er is geen server gehackt. Er zijn vervelende dingen gedaan vanaf het systeem van iemand die toegang had tot de server.
Als jij zelf toegang hebt tot een server, maar een rootkit op je systeem, waarmee iemand had wachtwoord achterhaald, waar zit dan precies het lek in het serversysteem?
Iemand heeft z'n desktop niet op orde, meer was er niet aan de hand.
"Het zal wel weer zo'n windows gebruiker geweest zijn", om in jouw nutteloze flamewar te blijven...

[Reactie gewijzigd door kozue op 4 oktober 2011 12:31]

Lezen is inderdaad een kunst, ik schrijf nergens dat de linux code geschonden is.

Al wat ik zeg is dat alle software eigenlijk net zo lek is, of het nou Windows, Linux, of wat dan ook is.
Het is deze keer geen Windows server die gehacked is of wel?

Die recente certificate authority hacks zijn vast ook geen Windows servers, om maar een voorbeeld te noemen.

@kozue; Ik maak er toch wat anders uit op:
> Hackers kregen eind augustus op ten minste één server van Kernel.org root-toegang
"root-toegang", tot tenminste een server van Kernel.org

De repository committers/pushers hebben echt geen root toegang hoor :)

[Reactie gewijzigd door BillyBee op 4 oktober 2011 12:41]

het voordeel van open source is dat iedereen de code kan bekijken. Velen doen dat ook, velen zoeken naar bugs en fixen die dan. Bij mickeysoft is dat aantal vele malen minder, waardoor de kans dat fouten over het hoofd gezien worden, sterk verminderd.

Dat, plus de architectuur van linux, maakt dat linux over het algemeen gezien kan worden als een veiliger systeem dan windows
Als we Microsoft moeten geloven wordt sinds Vista ook alles op een veilige manier in elkaar gezet.

We leven niet meer 10-20 jaar geleden, vooruitgang wordt niet alleen geboekt bij Linux en friends :)

Verder mee eens dat open-source zeker voordelen bied.
Alleen 'dat iedereen het kan inzien en bugs kan rapporteren' voegt op zichzelf weinig toe,
Je zult ook mensen met de kennis, wil en tijd moeten hebben die het daadwerkelijk doen.
Dat percentage is veel lager dan de eigenlijke gebruikers :)

En zoals hieronder beschreven; het wordt ook andersom gebruikt; om de bugs te exploiteren.

[Reactie gewijzigd door BillyBee op 4 oktober 2011 12:35]

Het gebruik van termen als Mickeysoft geeft aan dat je redelijk biased bent in je argumentatie.

Jou argument werkt natuurlijk ook twee kanten uit, iedereen kan inderdaad fouten zoeken, maar niet iedereen doet dat met de intentie om ze te fixen. Het kan even goed gebeuren dat de exploites die tegenwoordig vele malen vaker opduiken voortkomen uit het zoeken van zwakheden in de code zelf. Je kunt er precies zien hoe het werkt, dus ook hoe je het makkelijkste er misbruik van maakt.

Als een bug gepubliceerd word zonder oplossing is het nog erger. Je hoeft niet eens zelf te zoeken, maar gewoon de bugtracker te volgen.

Linux heeft inderdaad een goed security mechanisme, maar dat maakt het kwalitatief niet per definitie beter als dat van Microsoft.
windows 1.0 en tot aan 98/ME is een geheel andere kernel en opzet dan de versies vanaf NT 3.5 en NT 4 verder.
Je bent dus erg slecht geinformeeerd en zit vol vooroordelen.
De NT kernel is gewoon vrolijk gebaseerd op de DOS kernel. Zit zelfs nog backwards compatability in.

Waar denk je dat trouwens de meeste veiligheidsproblemen in Windows vandaan komen? Niet doordat MS probeert het tegenwoordig veilig te maken, maar juist doordat ze zo achterlijk zijn om maar vrolijk aan te blijven kloten met die backwards compatability. Kom op, in Win 7 kan ik nog altijd een onveilige dos applicatie uit 1990 draaien. Dat is toch van de zotte dat zoiets kan 8)7
Nt was gebaseerd op os/2, niet op DOS. dat is een hele andere tak en was laatst gebruikt in windows ME
De NT kernel is niet gebaseerd op DOS. NT is van de grond af opnieuw gebouwd. DOS applicaties konden op NT draaien via een protected susbsysteem, maar dit was niet 100% compatible. Direct hardware toegang vanuit dos applicaties werd geweigerd.

Voor meer informatie, zie het boek 'Inside Windows NT'.
De lekken zijn inmiddels gedicht en Kernel.org is weer online.
Hier is de site nog steeds offline anders. Best irritant gezien ik LFS gebruik en ik nu regelmatig op zoek moet naar up-to-date mirrors.

[ontopic]
Ik vraag me af welk nut deze hacks gehad hebben. Ik snap dat ze er misschien op uit waren malafide code in de Linux Kernel te krijgen, maar of deze hacks puur waren om Linux "zwart" te maken of zouden ze er commercieel gewin mee voor ogen gehad hebben?
[/ontopic]

edit:

Na CTRL+F5 (refresh) is de site nog steeds offline....

[Reactie gewijzigd door LollieStick op 4 oktober 2011 12:15]

Bij mij is kernel.org online.
Het nut van een hack? Over het algemeen gaat het gewoon om geld. Alles draait om botnets. Als jij het voorelkaar krijgt om een backdoor in de kernel te proppen is het gewoon wachten tot iemand die kernel installeert en je hebt er weer een botje bij. Gezien linux over het algemeen op servers wordt gebruikt hangen die dingen ook aan dikke verbindingen waar je heeeeeel veel spam doorheen kunt sturen.
SPAM... hmm never thought about that.

Je hebt natuurlijk wel gelijk en ik denk dat al die code eenmaal in de kernel terecht was gekomen en het niet zo snel opgemerkt was, de schade wel eens enorm zou kunnen zijn. De kans was aanwezig geweest dat de betreffende malafide kernel in diverse distro's terecht was gekomen. Veel bedrijven staan er niet om bekend, met het oog op mogelijke complicaties, om hun software meteen te patchen zodra er patches beschikbaar zijn.

Linux wordt ook veel gebruikt op servers van banken, ISPs en ook steeds meer in het MKB voor bepaalde taken.

[Reactie gewijzigd door LollieStick op 5 oktober 2011 10:21]

Openprinting.org is op moment van schrijven ook nog steed offline.
Niet alleen erg vervelend voor ontwikkelaars, ook als je gebruik maakt(e) van de wiki's op kernel.org heb je veel last van de gevolgen van deze kraak.

De Linux RAID wiki op raid.wiki.kernel.org is al dagen volledig onbereikbaar en Google cache is op dat punt ook erg weinig behulpzaam. De pagina's staan er vast ergens in Google serveert vooral de Wiki metapagina's en niet de interessante content.

Het lijkt erop dat er van specifiek deze wiki geen mirrors zijn en daardoor ben ik nu al dagen verstoken van goed gecategoriseerde informatie over RAID op linuxsystemen. Manuals van o.a. mdadm zijn ook prima, maar geven een ander soort informatie (andere insteek vooral) met minder referenties en tips.
Erg vervelende situatie voor iedereen die meent dat Linux baas boven baas is op het gebied van virussen.
Er zijn dan ook helemaal geen virussen in het spel... (zelfs op Windows zijn virussen zo goed als uitgestorven tegenwoordig...)

Het gaat om iemand's account (wachtwoord of sleutel om in te loggen) die in handen gekomen is van een onbevoegde.
The kernel.org administrators have shown themselves to be careful and capable people over many years. It seems like they’ve had some sleepless nights, with the prospect of quite a few more to come. It will be necessary to rebuild the kernel.org infrastructure and to figure out how the attacker got in. The integrity of those systems was lost; restoring it and protecting it into the future will take a considerable amount of work. But people running Linux need not worry about the integrity of their kernels; that is protected by defenses stronger than those of any single computer.
Dit is een stuk uit een artikel op Linux Foundation (kernel.org verwijst er ook naar). Hierin staat toch echt dat ze uit moeten zoeken hoe de binnendringer binnen is gekomen. Daaruit concludeer ik dat ze het dus nog niet precies weten. Het kan natuurlijk net zo goed te maken hebben met een kwetsbare SSH- of FTP-server. Als je eenmaal binnen bent, kan je alles naar je eigen hand aanpassen.

[Reactie gewijzigd door LollieStick op 5 oktober 2011 10:33]

@BillyBee
Tja al deze systemen zijn niet met veiligheid als eerste kenmerk ontwikkeld... dan moet je uitwijken naar andere systemen.
edit: als reactie op BillyBee

[Reactie gewijzigd door air2 op 4 oktober 2011 12:05]

De Linux source tree is wel degelijk veilig opgezet. Echter blijft de mens altijd de zwakste schakel. Ergens in de keten moet vertrouwen zitten op bepaalde personen, en die personen kunnen nog zo goed hun werk doen, maar als ze op een gehackt systeem werken met een rootkit ofzo, heb je daar niet zo veel aan.
Jammer dat kernel.org zo lang offline was. Wilde laatst de broncode van de Linuxkernel downloaden maar kon bijna nergens terecht en na wat zoeken kwam ik bij een Github mirror uit. Dat ze gehacked zijn oké, maar dat hun website zo lang offline is geweest... (inmiddels weer up trouwens).

Vond achteraf dat de informatievoorziening terwijl de website down was een behoorlijk stuk beter kon. De hoofdpagina op www.kernel.org liet niet veel meer zien dan "down for maintenance".

[Reactie gewijzigd door Magnetra op 4 oktober 2011 13:25]

Het mooie van git is juist dat je niet afhankelijk ben van 1 site. Of je nu van GitHub of kernel.erg kloont maakt echt niks uit.
Ben je een how-to aan het volgen, kom je ineens een scriptje tegen dat op kernel.org staat. Na wat zoeken vind je dan toch de versie op github. Downloaden, starten en direct error omdat het scriptje ook weer naar kernel.org gaat.

In theorie heb je gelijk, git op zich is niet locatie afhankelijk, het is zelfs een distributed systeem. Maar wanneer je een hoop documentatie en geautomatiseerde processen hebt die er van afhangen is het down zijn wel een redelijk probleem.
Exact. En is dat -denk je- omdat jij en nog 10 mensen BeOS gebruiken (ik overdrijf even) of omdat BeOS zo verschrikkelijk veilig is?
Laat ik het zo zeggen: BeOS is waarschijnlijk veilig. Maar heeft tevens geen serieuze exposure om te testen hoe veilig.
Daarom is het wel een veilige keus als gebruiker. Er is geen malware-maker of cracker in geïnteresseerd. Het aantal gebruikers/systemen is zo laag dat het ook niet loont om er gaten in te gaan zoeken. Zelfs als je die vindt, moet je ook nog de systemen vinden waar het op draait (nu verraad ik mezelf dus al een beetje) en dan moet
- het systeem voldoende krachtig zijn om de gemaakte malware te draaien (BeOS heeft niet veel nodig, aan een botnet met Pentium II's heb je denk ik niet veel)
- er bij die gebruikers nog iets te halen zijn (credit-card gegevens e.d.) maar een gebruiker van BeOS hoeft niet veel te besteden aan zijn software.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True