Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 138 reacties

De community die actief aan de Linux-kernel meewerkt, blijft gestaag groeien. De codebase is in een jaar tijd met 2,7 miljoen regels gegroeid en gemiddeld accepteert de Linux Foundation 5,45 patches per uur, zo blijkt uit een rapport.

Het rapport is opgesteld door de Linux Foundation en geeft inzicht in de manier waarop de Linux-kernelcommunity zich ontwikkelt. Uit het rapport blijkt onder meer dat het aantal ontwikkelaars dat code aan de kernelreleases bijdraagt, sinds 2008 met zo'n 10 procent is gegroeid tot ongeveer duizend. De code telt inmiddels meer dan 11,5 miljoen regels code, waarvan bijna een derde het afgelopen jaar is toegevoegd, aldus de organisatie.

Redacteur Tux druk aan het werkDe toename van de ontwikkelactiviteiten kan volgens de Linux Foundation voor een deel worden toegeschreven aan de eveneens toegenomen vraag naar Linux, onder meer door de opkomst van netbooks. Wat ook bijdraagt is de toevoeging van de zogenoemde linux-next tree. Deze tree, die sinds december beschikbaar is, maakt het mogelijk om unstable drivers in de kernel op te nemen, wat de snelheid van het ontwikkelproces als geheel bevordert.

In het rapport geeft de Foundation ook inzicht in de mate van betrokkenheid van bedrijven bij de ontwikkeling van de kernel. Ongeveer 70 procent van de code is afkomstig van bedrijven, waarvan er volgens de organisatie gemiddeld tweehonderd aan een kernelrelease bijdragen. Red Hat levert met 12 procent van de codebijdragen het grootste aandeel, gevolgd door IBM en Novell met ieder 7,6 procent en Intel met 5,3 procent.

Moderatie-faq Wijzig weergave

Reacties (138)

Het wordt gebracht alsof het positief is dat de codebase zo groeit. Maar is het juist niet veel aantrekkelijker om de kernel zo compact mogelijk te houden, liever minder dan meer regels code? Van meer code wordt het niet sneller (met uitzondering van acceleratie die ge´mplementeerd wordt). Ik moet tegenwoordig moeite doen om een distributie te vinden die nog op een pentium 1 draait zonder in een dikke stroop te veranderen.
Mooie gesproken, jaren geleden kon je linux nog op een 1,44 mb schijfje kwijt, en had je een volledig besturingssyteem met nog een tekstverwerkertje erbij ook.

Nu heb je toch al weer een aardige pc nodig om de boel normaal te kunnen draaien.

En als er 5,45 patches per uur worden gemaakt, dan weet je meteen het nadeel van veel regels aan code.

De mens maakt fouten en hoe meer je hebt aan materiaal, de meer fouten er in sluipen.

Desalniettemin, Linux-distro's als Ubuntu en consorten zijn een goed alternatief voor MS Windows.

(en dat hoor je nu wel van een verstokte windowsfanaat, zoals je ziet maakt deze mens ook weleens Vouten).
Mooie gesproken, jaren geleden kon je linux nog op een 1,44 mb schijfje kwijt, en had je een volledig besturingssyteem met nog een tekstverwerkertje erbij ook.
Dat kan nu ook nog met de nieuwste linux kernel.
En als er 5,45 patches per uur worden gemaakt, dan weet je meteen het nadeel van veel regels aan code.
Alle veranderingen aan de code worden 'patches' genoemd. Zowel nieuwe code als fixes voor bugs. Dit wil dus hellemaal niets zeggen over de kwaliteit of het aantal bugs.
Nou daar ben ik het niet mee eens, wat de linux distrubuties tegenwoordig zo "groot" maakt komt voornamelijk door KDE/GNOME en alle overige apps.

De Linux Kernel kan zelfs op chips draaien met enkele kilobytes ram geheugen. Volgens mij snappen veel mensen nog niet helemaal het verschil tussen een linux distributie en de Linux Kernel.

En die 5,45 patches per uur komen waarschijnlijk doordat veel chip fabrikanten nu ook drivers voor linux schrijven. Intel bijvoorbeeld heeft onlangs een flinke stack geschreven voor de kernel om Wimax te ondersteunen.
Mooie gesproken, jaren geleden kon je linux nog op een 1,44 mb schijfje kwijt, en had je een volledig besturingssyteem met nog een tekstverwerkertje erbij ook.
Tja en had die tekstverwerker ooit gehoord van bijvoorbeeld WYSIWYG of grammaticacontrole? En dat besturingssysteem had zeker ook al support voor hot-plug hardware, HD video acceleratie en RAID/LVM?
Je kan de kernel zelf compilen met de modules die jij nodig hebt. Verder kan je modules dynamisch laden die je nodig hebt, waardoor het net zo snel blijft. Linux kan je prima icm elke cpu draaien, je moet alleen de kernel zo lightweight mogelijk maken (zoals voor smartphones ook gebeurt).
het grote nadeel aan linux is dan wel weer dat nagenoeg elk pakket op een ander pakket gebouwd is, of nodig heeft voor een correcte werking. Iets wat in windows eigenlijk nauwelijks het geval is. Zo nu en dan wordt er eens gevraagd naar een .net framework, maar daar blijft het dan ook bij, terwijl je voor een programma waarmee je tv kunt kijken vanaf je tv kaart wel 5 andere pakketten nodig hebt. Al die dependencies worden wel (semi) automagisch binnengehengeld, maar ik blijf het een complex proces vinden. Waarom niet al het spul wat je nodig hebt, in het programma mee inbegrepen sturen? (of teminste, de pakketten die eigenlijk niet in een standaard distro van linux te vinden zijn), zo heb je geen gezeur met versienummers en hoeft het installatieprogramma ook geen extra pakketten te halen.
Waarom niet al het spul wat je nodig hebt, in het programma mee inbegrepen sturen? (of teminste, de pakketten die eigenlijk niet in een standaard distro van linux te vinden zijn), zo heb je geen gezeur met versienummers en hoeft het installatieprogramma ook geen extra pakketten te halen.
Dat is het hele concept van shared libraries! Krijgt lib-ssl een (security) update dan profiteren alle programma's die het gebruiken er automatisch ook van.
Bovendien beperk je het geheugengebruik aanzienlijk. Denk aan een libjpeg die wordt geladen door 10 applicaties: dat is toch alweer een besparing van 90% op geheugengebruik voor die library t.o.v. 10 individuele geladen libjpegs.
Tuurlijk heb je dan wel eens dat een nieuwe lib een beetje problemen kan geven op een programma die de API niet geheel goed gebruikte of dat er iets anders misgaat, maar daarvoor zijn freezes uitgevonden, zodat je binnen je distro release op dezelfde versies blijft.

[Reactie gewijzigd door gertvdijk op 20 augustus 2009 14:41]

Je mist het punt. Windows heeft ook die shared libraries (DLLs). Maar omdat diskspace zo ongeveer gratis is, worden die meteen vanaf je installatie DVD in je C:\Windows\System32 gekopieerd. Linux installeert in eerste instantie sneller, want minder. Vervolgens moet je bij elke applicatieupdate dependencies checken en eventueel alsnog missende of verouderde shared libraries installeren.
Ja, en van die shared libraries waren altijd verschillende versies waarop dus niet gecheckt werd zodat de DLL-hell ontstond. Pas bij XP is die een klein beetje onder controle gekomen.

Bij Vista en Win7 heeft men zelfs WinSxS ge´ntroduceerd omdat teveel applicaties afhankelijk zijn van de XP en oudere versies van die dll's en loopt het qua disk-space waste helemaal uit de klauwen. In plaats van een dependency-check heeft men ervoor gekozen om gewoon alles te installeren, ongeacht of het nodig is of niet.

Omdat al die dll's van 10 jaar en langer geleden er nog dus weer in zitten en exploits kunnen bevatten, moet je dat dan weer op een andere manier afdekken. Daarom zijn Vista en Win7 ook zo traag en verbruiken ze zoveel geheugen.
Mischien heb ik het hier nu fout, maar zo zie ik dat.

Het is juist dit soort instelling: "tegenwoordig is er disk-space, intern geheugen genoeg" Dat ervoor zorgt dat alle software steeds zwaarder en langzamer word. Een PC uit 2007 met Vista en Office 2007 is langzamer als een PC uit 2003 met Windows XP en Office 2003/XP, en die is weer langzamer als een PC uit 2000 met Windows 2000 en Office 2000. Gewoon omdat alles veel te veel bloated is geworden.
Het kan 10% meer maar heeft een 200% krachtigere hardware nodig omdat de software 400% meer rommel bevat.

Nu hoef je geen datumvelden met 2 tekens meer te gebruiken zoals in Cobel vroeger (Milenniumbug), maar als je gewoon zuinig bent op geheugengebruik, cpu-kracht, gpu-kracht enzovoorts, kun je dezelfde functionaliteit bouwen en draait deze soepeler op alle hardware.

En Linux installeert mischien sneller omdat er minder niet shared libraries worden ge´nstalleerd, maar die zijn mischien ook niet nodig op het desbetreffende systeem. Zou men dat anders doen, dan zou als de gebruiker andere software installeert als voorzien, er mischien weer shared libraries verwijdert moeten worden omdat deze incompatible zijn met de te installeren software.

Door de dependency check wordt er dan ook pas verouderde shared libraries ge´nstalleerd als dat nodig is, nl als de gebruiker iets installeert dat die verouderde library nodig heeft. Vista en Win7 hebben in de WinSxS juist een hoop verouderde dlls staan die mischien (hopelijk) niet eens meer nodig zijn.

Daarbij, onnodig verbruikte disk-space zorgt dat de harde schijf langer aan het zoeken is (en als de gebruiker gaat zoeken nog meer)
Diskspace is niet gratis. Die komt snel genoeg vol met files van de gebruiker zelf.
Dan wordt die diskspace nuttig gebruikt. Als het OS onnodig veel disk-space gebruikt is dat per definitie niet nuttig.
"Vista en Win7 hebben in de WinSxS juist een hoop verouderde dlls staan die mischien (hopelijk) niet eens meer nodig zijn."

Mis! Vista wel, maar Windows 7 niet! Omdat men de snelheid van windows 7 wilde verbeteren, en de installatie lichter wilde maken, heeft men onder andere een aantal compatibiliteits-hacks weggenomen. En hiermee ook de verouderde dll's.

Wat men in de plaats heeft gedaan: Met heel veel tromgeroffel windows xp mode aankondigen, terwijl dit eigenlijk niets anders is als een vm die dankzij hun ietwat bijgewerkte virtual pc xp draait, waarbij het mogelijk werd om enkel de forms die actief waren weer te geven. (Iets wat virtualbox overigens ook uitstekend doet)
Je slaat het punt compleet mis.
De meeste Linux Distros hebben een centraal punt van uitgave.
Indien een Shared Library geupdate wordt. Wat impact heeft op andere applicaties.
Worden Alle applicaties opnieuw gecompileerd om gebruik te maken van de nieuwe (SO/DLL)
maar dit gebeurt nooit in een stable versie. (alleen voor security)

Linux gebruikt Zelden Oude SO's. Alleen bij oude en/of Niet distro code. en dan is meestal een simlink naar de nieuwe SO voldoende.

En daarbij wordt sinds de Linux Common Core de hoofdmoot van SO's mee genomen voor backwards comptabiliteit.

Windows Heeft Niets van dit alles. DLL HELL is niet niets de DLL hell.
Laat staan dat windows Dependenties heeft

edit: FF gegoogled maar Vista heeft nog steeds de DLL HELL feature
http://kevinminnick.blogs...a-outlook-2007-trial.html

en btw. Diskspace is niet het punt. Het gaat er om hoe veel DLL's er geladen worden her en der om het systeem draaient te krijgen.
DLL's zijn executables hoe meer van die zooi hoe meer er draait. hoe trager je systeem.

[Reactie gewijzigd door daft_dutch op 20 augustus 2009 16:17]

Windows heeft dynamic link libraries en geen shared libraries. Nog los van andere problemen: er bestaat geen concept van versiebeheer en daarmee is het compleet onverantwoord om dlls tussen applicaties te delen vanuit de systeem mappen.

Dit wordt ook niet gedaan behalve voor een paar dingen zoals directx (wat dan ook lelijk mis kan gaan). In de praktijk heeft elke applicatie eigen dlls in de programma map of is gecompileerd met static libraries.

Voor een overzicht van de problemen met dlls:
http://en.wikipedia.org/wiki/DLL_hell

[Reactie gewijzigd door Antipater op 20 augustus 2009 19:12]

De hoofdreden dat die afhankelijkheden er zijn, dat is dat men je niet iedere keer met een grote download op wil zadelen. Onder MS-Windows wordt in zo'n geval alles 2 of 3 keer meegeleverd (zonder dat je dat door hebt), maar onder een GNU/Linux OS is het netje modulair gemaakt.

Als je het met de software zelf gaat bundelen neemt de omvang van die software weer toe - iets dat dus megapaketten onder MS-Windows oplevert...

In theorie zou je op die manier alle code slechts 1 keer op je systeem hebben staan onder Linux (in de praktijk is dat helaas niet zo, maar men probeert 't wel zo te krijgen - zodat je niet honderden MiB's gaat verstoken ivm dezelfde code die niet gedeeld wordt)
Nou ik weet niet hoor, ik zat dat verhaal net te lezen, maar hoe is shader libraries anders dan DLL's in Windows, zelfde eigenschappen, maar 1x laden (on demand) en meerdere programma's kunnen het gebruiken, het is wel zo dat veel DLL's al meegeleverd worden bij Windows, en dat veel apps gewoon een eigen DLL mapje hebben.
het idee is hetzelfde inderdaad, maar je geeft het zelf al aan; het wordt niet gebruikt zoals ooit bedoeld.
@ roadrunner: Echt veruit het grootste deel van de code zit in de drivers, en meer kwalitatief goede drivers is "meer beter". Een uitzondering, dat wel, want over het algemeen bet ik het met je eens, maar in dit geval doet het geen afbreuk aan de kwaliteit van de kernel, integendeel.

@M2M: In windows moet elke devver z'n eigen bibliotheekje gaan onderhouden om iets gedaan te krijgen als de functionaliteit die ze zoeken niet in de win32/.net API zit. Wat dat betreft gaat het voordeel van modulariteit compleet verloren.

In Linux gelden natuurlijk dezelfde regels (ook hier moet je je eigen lib schrijven als je functionaliteit moet hebben die nog nergens te vinden is), alleen is het wel zo dat als een specifiek stukje functionaliteit steeds meer nodig blijkt te zijn, er uiteindelijk een standaard (maximaal 2-3 vanwege concurrerende projectjes) library die je dan gewoon kan gebruiken.
Ook zijn er t.o.v. Windows veel meer libs die gewoon bruikbaar zijn qua kwaliteit en licenties (mits je bereid bent je code open te stellen, anders wordt t iets lastiger), wat natuurlijk een voordeel is, en geen nadeel zoals jij impliceert.
Waarom niet al het spul wat je nodig hebt, in het programma mee inbegrepen sturen?
Daar zijn / waren initiatieven voor, zoals AutoPackage en Klik. Helaas hebben die nooit heel veel marktaandeel gekregen, omdat veel Linux-gebruikers / software (pakket)-managers vastgeroest zijn en prima tevreden met hun huidige software-management. Verder kunnen ze het helaas nooit eens worden of ze rpm, deb of tgz als basis willen gebruiken voor een eventueel meer gestandaardiseerd platform.

Tegenwoordig is er ook Linux Standard Base (3.0 is de nieuwste geloof ik), een standaard-basis die in alle Linux-distributies zit die aan LSB 3.0 voldoen.

Dus er is enige progressie, al gaat het inderdaad langzaam. Maar juist hier ook houd de Linux-foundation zich mee bezig!
Heb jij het even mis zeg. In Windows zijn programma's net zo op elkaar gebouwd en afhankelijk van bepaalde versie dll's etc als met linux.
Waarom zou je de moeite doen om iets op een P1 te latend draaien? Het kost meer tijd dan dat een hardware upgrade.
Nee, het draaide er al op, maar nu niet meer. Er is dus moeite gestopt in het onmogelijk maken ervan. En dat komt omdat er van allerlei modules zijn toegevoegd die noodzakelijk geacht werden. Natuurlijk kan linux aangepast worden zodat het op ieder platform draait, maar dat is niet het punt. Het punt is juist dat het voor desktop gebruik niet geschikt is zolang het zeer veel eisend is in
1) CPU kracht (als er meer dan 500MHZ nodig is is het veeleisend :P)
2) Linux kennis
Je kan vandaag zelfs niks meer kopen dat zo traag is. Waarom zou al de rest stilstaan voor jou omdat je het nodig hebt. We hebben je achter gelaten met een voorraad oude versies die je kan downloaden, laat de rest z'n gang gaan.
Waar haal jij het idee vandaan dat de rest eronder lijdt?
Hier sla je de plank ook volledig mis.
1)Linux is niet veeleisend er zijn moderne distributies die nog op een 486 draaien grafisch en al.
2)Linux kennis hoef je niet zozeer te hebben bij een voorgeconfigureerd systeem, zoals je bij een nieuwe pc aantreft.
Het klungelen met netwerken is onder linux net zo'n gedoe voor niet it'ers als datzelfde doen onder windows.
Mijn zoon speelt liever spellen onder linux dan windows bovendien doen niet alle windows spellen het uit de doos op zijn laptop wat erg irritant is. Alle linux spellen werken als een zonnetje oude en nieuwe ook dosbox gebruikt hij veel voor oude dos spelletjes onder linux.
Het is juist imo de omgekeerde wereld sinds Vista. Linux is veel gebruikers vriendelijker dan Windows.
Het punt is juist dat het voor desktop gebruik niet geschikt is zolang het zeer veel eisend is in
1) CPU kracht (als er meer dan 500MHZ nodig is is het veeleisend )
Dus windows is ook niet geschikt als desktop OS? Vista draai jij echt niet meer op een P1, bij Linux heb je nog mogelijkheden om de nieuwe versies volledig te strippen zodat ze werken op een P1, bij windows heb je die mogelijkheden al helemaal niet.
2) Linux kennis
Als je je leven lang Linux gebruikt kun je dat punt omdraaien...

Linux heb je echt niet meer kennis voor nodig dan Windows. het is alleen dat je (gedeeltelijk) andere kennis moet hebben omdat alles anders is (maar niet slechter, ik vind het zelfs beter)
Kom op zeg. Linux is alleen een kernel, of dat nog niet eens: een recept om een uiteenlopend assortiment van kernels te produceren.

Dat je nu met een standaard distro geen computer kan draaien die nog slapper is dan de gemiddelde telefoon is toch niet zo verwonderlijk? Er zijn wel zat distro's die dat wel kunnen, zoals Damn Small linux, Puppy linux of misschien Vector Linux, keuze zat. Ligt echt niet aan linux maar aan de features die de distro wil bieden.

Zelfs de kringloop hier accepteert trouwens niets dat trager is dan pentium 3.
Ik vind niet dat Linux teveel achteruit moet kijken. Ze moeten niet de buitensporige systeemvereisten beginnen gebruiken zoals die van Vista, maar een Pentium I ondersteunen vind ik nu ook niet meer nodig.
Het kost amper meer moeite, gewoon in i386,i486 of i586 compilen. Je wint er vrijwel niks mee denk ik.
Linux ondersteunt nog steeds zowel supercomputers als 'trage embedded meuk' zoals de "langzame" CPU's die gevonden worden in stoplichtunits, medische apparaten etc., dus de systeemvereisten kunnen alles zijn wat je zelf leuk vindt.
Het maakt toch niet uit, als er 500 miljoen regels code zitten die in de kernel gecompileerd kunnen worden? Als je een kleine kernel nodig hebt met slechts bepaalde ondersteuning, dan kun je deze zelf maken, of wellicht door iemand in de community laten maken als je het niet zelf kunt.

Een Pentium I is een computer uit 1994/1995, en dus al 15 jaar oud. Ik heb er al bijna 10 jaar geen meer in actief bedrijf gezien eigenlijk. (De oudste computer in mijn omgeving waar nog actief op wordt gewerkt is een Pentium III 550, met 512MB RAM en een 20GB HDD, onder Windows XP.) Ik vind het niet raar dat men met dergelijke oude systemen nog nauwelijks rekening houdt.
Dat jou distributie op een Pentium 1 traag draait heeft niets te maken met de kernel zelf, en al helemaal niet met het aantal lijnen code in de kernel. Distributies en de applicaties die daar in zitten (Gnome, KDE, OpenOffice) groeien mee met de hardware die beschikbaar is (waar geheugen is, is software).

Als je Linux toch op zo'n beperkt apparaat wilt draaien, moet je daar in je applicatiekeuze rekening mee houden. Dat kan je bijvoorbeeld zien bij producten als Android: de basis is een Linux kernel, maar Google zal het echt niet in hun hoofd halen Gnome te laten draaien op zo'n smartphone.

Het is opzich niet gek om je af te vragen of een grote hoeveelheid lijnen code eigenlijk wel goed is, maar dit heeft meer met security en 'onderhoudbaarheid' te maken dan met performance. Ik denk bovendien dat Linux zo'n enorme hoeveelheid code heeft omdat het gewoon een gruwelijke hoeveelheid randapparatuur en architecturen (x86, arm, mips) support.

En nogmaals, verwar een Linux niet met een distributie (Debian, Red Hat, Ubuntu). Dat zijn twee compleet verschillende zaken.

[Reactie gewijzigd door metaal op 20 augustus 2009 14:56]

Dat kan je bijvoorbeeld zien bij producten als Android: de basis is een Linux kernel, maar Google zal het echt niet in hun hoofd halen Gnome te laten draaien op zo'n smartphone.
Maar de gebruikers wel: http://www.androidfanatic...func=view&catid=9&id=1615
Het wordt gebracht alsof het positief is dat de codebase zo groeit. Maar is het juist niet veel aantrekkelijker om de kernel zo compact mogelijk te houden, liever minder dan meer regels code?
Dit is ook code voor _ALLE_ drivers die door een standaard kernel worden ondersteund. Het zecht weinig over de core, enkel over de populariteit.
De community die actief aan de Linux-kernel meewerkt, blijft gestaag groeien. De codebase is in een jaar tijd met 2,7 miljoen regels gegroeid en gemiddeld accepteert de Linux Foundation 5,45 patches per uur, zo blijkt uit een rapport.
Waarom klinkt het in mijn oren zo negatief... 5,45 patches per uur, juist omdat 130,8 patches per dag!!!!! Per week 915,6... Dus dat is heel erg... heel erg!

Ze zijn wel snel, maar haastige spoed is zelden goed ;)
Alsof de programmeurs geen tijd hebben voor een controle van goede werking van een patch.
Als je zo denkt dat een linux heleboel patches nodig heeft, maar het kan ook betekenen dat het niet zo stabiel draait???

Ik ben wel benieuwd naar de reacties van Microsoft...

Linux heeft 47.611,2 patches per jaar nodig !!!!!!!!! (52 weken)

[Reactie gewijzigd door Dark Angel 58 op 20 augustus 2009 14:51]

Als je het zo kort door be bocht bekijkt, dan lijkt dit inderdaad erg veel - maar als je verder dan wat kale statistieken gaat graven, dan kom je er dus achter dat een patch over het algemeen heel erg klein is, dit om er voor te zorgen dat deze goed gereviewed kan worden door de ontwikkelaars die verantwoordelijk zijn om de patch ook daadwerkelijk in de kernel tree op te nemen.
When preparing work for submission to the Linux kernel, developers break their changes down into small, individual units, called patches. These patches usually do only one thing to the source code; they are built on top of each other, modifying the source code by changing, adding, or removing lines of code. Each patch should, when applied, yield a kernel which still builds and works properly. This discipline forces kernel developers to break their changes down into small, logical pieces; as a result, each change can be reviewed for code quality and correctness.
Bron: http://www.linuxfoundatio...ations/whowriteslinux.pdf - blz 3

Het gevolg is wel dat er in verhouding erg veel patches nodig zijn om een grote wijziging door te voeren.

Het alternatief is om alles in een kleiner aantal patches - laten we zeggen 3 per week - te gooien en dan veel meer tijd te moeten besteden aan het reviewen en, wat erger is, het fixen van bugs die door de review gekomen zijn i.v.m. de omvang van de patch.

Verder moet je de term 'patch' niet zien als iets dan nodig is om een fout te repareren, alle wijzigingen worden als een patch toegepast op de kernel-broncode. (Eenzelfde fout maakt men ook wel eens als het om aantal bugs in Bugzilla.mozilla.org gaat per release van een Gecko/Firefox versie - een bug is in Bugzilla-termen niet meer dan een uitgangspunt voor een wijziging [en dat kan ook een bugfix zijn]).
Alsof de programmeurs geen tijd hebben voor een controle van goede werking van een patch.
Juist wel, alleen dat is alleen te doen als de patches klein zijn en daardoor neemt het aantal weer wel enorm toe...
Vraag is wel of het nog testbaar is.
1000 mutaties per week testen is een enorme belasting voor een testorganisatie.
Hoe het precies werkt weet ik niet, maar volgens mij is degene die de broncode incheckt (die de patch dus daadwerkelijk opneemt in het GIT VCS systeem) ook verantwoordelijk voor de stabiliteit van het resulterende product en zal hij dus zelf de code goed moeten reviewen en testen. Er zijn echter wel ruim 30 personen verantwoordelijk voor dit review-werk.

Vergeet verder niet dat een significant deel hardware-specifiek is en dus via een reeds afgesproken API loopt, dat hoeft allemaal niet meer getest te worden - alleen de wijzigingen op het kleine deelgebied.
Net zoals er veel ontwikkelaars zijn, zullen er ook veel testers zijn.

Door GIT is het makkelijker om veranderingen in isolatie te testen en pas te gaan mergen als de testen slagen. In wezen wordt dan in parallel getest.

Uiteindelijk ontkom je niet aan een integratie test, maar het is niet nodig om dat ook vijf keer per uur te doen.
Een patch is niet altijd een bugfix, bij de linux kernel wordt iedere weiziging aan de code een patch genoemt, evengoed documentatie aanpassingen of nieuwe code.
Ze zijn wel snel, maar haastige spoed is zelden goed ;)
Alsof de programmeurs geen tijd hebben voor een controle van goede werking van een patch.
Daar hebben de developers van Linux ook wel aan gedacht. Verdiep je eerst eens in dat soort zaken voor er iets over te roepen...

Linus over GIT: http://www.youtube.com/watch?v=4XpnKHJAok8
Daarom is de Linux-next tree dan ook in het leven geroepen...
Alsof de programmeurs geen tijd hebben voor een controle van goede werking van een patch.
dat doen ze juist wel, dus. Dat ze er zoveel per uur verwerken, betekend niet dat dat ook de loopduur van de patch in kwestie is. Het betekend dat er 5 per uur het hele proces hebben doorlopen, en goedgekeurd en opgeschoont in de kernel sourcetree belanden.
Het klinkt negatief omdat je een patch associeert met een bugfix, maar een patch is in het echt gewoon een gecontroleerde toevoeging / wijziging van een bestand, niets meer en niets minder. Alles gebeurt via patches.
Ik denk ook dat de ChromeOS komst een bijdrage hieraan zal gaan leveren.

Misschien eindelijk een goede tegenhanger voor ms Windows.

@hieronder:
Klopt, ik bedoelde een goede tegenhanger voor Windows, niet voor MS.

En ja, je kan bijna alles met linux, alleen als linux desktop meer marktaandeel krijgt zullen bedrijven een beginnen met het proteren van veel software en games! (zonder Wine)

[Reactie gewijzigd door ApexAlpha op 20 augustus 2009 14:29]

Linux is nu al een goede tegenhanger voor Windows. Alleen moet er nog aan de communicatie gewerkt worden naar het publiek. Je kan sowieso niet alles wat je op Windows kan maar dat werkt ook vice versa.
Dus afhankelijkheid wat je er mee wil doen is Linux zeker al volwaardig. Hebben gewoon geld en visie nodig om het eens de wereld in te kunnen pompen ipv altijd op liefdadigheid rekenen.
Ja Ŕn nee. Linux is een volwaardige tegenhanger van Windows wat betreft serveromgevingen, misschien dat het windows zelfs overstijgt. Maar voor de desktop is Linux gewoon nog niet volwassen genoeg, de interface blijft gammel aanvoelen (meer dan windows iig). Don't get me wrong, ik ben een groot voorstanden van opensource, POSIX en modulaire opbouw. Maar ik vind Linux nog niet de robuustheid bieden die windows of mac os hebben als het aan komt op desktop usage.
Hmmm, ik gebruik Ubuntu al 3 jaar, en ja, het is niet altijd even stabiel, maar elke keer als ik Windows moet gebruiken, kom ik, vaak al tijdens het opstarten, allerlei rare zaken tegen waar je vroeger als Windows gebruiker aan gewend was en je totaal negeerde.

Klein voorbeeld: Een venster dat "busy" is kun je niet minimalizeren, doe je "Show desktop" dan verwdijnt het in eerste instantie, maar komt weer terug zodra je iets anders doet. Verschrikkelijk irritant, en super onprofessioneel.
Andere kleine zaken die zeer basic zouden moeten zijn, zijn in windows na zoveel jaren niet aangepast:
- items binnen de taakbalk verslepen naar een andere locatie
- in de verkenner filteren op bestandsnaam
- twee vensters in de verkenner, voor sleur en pleur
- meerdere bureaubladen
- alle vensters kunnen herschalen
- altijd 'on top' knop op je venster (zelf evt toe te voegen)
- eind maken aan alle ongesorteerde iconen op het bureaublad

Dit zijn opties die het werken vergemakkelijken, en anders niemand in de weg zitten.

ps. ken de problemen niet die je noemt, gebruik je de standaard ubuntu?
Misschien ligt dat meer aan je instellingen dan aan het OS zelf?

Het enige punt wat mij tegenhoudt om op linux over te gaan zijn games. Ik kan Crysis niet spelen op linux zover ik weet en dan houdt t op voor mij.
Ja en Nee,
Ja het ligt aan de instellingen, Nee, zelfs een doorsnee tweaker kan die instellingen echt niet allemaal vinden.

Dual monitor setup met 2 verschillende resoluties..
In windows 3 klikken, in Linux moet je een config file editen tot je een ons weegt...
grappig. Mijn ervaring is precies andersom.
Gisteren nog gedaan in Ubuntu. Ik heb nu een 17"monitor samen met 23"monitor. Ik verbaasde me er over hoe makkelijk het ging. Ik kan me herinneren dat ik er vroeger in XP wel eens moeite mee heb gehad.
Ben je nu serieus een fonkelnieuwe Ubuntu aan het vergelijken met een OS uit 200??. Als je een vergelijking wilt maken, doe dat dan met de huidige versie: Vista of Windows 7 RC (RTM is nog niet publiek beschikbaar dus laat ik even bewust buiten beschouweing).

Linux is als OS misschien wel klaar voor de desktop. Natuurlijk kun je Gstreams of io-slaves buiten je code houden, maar dan ben je wat mij betreft niet meer aan een X applicatie aan het bouwen. Desktop development voor Linux is vergelijkbaar met development van websites 2 jaar geleden. Er zijn grote overeenkomsten, maar je bent continue hacks aan het toevoegen om het beste resultaat uit elke browser (X Omgeving) te krijgen.

Het grootste probleem van Linux voor bedrijfs desktops is het ontbreken van uniformiteit. Dat is helaas een gevolg van de grote keuze vrijheid. Nadat de FSF GPLv3 had uitgebracht om Novell deal met Microsoft dwars te zitten heeft er ook voor gezorgt dat bedrijven minder snel Linux overwegen.

Exact en AccountView hebben juist vanwege dat conflict besloten nog een paar jaar geen Linux versie uit te brengen omdat men Linux niet stabiel heeft bevonden. Daarnaast helpt de ruzie tussen Alan Cox en Linux natuurlijk ook niet echt.

Er is helaas niet te veel onenigheid onder Linux developers en dat maakt dat commerciele bedrijven Linux niet zo snel oppakken. Het wordt tijd dat de Linux foundation een leidende rol opeist en development actief gaat aansturen. Ook moet de Linux Foundation een aanspreekpunt voor bedrijven worden en bedrijven eventueel doorstuurt naar gespecialiseerde consultancy bedrijven.
Het grootste probleem van Linux voor bedrijfs desktops is het ontbreken van uniformiteit. Dat is helaas een gevolg van de grote keuze vrijheid. Nadat de FSF GPLv3 had uitgebracht om Novell deal met Microsoft dwars te zitten heeft er ook voor gezorgt dat bedrijven minder snel Linux overwegen.
De derde versie van de GPL stond al veel langer op stapen en heeft helemaal niets te maken met de deal tussen Novell en Microsoft - hoe dat je dar bij komt is mij een raadsel, maar goed...

Ik denk zelf overigens dat het allergrootste probleem van Linux op de bedrijfsdesktop de enorme afhankelijkheid van de bedrijven t.o.v. MS(-Windows) technieken is. Het grootste probleem dat men moet overwinnen is de Win32-API en dat is geen gemakkelijke barriŔre, en op het gebied van websites waren er veel-te-veel afhankelijkheden naar een specifieke versie van IE (namelijk versie 6), iets dat nu IE7+ uit is voor die bedrijven ook onder MS-windows problemen oplevert overigens.
Exact en AccountView hebben juist vanwege dat conflict besloten nog een paar jaar geen Linux versie uit te brengen omdat men Linux niet stabiel heeft bevonden.
Niet dat ik ze het recht ontzeg om gen versie voor Linux uit te brengen, mar volgens mij is de afhankelijkheid van de bedrijven op MS-only technieken een grotere reden dan de stabiliteit van Linux...
Exact en AccountView hebben juist vanwege dat conflict besloten nog een paar jaar geen Linux versie uit te brengen omdat men Linux niet stabiel heeft bevonden.
Wanneer zij vinden dat Linux niet stabiel is, dan ben ik wel eens benieuwd wat de definitie is van "stabiel" is. Vele bedrijven kiezen juist voor Linux omdat het zo stabiel is. En dan heb ik het niet over de slager op de hoek...

Vergeet niet dat Exact een echt MS-only bedrijf is, ze hebben geen enkele kennis in huis van andere platformen. Het is dan lastig om "even" een ander platform te gaan ondersteunen, daar gaan jaren over heen, ze moeten een compleet nieuw product bouwen.

Daarnaast is Exact nogal anti-open source, ze zouden zichzelf helemaal voor gek zetten wanneer ze dan toch open source gaan ondersteunen. Of niet dan?
Wanneer zij vinden dat Linux niet stabiel is, dan ben ik wel eens benieuwd wat de definitie is van "stabiel" is. Vele bedrijven kiezen juist voor Linux omdat het zo stabiel is.
Ik denk dat hij met "stabiel" doelt op de versie c.q. distributie.

Windows is stabiel qua versie. Als er wordt gezegd dat een pakket "Minimaal XP SP2 of Vista SP1" nodig heeft, dan weet je dat het op XP SP2 en SP3 en Vista SP1 en SP2 zal werken. Als een pakket "Linux" nodig heeft, dan zou het wel eens goed kunnen zijn dat je veel uitzoekwerk hebt. Zelfs als je zegt "Ubuntu 8.x of hoger" is niet genoeg, want niet elke Ubuntu-installatie is hetzelfde.

En "Debian 4 of hoger met KDE 3.5.x of hoger en...." is niet echt handig als systeemeis. Ik vraag me af hoe het met die Linux Standard Base gesteld is, waar alle distributies zich aan zouden moeten (gaan?) houden
En "Debian 4 of hoger met KDE 3.5.x of hoger en...." is niet echt handig als systeemeis. Ik vraag me af hoe het met die Linux Standard Base gesteld is, waar alle distributies zich aan zouden moeten (gaan?) houden
Waarom is dat op linux ineens niet handig? Datzelfde geneuzel heb je toch ook op windows? "Minimale vereisten: Windows SP SP2, IE6, DirectX 9.0", van dat soort dingen.
waarschijnlijk bedoelt ie dat de API niet stabieel is. maw. Exact wil een closed source applicatie maken, als dan je GUI. Kernel, whatever steeds dingen aanpast waardoor hun applicatie niet meer werkt zijn ze constant nieuwe versies aan het bouwen.

Verder zou ik niet weten waarom open source ondersteunen zo raar is? Als daar een markt is.....
Weet niet hoeveel er van waar is, maar exact is jaren lang 16b geweest. Erg merkbaar aan bijv. brakke printer ondersteuning (moest een lpt poort aan een netwerkprinter koppelen bijv) en draaien onder ntvdm.

Ze waren er wel jaren mee bezig en heb me laten vertellen dat er uiteindelijk een horde MS programmeurs langs is geweest om ze te helpen e.e.a. op orde te krijgen. Moet zeggen dat globe dan wel erg aardig is alhoewel het me ontgaat waarom het iets van 30.000 jpg/png en html bestanden nodig heeft. Kunt de installatie niet eens doen op FAT vanwege teveel bestanden in 1 dir (nou ja het kan wel maar dan laten ze een hoop plaatjes achterwege met de melding dat niet alles eruit zal zien zoals verwacht...).
In deze context slaat de vergelijking wel ergens op. Het gaat er namelijk om of linux bruikbaar is als desktop omgeving en dan is het wel logisch om naar xp te kijken. Veel mensen draaien XP en prefereren dat boven vista.

Het gaat er ook niet om wat nou echt het beste is, maar of het adequaat is.

Bedrijven overwegen geen linux omdat het ofwel niet commercieel interessant is voor de markt waar zij in opereren, ofwel omdat ze er niets van snappen (zoals in het geval van Exact ;)).

Oja, Red Hat staat in de top 500 van dure bedrijven...
Tja als je iets van vandaag met iets van 8 jaar oud gaat vergelijken mag ik inderdaad aannemen dat het met het nieuwste van de 2 makkelijker gaat (in dit geval ubuntu)...

Thuis heb ik xp op me laptop en daar gaat het met 4 muisklikken. Op me werk heb ik vista werkt het ook helemaal perfect mee (zelfs als ik schermen verwissel met nieuwe)... En dan nog op me PC thuis ook 2 schermen op Windows 7 en ook daar werkt het allemaal binnen enkele muisklikken.
En recente versie van Ubuntu? Of eentje uit hetzelfde jaar als XP uitkwam? Anders is de vergelijking niet helemaal eerlijk
XP SP3 is recent. Vista is recent. Win7 is nog niet eens uit, maar het was mij niet gelukt om een presentatie scherm op te zetten waarbij de achtergrond van het presentatiescherm zwart is.

Het is een groot nadeel dat bij Linux veel dingen vaak moeizaam zijn op te zetten, maar bij Windows gaat het vaak helemaal niet. (er is wel een windows proggie dat per monitor een achtergrond moet kunnen instellen, maar dat werkte bij mij voor zowel XP als Win7 niet)
En recente versie van Ubuntu? Of eentje uit hetzelfde jaar als XP uitkwam? Anders is de vergelijking niet helemaal eerlijk
Het gaat niet om eerlijke vergelijkingen. Het is geen wedstrijdje.. Het gaat erom om aan te geven dat twee monitors in een moderne Linux-distro vrij eenvoudig te configureren zijn.

[Reactie gewijzigd door klaastq op 20 augustus 2009 23:53]

Xorg wordt wel hard verbeterd en RandR krijgt steeds meer support. Ik moet echter toegeven dat Xorg nog een aardige weg te gaan heeft.

Daarnaast is audio op windows ook vaak beter geregeld. De nieuwste realtek drivers kunnen vaak per poort ingesteld worden terwijl het met alsa vaak nog lastig is om surround goed werkend te krijgen.

Note: ik draai alleen maar Linux (thuis Gentoo, werk ubuntu@desktop, debian+centos@servers). Verder ben ik een groot voorstander van Linux, maar ik erken wel dat het tekortkomingen heeft.

edit: url gefixed

[Reactie gewijzigd door webkiller71 op 20 augustus 2009 15:16]

offtopic:
Als je OSS v4 neemt, dat een tijdje geleden terug open source is gegaan kan je ook terug kiezen welke plug wat doet in linux.


Straks toch eens zien of ik die Linux-next kan testen, lijkt me wel tof :).

Ik ben alsook een grote voorstander van Linux op de desktop en server, maar de tijd dat ik iedereen probeerde te overhalen van hetzelfde te doen ligt lang achter me.

De meeste mensen zijn namelijk niet bezig met het doorspuwen van config files e.d..
Zelfs in ubuntu is dat soms nog nodig. (Al ben ik fervente Gentoo aanhanger sinds een dik aantal jaren :), +4j ondertussen)

Wat ook wel wat devs gelokt heeft is ubuntu over het algemeen. Vooral bij applicaties als Wine. Wine is tov een jaar of 2 echt verbeterd.

Het niet kunnen gamen ligt trouwens (zoals al veel gezegd) niet aan Linux, maar aan de game devs. Een beetje het kip&ei probleem, maar er zijn al wat devs die ook aan Linux denken hoor, bekendste voorbeeld is id denk ik zo.
Vooral indie games als bv world of goo hebben vaak een Linux port die niet onderdoet voor die van windows.
Veel van dat soort problemen liggen niet aan linux. Het ligt aan het gebrek van informatie over de chipset/instructies van de fabrikant. Ze moeten vaak alles maar reverse-engineeren. In windows worden de drivers door de fabrikant zelf geschreven, nogal een verschil.

X-fi is een mooi voorbeeld. Creative heeft jarenlang geweigerd om ook maar enige informatie vrij te geven om zelfs het basis gebeuren maar werkend te krijgen. Uiteindelijk hebben ze nu een redelijk werkende basis! driver in OSS vrijgegeven, maar dit zal merendeels door druk van klanten komen dan dat ze het zelf wouden. Oorspronkelijk was een closed-source driver belooft alla nvidia heeft die ook nog eens jaren na de beloofde datum werdt vrijgegeven (en dan ook nog lomp in 64bit only (= toch meestal poweruser) welke alleen met gcc 3 (zijn allang bij 4 dus = absoluut geen power user) gecompiled kon worden).

Ze hebben nu iets basis werkends vrij gegeven blijkbaar in de hoop dat de community er wat mee doet, maar de beloofde openal functionaliteit voor 3d audio bijv. is nog steeds ver te zoeken (lees compleet niet aanwezig).

Denk ook dat linux niet klaar is voor de desktop en dat heeft maar 1 reden. Gebrek aan ondersteuning van andere partijen en daarbij denk ik met name aan o.a. administratieve pakketten (unit4, exact, davilix, accountview en meer van dat soort spul) en spelletjes voor eindgebruikers. Bijna al het andere is te doen.
Surround zou ik niet weten, dat gebruik ik niet. Maar mijn geluidskaart (Creative Audigy) heeft 3 uitgangen, die ik gewoon, out-of-the-box-zonder-configureren, los kan aansturen. (1 naar m'n ene versterker, 1 naar de andere, en 1 voor m'n koptelefoon).
Dual monitor setup met 2 verschillende resoluties..
In windows 3 klikken, in Linux moet je een config file editen tot je een ons weegt...
Misschien is je informatie verouderd.
Er zijn distro' die hebben daarvoor gewoon een wizard-achtig iets, net zo makkelijk als jij beschrijft, enkele muiskliks. Dit weet ik uit eigen ervaring. Compleet met hardware/monitor herkenning, zie hier een instructie-filmpje.
http://www.youtube.com/watch?v=u2BChf3f24o

Hier zie je 6 monitors draaiend:
http://www.youtube.com/watch?v=_p3X7CdE2oc
Oh, ik hoef net als windows alleen nvidia x server settings aan te klikken om dit te kunnen. Config file editen is dus met nividia videokaarten niet nodig (al lang niet meer).
nividia-settings
Display Configuration
Configure
TwinView
Kies de gewenste resoluties
Save

Met een ATI kaart zal het wel wat lastiger zijn, maar NVidia heeft gewoon uitstekende ondersteuning.
Mee eens wat betreft de desktop. Vanuit estetisch oogpunt blijven de verschillende distro's naar mijn idee toch echt achter. De een meer dan de ander weliswaar, maar ik ben nog geen distro tegengekomen waarbij ik hetzelfde gevoel van kwaliteit kreeg als bij een windows vista, windows 7 of mac os. Het zit hem naar mijn idee met name in de consistentie. Het zou goed zijn als er een club ontwerpers zou opstaan/worden ingevlogen die onder leiding van goede art direction het hele pakket op elkaar aanpast en zo een mooi GUI maakt: panels (ik ben een gnome gebruiker), iconen, controles en decorations, fonts.

Veel eindgebruikers zullen dit onder linux toch net even teveel van het goede vinden, als ze al zin hebben om gnomelook etc volledig uit te spitten. Beter direct goed, out of the box.

Ja, ja... over smaak valt niet te twisten.
sorry, maar de uniformiteit in vista en windows 7 is compleet belabberd. Vergelijk de top apps is met elkaar:
- msn
- windows media player
- explorer
- internet explorer
- office

alles zit op een andere plek. Dat jij hier aan gewend bent zegt nog niet dat een ander OS die dingen op een andere plek heeft zitten niet uniform zou zijn, vista en windows 7 zijn dat nl ook niet.
Zoals DLGandalf al zegt kan je Windows geen uniformiteit verwijten, dat is echt een allegaartje van bijeengeraapte meuk.

mac os ken ik niet en gnome vind ik suf, maar KDE 4.2 is echt schitterend, veel mooier en consistenter dan windows.

YMMV.
@Hydrodioaxyde: Heb je Linux Mint wel eens bekeken en/of geprobeerd? Dat is een mooi gepolijste distro met nagenoeg alles out of te box, inclusief codecs.
Het ziet er heel mooi uit en werkt ook heel vlot. Zeg maar een goed afgewerkte en gestabiliseerde Ubuntu met het oog voor detail.

Tegenwoordig ook al in meer smaken leverbaar: Gnome, KDE, XFCE en zelf Fluxbox voor de lichtere machientjes.

[Reactie gewijzigd door WOteB2 op 20 augustus 2009 22:49]

Ik ervaar dat absoluut niet. Ik beleef veel, veel meer plezier aan welke DE dan ook op Linux dan met Windows. Op Windows is het namelijk altijd behelpen met third-party tooltjes om iets eenvoudigd als het weer op je paneel te krijgen. Typ "weather icon" in op Google en je wordt overspoeld met spyware.

Nee, dan vind ik de Windows-interface niet bepaald volwassen.
De algemene ondersteuning van Linux is gewoon minder als bij Windows, dit is een simpel feit en direct ook het probleem wat de consument heeft met Linux aangezien ze gewoon alles wat ze gewend zijn aan de praat willen hebben zonder van allerlij vreemde dingen te doen (en voor de consument is emulatie met bijv. Wine niet echt normaal te noemen).

En om eerlijk te zijn heb jij een ontzettend slecht voorbeeld, de Windows gebruikers is een grotere groep als de Linux gebruikers waardoor de virus/spyware schrijvers ook op die grote groep gaat focussen.
Als de Linux de overtuigend grotere party was geweest dan zou dit exact omgedraaid zijn.
Dit heeft dus niets te maken met de interface.

[Reactie gewijzigd door SECURITEH op 20 augustus 2009 15:45]

de Windows gebruikers is een grotere groep als de Linux gebruikers waardoor de virus/spyware schrijvers ook op die grote groep gaat focussen.
Dat is onzin, en wel om de volgende redenen:
Banken, beurzen, creditcardmaatschappijen e.d. zijn interessanter om in te breken dan bij consumenten.
Vaak lukt het echter niet daar in te breken (soms wel, bijv. bij de recente inbreuk op een creditcardmaatschappij), en de meeste van deze bedrijven gebruiken UNIX-besturingssystemen. Behalve de beurs van Londen tot voor kort, maar toen die eerst niet aan de beloften kon voldoen en toen ook nog eens op de belangrijkste handeldsdag van het jaar urenlang op z'n gat lag door een fout van Microsoft software / systeemintegreerder hebben die Windows gedumpt en degene die voor de Microsoft-oplossing koos heeft moeten vertrekken.
Dus dan kiezen criminelen maar PC'tjes bij mensen thuis, dat is makkelijker (worden ook minder beveiligd).

Bovendien, bijna net zoveel / meer servers (afhankelijk hoe je telt) draaien Apache dan IIS, en je kan niet stellen dat er op Apache-servers meer ingebroken wordt omdat ze een groter marktaandeel hebben. Blijkbaar is het ook lastig op webservers in te breken, waarom zou je immers DDOSsen als je op de webserver kan inbreken?

Dus de interessantste doelwitten zijn zeker geen consumenten Windows PC's, maar die zijn nu eenmaal wel het makkelijkste doelwit.
Ik heb het hier puur over de interface. Het is vrij duidelijk dat die van Windows gigantisch achterloopt t.o.v. die van Windows.
:?

[Reactie gewijzigd door Gepetto op 21 augustus 2009 10:55]

Ik heb het hier puur over de interface. Het is vrij duidelijk dat die van Windows gigantisch achterloopt t.o.v. die van Windows. Waar KDE en GNOME beide al in hun eerste versies ondersteuning boden voor het toevoegen en bewerken van panelen, het toevoegen van widgets aan een paneel en het gebruik van thema's, zijn al deze mogelijkheden tot op heden niet of niet mogelijk out-of-the-box.
algemene ondersteuning?
Wat versta je daar onder?
Kijk voor de grap eens op de ubuntu community site.
Voor al mijn vragen heb ik een antwoord gevonden.

In Windows ben ik al talloze keren allerlei bugs en irritante zaken tegen gekomen, die niet te traceren zijn, ofwel bekend en niet opgelost.

Een mooi voorbeeld dat ik me herinner is cdrom problem in W2K SP4.
Microsoft introduceert een bug en geeft als oplossing upgraden naar XP, terwijl de bug in eerdere SP's niet zat.
Ze laten keihard de consument in de stront zakken door een slecht, onlogisch, onveilig pruts OS te maken.

En nog steeds zijn er mensen die het slikken omdat ze geen alternatief kennen en een Mac te duur vinden.
Als je blij wilt worden:
kies voor Linux of koop een mac :)
Linux beschikt niet over "een interface". Er zijn meerdere opties voorhanden, waarvan sommigen in grote mate aanpasbaar. Het grootste probleem is niet de interface, maar de mate waarin het platform wordt gedragen door hardware en vooral software fabrikanten. Hier scoort windows hoge ogen.
Linux mist wellicht ook wat gebruiksvriendelijke tools als exhange of het .net platform. Op andere gebieden zijn de tools weer vriendelijker (systeeminstellingen, startmenu, etc) en eenvoudiger aan te passen.
gebruiksvriendelijke tools als exhange
Sorry? :?
Sinds wanneer is Exchange een "gebruiksvriendelijk tool"? Het is een draak van een programma om te configureren, en dat is helemaal niet erg, want dan denkt tenminste niet iedere typmiep dat ze verstand heeft van Exchange. Het is namelijk een server product dat niet bedoelt is voor de thuisgebruiker, maar voor grote bedrijfsomgevingen.
hou a.u.b. gewoon je commentaar achterwege als je ergens niets vanaf weet.
Exchange is draak om te beheren, kortweg een klote pakket dat alleen op Windows draait.
Exchage is ook geen tool, maar een messaging server.
Alternatieven zijn Zimbra, OpenXchange, Lotus Domino, Novell Groupwise, etc etc.

Daarbij heeft vrijwel elke Linux distro Evolution Mail dat standaard Exchange native ondersteund. Ja je leest het goed, want bij Windows krijg je alleen het uitgeklede Outlook Express en moet je betalen voor Outlook.
Dus om op Windows hetzelfde te kunnen moet je een Windows licentie en een Outlook licentie hebben en vergeet dan ook je Exchange server licentie en de client license niet.
Kan geodkoper en beter dus.
Het .Net platform heet op Linux mono.
Scheelt je weer een licentie Windows als je daar apps op wilt draaien.

Verzoek aan alle andere reageerders:
Als je iets vergelijkt zorg dan dat je over die zaken wat afweet.
qua desktop niet goed genoeg?
mijn ouders draaien al ruim 6jr op suse (7.2 geloof ik) - geen omkijken meer na
ubuntu 9.4 is zooooo'n gruwelijk os, als je twijfeld, probeer dat eens!!
via crossover/wine is veeel mogelijk qua emulatie van w32 applicaties.
zelfs tools als photoshop cs4 / world of warcraft etc. werken onder linux.

//edit
internet spelletjes; flash?
msn meuk; wine + ie installatie

maar natuurlijk dat er dingen zijn die voor geen meter werken onder linux, wat onder windows als een zonnetje draait. Maar bekijk het niet zo zwart wit, 9/10 is er een gratis alternatief voor

anders nog iets?

[Reactie gewijzigd door himlims_ op 20 augustus 2009 15:08]

Alleen veel van die vervloekte internet spelletjes en de spelletjes in de windows versie van msn werken niet op linux (active-x) etc. En daarmee houd het voor heel erg veel van kennissen op..
Gaaf he? Vendor Lock-In :P
We hadden geen vendor lock-in gehad als Linux gewoon vanaf het begin de WinAPI hadden ondersteund (niet dat ze dat nu doen). Dat het niet draait op Linux is voor een groot deel ook gewoon te danken aan Linux zelf en de keuzes die ze hebben gemaakt.
Ehm... linux implementeert een groot deel van de POSIX standaard (ook naar gerefereerd door Little Penguin)

http://www.opengroup.org/onlinepubs/9699919799/

Zoals je kunt zien is dit (in tegenstelling tot het speeltje waar MS mee stoeit) een volledige IEEE standaard. Als er iets is dat je iemand kunt verwijten is het MS dat ze de POSIX standaard niet netjes implementeren.

Posix is oud (IEEE Std 1003.1-1988)
Posix is up-to-date (IEEE Std 1003.1-2008)
Posix is open / free (http://www.opengroup.org/onlinepubs/9699919799/)
We hadden geen vendor lock-in gehad als Linux gewoon vanaf het begin de WinAPI hadden ondersteund
Da's pure onzin, en wel omdat ReactOS dat als doel heeft, maar dat heeft echter nog nooit geholpen om de vendor lock-in te doorbreken.
kidde, dat is omdat ReactOS geen volwaardig alternatief is voor zowel Windows als Linux. Het is nog alpha en zit vol met bugs, het is niet snel, het is niet stabiel, het voelt gammel aan, en het is niet eens goed bruikbaar door ontbrekende functionaliteit. Het enige wat er nu op draait zijn apps die ook onder wine prima draaien, en ik denk dat je met linux+wine op het moment een stuk beter af bent dan met ReactOS.
Als die API gedocumteerd zou zijn vanaf het begin: misschien.
We hadden geen vendor lock-in gehad als Linux gewoon vanaf het begin de WinAPI hadden ondersteund
Sinds wanneer is de Win32 API een 100% open en gedocumenteerde API? De vendor-lockin is ontstaan door het feit dat men is gaan vertrouwen op een OS/API die vanaf dag nul 100% gesloten is...

Op het moment dat de Win32 API 100% open is (en bij voorkeur door een onafhankelijke organisatie beheert wordt) kan er sprake zijn van implementatie door bijvoorbeeld een Linux-distributie.

De reden dat de Posix-API nagebootst is in Linux is vooral omdat die API de meeste publieke documentatie had en nog heeft volgens mij...
BS, jawel wat een kolder. Ik ben blij dat linux de winAPI'' s niet direct ondersteund, zo blijft mijn desktop tenminte stabiel. VM is mijn gereedschap om echt windows te draaien.
Volgenmij is windows diegene die afwijkt. De andere grotere OSen hebben allemaal hun roots in unix. Alleen windows niet.

Ik weet niet precies hoe bekend jij bent met de WinAPI, maar ik vind em persoonlijk nou niet heel duidelijk. Voor mn werk ben ik met beide bezig, maar geef toch de voorkeur aan Linux.
OS/2 heeft vanaf het begin de Win3.x API standaard ondersteund. (En als je een OS/2-versie zonder WinOS/2 had, kon je letterlijk Windows 3.x -in- OS/2 instaleren.)

Ook dat is niet doorgebroken, hoewel OS/2 2.1 in 1993 al ruim was wat NT4 pas in 1996 werd. (Ik heb vanaf eind 1994 tot augustus 1996 full time met OS/2 en WinOS/2 gewerkt. Het stond standaard op de 486 van Escom.)
Katsunami, Win NT is gewoon een doorontwikkeling van OS/2. OS/2 was een samenwerking van MS en IBM. Na de split is MS gekomen met NT (maar heeft de versienummering behouden, daarom dat NT direct bij V3 begon).
Blokker, voor zover ik weet zijn ze met 3.x begonnen omdat de andere tak van Windows op dat moment op 3.x zat. Vanaf windows 95 ("windows 4") zijn ze met NT 4.x nummers verder gegaan.
WinOS/2 ging niet verder dan de Win32s specificaties. Toen MS met Windows 95 kwam moest er zoveel verbouwd worden aan WinOS/2 dat het gewoon niet te doen was. Win32s was ook niks anders dan een hack om win32 apps op een 16bit systeem te kunnen draaien. Ik heb vroeger redelijk wat windows 95 programma's kunnen draaien op Windows 3.11, maar lang niet alles werkte.
Ik heb ooit ergens gelezen dat de geheugenallocatie van Windows 95 helemaal incompatible was met WinOS/2, maar kan dat met een beetje googlen nergens terugvinden. Je kunt je voorstellen dat IBM niet zit te wachten om in z'n eentje het hele WinOS/2 subsystem vanaf de grond op te bouwen.

Overigens, het falen van OS/2 heeft niet echt veel met Windows te maken. Omdat het zo'n geavanceerd systeem was, vereiste het elke keer weer hardware die net nieuw op de markt was. Het werd standaard geleverd op PCs met 4MB geheugen, terwijl OS/2 Warp 16MB nodig heeft om fatsoenlijk te draaien. Verder zat je altijd met geklooi met drivers, en was de installatie de grootste hel die je maar kon bedenken. Ik installeer 10x makkelijker linux dan OS/2 iig, en al helemaal op een PC met een harddisk groter dan 4GB ;).
wat een onnozele reactie.
Om iets te ondersteunen moet eerst gedocumenteerd zijn hoe het werkt, of niet dan?
Desondanks is men al ontzettend ver en draaien heel veel standaard applicaties al.
Kijk eens op de Crossover website voor de supported lijst.

Daarbij zijn er ook diverse frameworks beschikbaar waarop je voor Windows en Linux kunt onwikkelen.
Je kunt je eerder afvragen waarom bedrijven de Win32API niet volledig gaan negeren.

Je hebt tegenwoordig Java en .NET (een complete ripp-off van Java).
.NET is wel gedocumenteerd (grotendeels en tot nader order) dus er is ook al een implementatie voor Linux / OS X (Mono).

Je bewering slaat dus nergens op.

Het grootste probleem ligt dus bij de ontwikkelaars en hun opdrachtgevers (voor zover die bepalen welke tools ze gebruiken).

Langzaam maar zeker zullen applicaties niet meer platform afhankelijk zijn en daarbij zullen er veel serverside/in the cloud gaan draaien.

Ik kan niet wachten tot dat moment.
ubuntu 9.4 is zooooo'n gruwelijk os,
6.06LTS of 8.04LTS
De eerste voor de slankheid (5.04 of ouder mag van mij ook, alleen geen patches meer) de tweede als het met de eerste niet lukt of als je meer om grafische speeltjes geeft.
Laten overheden maar verplicht worden om niet met monopolisten in zee te gaan.
Kunnen ze Apple kiezen of nog beter Linux. Dat scheelt de burger uiteindelijk miljarden.

Een Linux systeem + ict afdeling kan het zaakje uiterts goed laten draaien voor elk bedrijf of instelling.
Alsjeblieft niet, op server gebied is linux niet zaligmakend, maar wel een volwaardige concurrent voor veel toepassingen.

Voor systemen met 20.000+ gebruikers wil je toch echt nog steeds geen linux, ja het kan wel maar... in bedrijfsomgeving laat maar zitten dus.

Op de desktopmarkt, daar zou linux verplicht moeten zijn, als desktop OS is het echt heel erg goed. Als de overheid dat doet, kan het wel eens heel erg snel gaan met linux!

Alleen op server gebied, niet slecht maar de beste, nou nee niet voor alle omgevingen.
Dat Linux geen 20.000 gebruikers aankan is mede door het gebrek aan enterprise tools om grote omgevingen goed te kunnen beheren. En kosten in hardware. Voor grote omgevingen is het nog steeds beter om IBM of HP spul binnen te halen vanwege de betrouwbaarheid en hoge specs(waarvoor je ook betaalt)

Ook hebben IBM en HP tools voor hun besturingssystemen die het mogelijk maken om te beheren op grote schaal. dat is voor een grote klant zoals een bank essentieel van belang.

Tevens wordt rubuustheid in Linux mede bepaald door de manier waarop broncode wordt gegenereerd en toegepast. En niet te vergeten het security model, wat bij AIX en HP-UX gewoonweg beter is.

[Reactie gewijzigd door Typnix op 21 augustus 2009 09:20]

erm, IBM is voor zijn eigen interne IT al sinds 2005 op linux overgeschakeld.

http://www.theinquirer.ne...onfirms-ibm-linux-desktop

Dat zijn 388000 werknemers wereldwijd volgens wikipedia.
Dit is uiteraard makkelijker gezegd dan gedaan, het klinkt wel leuk en makkelijk maar er moet toch rekening gehouden worden met compatibiliteit tussen de oude en nieuwe omgeving in dat geval, iets wat voor word vergeten of weggewuifd met het excuus dat het niets voorstelt... het zal je alleen verbazen dat dit erg vaak mis gaat, zeker bij de overheid waar ook veel gewerkt word met speciale software pakketten die geschreven zijn voor de huidige situatie en daarbuiten simpelweg niet functioneren.
zeker bij de overheid waar ook veel gewerkt word met speciale software pakketten die geschreven zijn voor de huidige situatie en daarbuiten simpelweg niet functioneren.
Absoluut. Vandaar dat de overheid nu ook probeert zulke pakketten niet meer aan te schaffen, maar dat lukt niet altijd natuurlijk. Daaruit blijkt juist dat het belangrijk is dat men vendor lock-in voorkomt, en daar is de overheid steeds drukker mee bezig. Zie NoiV.
Er zijn ontzettend veel mogelijkheden om het juist wel te doen. Angst en slechte en/of luie ict-ers zijn helaas eerder de doodsteek.
Dat heb ik zelf onder vonden op m'n werk. Uiteindelijk heb ik zelf maar de knoop door gehakt en tussen de 200 Windoos bakken staan nu 50 Apples.

Wat blijkt, in ruim 3 jaar tijd zijn dit de computers met de minste uitval en het minste onderhoud. Het enige wat jammer nog is: Apple heeft veel meer te bieden dan wat wij tot nu toe doen.
Misschien komt dat ook wel door de mentaliteit waarop er met die machines wordt omgegaan.. Apples zijn juweeltjes, ze glimmen mooi en hebben gladde ronde toetsen.. De 'bakken' waarop 'wind doos' draait is maar 2e rangs troep, ik krijg de neiging om nu op het scherm te spugen en op het toetsenbord te slaan. Ok, beetje overdreven maar mensen zijn gewoon zuiniger op 'mooie' spullen.
Versnipperde communicatie is inderdaad een probleem. Maar ik denk dat het ook zo is dat Linux door zijn aard nooit zo'n soepele interface (*) zal krijgen als systemen die in de hand van 1 bedrijf zijn, zoals OS X en Windows.
(*) Met 'interface' bedoel ik hier niet de grafische geliktheid, maar een eenduidige, consequente, logische, gebruiksvriendelijke manier van werken.

Apple, en in mindere mate Microsoft, kan binnen enkele revisies grote onderdelen van het OS op de schop gooien en door het hele OS heen implementeren. Ik denk bijvoorbeeld aan Spotlight, het systeem-brede indexing-systeem in OS X. De index-functionaliteit is gekoppeld aan het filesysteem, en tegelijk zijn zoekmogelijkheden op allerlei plekken in het OS en in diverse applicaties gekomen. Deze mate van consequentie is in Linux moeilijk te bereiken omdat er niet 1 centraal orgaan is dat zegt 'dit gaan we doen'. Er zijn aanpassingen in allerlei projecten nodig om zoiets te bereiken. Die projecten lopen niet gelijk op schema, en zijn van elkaar afhankelijk. Op elk moment moet elk project wel blijven samenwerken met de rest, en grote sprongen zijn daardoor moeilijk te maken. Op het niveau van de gebruikerservaring voel je dit!
Dat kan wel, als je bereid bent om bepaalde onderdelen daarvoor aan te passen. Door af te wijken van wat er vanuit de diverse deel-projecten beschikbaar is.

De onderdelen die de Gnome desktop vormen komen van verschillende projecten die hun eigen visie hebben. Toch wordt de Gnome desktop steeds meer een geheel. Dat komt door het werk van de mensen bij het Gnome project.

Bij KDE ligt dat wat anders. KOffice en andere projecten vallen onder de vleugels van het overkoepelende KDE-project en zouden zich daar normaliter aan moeten conformeren. Afwijkende visie's horen via het moederproject op elkaar afgestemd te worden (wat bij Gnome niet eens aan de orde is.)

Ubuntu borduurt weer verder op het Gnome project, en kan met wat meer aandacht (compiz is ook weer een apart project) en wat eigen aanpassingen daar nog meer bereiken als wat ze nu al gedaan hebben. Men moet dan wel af en toe de keus maken om af te wijken van wat de de visie is bij het deelproject (zoals bv OpenOffice wordt gekozen ipv het bij Gnome horende Gnumeric) wat dan tevens het gevaar meebrengt, dat er incompatibiliteiten ontstaan met het origineel en met andere distributies. Dat laatste is dan ook weer het grootste gevaar.
Maar ik denk dat het ook zo is dat Linux door zijn aard nooit zo'n soepele interface (*) zal krijgen als systemen die in de hand van 1 bedrijf zijn, zoals OS X en Windows.
Toch zijn er Linux-besturingssystemen van ÚÚn enkele fabrikant, maar voorlopig vooral op de embedded-market, dat dan weer wel. ChromeOS komt ook natuurlijk.
idd, een voorbeeld van een programma wat ik op linux gebruik is xfig, ideal programma om TEX code in je plaatje te verwerken. En dan met een perl scriptje het fig bestandje naar pdf converteren.
Daar kan de betaalde software zoals adobe illustrator niet tegen op. De Ubuntu ervaring is zo goed gebleken dat ik eigenlijk ben blijven hangen. (alhoewel ik 1 keer mn hardeschijf heb gewist met een terminal opdracht 8)7 )
Heb nu dus dualboot, maar ik weet zeker dat linux blijft op mijn computer.
Voor de rest was ik ook erg tevreden over de kennis van de linux communitee, als je ergens mee zit is er altijd wel iemand die de oplossing weet, terwijl voor windows (naar mijn ervaring dan) er nog steeds veel problemen zijn waar niemand iets mee kan doen. Voorbeeld: op mijn VAIO FW11M doen onder windows mn Fn keys voor de brightness het niet. Talloze handleidingen doorgwerkt zonder succes. In linux even gegoogled en in linux deden ze het binnen 5 minuten
Niet te vergeten: alle linux smartphones (android).

"Misschien eindelijk een goede tegenhanger voor ms."
Het was al een goede tegenhanger van MS. Als het zo door gaat zal er geen geld meer te verdienen zijn in het verkopen van een OS, alleen in het bieden van ondersteuning (model van onder andere RedHat dacht ik).

Een veilige, aanpasbare en snelle kernel, ondersteund door een community, prachtig toch!
alleen in het bieden van ondersteuning
En zelfs dat niet meer op den duur als het OS intuitief genoeg en monkeyproof is.

Ik vind het business model van betalen voor support en het product gratis persoonlijk hardstikke fout. Ik bedoel een bedrijf, zoals Red Hat, heeft er daardoor baat bij als het OS niet al te intuitief werkt.
Daarom is het ook goed om een product niet 100% te maken, kun je altijd weer nieuwe versies verkopen.

Your point is?
Dat is niet hartstikke fout, dat is positief. Het alternatief is een product kopen en er support bij krijgen, nu krijg je tenminste de mogelijkheid indien je genoeg kennis zelf in huis hebt, het pakket voor niets te gebruiken.
Red Hat en Novell doen dit vele malen eerder omdat een groot bedrijf niet op een forum/mailinglist/bugtracker een oplossing voor hun probleem gaat zoeken, die willen gewoon onmiddellijk iemand aan de telefoon hebben die hun kan helpen, of nog beter, een "monteur" die al op de stoep staat nog voordat je hebt gebeld.
Ik bedoel een bedrijf, zoals Red Hat, heeft er daardoor baat bij als het OS niet al te intuitief werkt.
Als het echt niet werkt gebruiken mensen het ook niet aan de andere kant.
RedHat is druk bezig allerlei grafische tooltjes te maken - o.a. voor 'makkelijker te begrijpen' virtualisatie, dus ze maken dingen die je eerst op de CLI deed nu grafisch.
KVM vanaf de CommandLine is immers niet het toonbeeld van gebruiksvriendelijkheid.

Dus het lijkt erop dat ze niet bewust de zaken moeilijker houden dan nodig, maar investeren om het makkelijker te maken.
Het grootste probleem bij linux is dat er totaal geen hoge gebruiksvriendelijkheid is. Zodra je iets wilt instellen ben je bij wijze van spreken al verplicht om het langs de terminal in te stellen of moet je een of ander GUI DEB pakket downloaden dat je pas ontdekt na een beetje rondzoeken op het internet.

Niet iedereen is zo bijdehand.
Bij distributies als Zenwalk en Mepix/AntiX kun je zowat alles zonder terminal instellen. Die hebben daar heel mooie programma's voor gemaakt, menugestuurd. Ook bij andere moderne distributies is een terminal steeds minder 'verplicht' (als ik mij zo uit mag drukken).
Linux is voor de thuis gebruiker gewoon te ingewikkeld,

het voordeel is dat het wel lekker snel opstart :), alhoewel windows ook sneller opkomt icb met speciale moederborden

Zelf heb ik laatst linux gedraait, en snapte er geen hol van.
eerst deed internet het niet, hoort plug en play te zijn..
moest ik eerst helemaal kaart instellen

toen na keer herstarten deed internet weer niet, moest uit zetten dan weer aan dan werkte het weer.

linux is inderdaad geschikt voor aansturing, maar voor de thuisgebruiker word het niet zo snel wat.


zie bijv Firefox, het werkt allemaal net iets mooier dan IE maar daar in tegen vreet het wel veel meer CPU naar mijn idee

en open source besteden niet genoeg aan informatie, inlichting en help /uitleg
Op zich hoeft een op de Linux-kernel gebaseerd besturingssysteem niet ingewikkeld te zijn, ook niet voor de thuisgebruiker. Het probleem is dat de hardwareleveranciers nog geen of weinig ondersteuning voor Linux gebaseerde besturingssystemen leveren en verder is er onder een op de Linux-kernel gebaseerde OS'en ook weinig aanbod van spellen - iets dat door een bepaalde groep mensen heel belangrijk is...

Dat jij een Linux-based distributie niet snapt, dat wil nog niet zeggen dat het aan Linux e.d. ligt. Zet een digibeet eens aan een MS-Windows computer zonder werkende netwerkverbinding en laat 'm het eens oplossen om te kunnen internetten - dat zal dus ook niet gaan lukken. Op het moment dat je echter een compleet systeem hebt met Linux voorge´nstalleerd (net zoals MS-Windows dat nu dus is), dan zijn dit soort problemen reeds door de fabrikant ondervangen.

Wat dit verder met Mozilla Firefox te maken heeft is mij even een raadsel. Ik ga daar niet verder op in, behalve dat 't wel eens (gedeeltelijk) tussen jouw oren zou kunnen zitten...
Ik zou eens met Ubuntu beginnen. Dat is net zo of zelfs gebruikersvriendelijker dan Windows. Alles staat veel overzichtelijker opgesteld.
Zie bijv: http://www.debianadmin.com/images/songbird/9.png

Ik heb trouwens nog nooit van plug-and-play internet gehoord. Doet de netwerkkaart / driver het wel? De netwerkkaarten worden zeker vanaf Ubuntu 8.10 al prima herkend.
Zeker gezien het internet uitvalt klinkt het alsof je netwerkkaart problemen geeft en daarbij begin je normaal gesproken met het zoeken naar een juiste driver.

En niet genoeg informatie. Om te beginnen: http://linux.startpagina.nl

[Reactie gewijzigd door Darude1234 op 20 augustus 2009 21:59]

Linux is voor de thuis gebruiker gewoon te ingewikkeld,
Nou, mijn moeder (bijna 60) snapt het wel. Misschien zegt deze uitspraak dan meer over jou dan over de thuisgebruiker in het algemeen.
toen na keer herstarten deed internet weer niet, moest uit zetten dan weer aan dan werkte het weer.
Tja, bij Windows ben je daar zo aan gewend, je denkt er niet eens meer over na wanneer je weer eens moet herstarten. 8)7
zie bijv Firefox, het werkt allemaal net iets mooier dan IE maar daar in tegen vreet het wel veel meer CPU naar mijn idee
Ik heb nog eens binnen een bedrijf overal FF geinstalleerd, dankzij een fraai memory lekje in IE liep de RDP-server uit zijn geheugen en was deze vervolgens niet meer vooruit te branden. Met FF was er niets aan de hand, 100MB per sessie, IE vrat halverwege de dag al ruim 1GB per sessie. Dat gaat niet werken met 20 man op een server met 16GB RAM... Beide zullen zo hun voor- en nadelen hebben.
en open source besteden niet genoeg aan informatie, inlichting en help /uitleg
Alleen al op SourceForge.net zijn honderdduizenden open source projecten, welk project doel jij op? Dat niet ieder project even goede documentatie oplevert, dat is niets bijzonders, dat is exact hetzelfde als bij closed source software. Soms is goed, soms is het slecht, het is niet anders.

Ik werk met PostgreSQL, die heeft uitstekende documentatie, staat werkelijk alles in. Ook programmeurs die er nog nooit mee hebben gewerkt, kunnen antwoorden vinden op hun vragen, de zoekfunctie werkt uitstekend en het zit logisch in elkaar. Kan menig closed source programma nog een voorbeeld aan nemen.

Maar ja, open of closed, het zegt helemaal niets over de documentatie of de kwaliteit van de documentatie. Een opmerking die dus kant nog wal raakt.

Een fraai stukje FUD, maar ook niet meer dan dat. :O
Zelf heb ik laatst linux gedraait, en snapte er geen hol van.
eerst deed internet het niet, hoort plug en play te zijn..
moest ik eerst helemaal kaart instellen
Ik begrijp dit niet. Waarschijnlijk was het erg vreemde hardware.
Normalerwijze herkent Linux nagenoeg iedere netwerkkaart, en zal het zich als desktop als DHCP-client instellen, en kan het direct het Internet op. Sterker zelfs, tijdens de installatie worden gelijk de laatste updates opgehaald. Dit gaat allemaal automatisch.

Ik heb dit bij andere OSsen wel anders meegemaakt. Installeren, daarna tientallen patches downloaden, en ook een aantal malen rebooten. Je bent zo enkele uren verder, en al die tijd ben je insecure op het Internet, en god weet wat je allemaal hebt binnengehaald voordat de laatste patch en de laatste reboot eindelijk klaar is.
Linux is voor de thuis gebruiker gewoon te ingewikkeld,
Linux (de kernel) is inderdaad ingewikkeld, net zoals de NT kernel en de mach-gebaseerde kernel van OS X.
Gelukkig heeft een gebruiker nooit direct met een kernel te maken...

(En BTW, geen flauw idee welke distro je hebt gebruikt, maar mijn vrouw (uber-computerleek) werkt makkelijker op mijn Ubuntu laptop dan op haar Windows XP werkstation op haar werk. Maar dat is allemaal een kwestie van smaak.)
het voordeel is dat het wel lekker snel opstart :), alhoewel windows ook sneller opkomt icb met speciale moederborden
Mijn Ubuntu distributie met Gnome start helaas echt niet sneller op dan mijn Windows XP machine op mijn werk... (niet dat daar geen verbetering in komt, maar dat ter zijde)

Je hebt trouwens geen flauw idee op wat voor een grote hoeveelheid apparaten Linux draaid, waar jij er misschien ook wel eentje van in je bezit hebt. (NAS, Router, Mediaspeler, Telefoon?) Daar merk je toch ook niks van dat daar Linux op draait? De opmerking dat 'Linux ingewikkeld is voor de thuisgebruiker' slaat in deze context echt als een tang op een varken.

Boodschap: haal de termen 'Linux' en 'distributie' niet door elkaar.
Zelf heb ik laatst linux gedraait, en snapte er geen hol van.
eerst deed internet het niet, hoort plug en play te zijn..
moest ik eerst helemaal kaart instellen
Je zou mijn horrorverhalen eens moeten aanhoren over alle nukken van windows en in het bijzonder haperende drivers...
toen na keer herstarten deed internet weer niet, moest uit zetten dan weer aan dan werkte het weer.
Wees gerust, heb geregeld Windows opnieuw moeten installeren (dus niet opnieuw opstarten) omdat iets het niet deed.

Dit soort vergelijkingen slaan nergens op....
en open source besteden niet genoeg aan informatie, inlichting en help /uitleg
Er zijn genoeg open source projecten die flatout rotzooi zijn (vooral veel hobbyprojecten), maar voor een hoop serieuze projecten zijn deze zaken beter geregeld dan dit het geval is voor veel closed source projecten. Mogelijkheden om bijvoorbeeld direct met ontwikkelaars op IRC kanalen te kletsen, uitgebreide mailinglists, publiek toegankelijke bugtrackers, goede documentatie (references, howto's) en die ultieme documentatie is de sourcecode zelf.
Ofwel: scheer niet alles over een kam. 'Open source' projecten zijn niet hetzelfde, ieder project is anders, heeft zijn eigen niveau van kwaliteit, manier van werken, etc.
"De code telt inmiddels meer dan 11,5 miljoen regels code, waarvan bijna een derde het afgelopen jaar is toegevoegd, aldus de organisatie."

Het lijkt mij een hele slechte ontwikkeling om de kwaliteit te meten in kwantiteit van het aantal regels code :? Heel veel extra code belooft ook heel veel extra bugs en problemen met onderdelen die onder sommige omstandigheden ineens niet meer goed samen werken. Linux-community zou zich echt moeten gaan richten op kwaliteit in plaats van kwantiteit.

Je wordt bijv. niet vrolijk van installatie-procedures die op verkeerde disken proberen bootloaders weg te schrijven en dat met een zeer recente populaire distributie op uitermate gangbare configuratie. Gewoon niet goed getest, werkend gemaakt en in linux erbij gegooid. En dan als je zoiets meld, ach.. pas eff de config aan, ja fijn als je 200 servers moet installeren, weer postscript maken. Alleen tja die post-dingen en goede documentatie hmm ik kan beter op de maan zoeken, heb ik meer kans.

Ik ben voorstander van linux, maar ik vind dat de aandacht moet gaan naar kwaliteit, vreemde problemen eruit halen, documentatie verbeteren. Bijv. de manual pages zijn om te huilen vergeleken met die van aantal grote unix-smaken...
Het lijkt mij een hele slechte ontwikkeling om de kwaliteit te meten in kwantiteit van het aantal regels code
Volgems mij doet men dat ook helemaal niet, waar haal je vandaan dat men hierop een kwaliteitsclaim doet?
Je wordt bijv. niet vrolijk van installatie-procedures die op verkeerde disken proberen bootloaders weg te schrijven en dat met een zeer recente populaire distributie op uitermate gangbare configuratie.
Alleen is dat niet het probleem wat veroorzaakt wordt door de makers van de Linux-kernel, maar van een op de Linux-kernel gebaseerde distributie. Zo'n fout is absoluut niet goed te praten en hoort dan ook absoluut niet voor te komen, maar met de kernel heeft het niets te maken.
Ik ben voorstander van linux, maar ik vind dat de aandacht moet gaan naar kwaliteit, vreemde problemen eruit halen, documentatie verbeteren. Bijv. de manual pages zijn om te huilen vergeleken met die van aantal grote unix-smaken...
Over het algemeen kan ik goed uit de voeten met de manual pages en Google, maar als het beter kan dan zou je misschien zelf ook bij kunnen gaan dragen. Dat is namelijk het leuke van open source, dat je zelf ook mee mag helpen :)

En ook de manual pages heb op zich niets tot weinig met de kernel te maken, maar zijn de verantwoordelijkheid van de personen die de userland CLI commando's maakt en/of de distributeurs van de op de Linux-kernel gebaseerde besturingssystemen...
Het rapport maakt natuurlijk nog maar eens duidelijk dat Linux toch niet meer zo'n hobbyprojectje is. Velen zijn altijd vol lof over het idee dat iedereen over de hele wereld meeschrijft aan Linux, maar het is toch vooral door de steun van grote bedrijven dat Linux zich kan ontwikkelen.
Patches zijn niet altijd fixes, maar elke wijziging aan de code. Dus ook uitbreidingen, herschrijven (ivm performance, herbruikbaarheid, onderhoudbaarheid, enz).
Volgens mij snappen sommigen het niet helemaal. Dat er veel code wordt toegevoegd aan de kernel tree betekent niet dat het bloat wordt, maar dat er bijv. meer drivers toegevoegd worden die optioneel zijn. Linux is modulair zodat je kan kiezen om een bepaalde driver als module te gebruiken (om in te laden wanneer je het nodig hebt) of echt in de kernel te bakken. Je hebt dus meer tot je beschikking, maar die heb je niet allemaal in je kernel. Je installeert toch ook niet alle bestaande drivers voor alle soorten apparaten voor Windows (bijv. nVidia drivers als je een AMD kaart hebt)? Ik hoor niemand zeggen dat Windows zo groot is omdat er duizenden drivers voor beschikbaar zijn.
Mooi om te horen dat er nog zoveel verbeterd en aangepast wordt, dat betekend voor ons als gebruikers alleen maar voordeel. Blijf zo doorgaan, jongens! :)
Ik word helemaal gek van dit gedoe... Het is altijd maar zo dat niet windows nee Linux alles verkeerd doet dit is gewoon bullshit... Mensen die niet met computers om kunnen gaan vind ik prima alleen een systeem of netwerkbeheerder die niet eens fatsoenlijk Linux als desktop kan gebruiken vind ik zielig.... Daarbij komt kijken waar hebben die beheerders op school gezeten... Als ik hun was had ik me schoolgeld al lang weer opgeeisd. Het enige waarom deze beheerders niet aan de linux willen omdat ze niks willen uitzoeken nee lekker support bellen van MS ben je dan een n00b of zie ik het nu ineens verkeerd. Nou het zal allemaal wel als je de keuze hebt denk dan eens goed naar of je nu techneut bent of gewoon zakkenvuller.


LINUX 4VER 8-)
Grow up. De meeste scholen geven geen Linux lessen en je mag al blij zijn met een basis cursus van om en rond de 30 uur op jaarbasis tegenwoordig. Daarbij komt dat de systeembeheerders die nu in het dertigste levensjaar hangen tien jaar geleden op school zaten en toen was Linux nog lang niet zo populair en ver ontwikkeld (ok, ok 2.0 branch was er).
Een beetje enthousiaste computergebruiker zat ook 10 jaar geleden al naar Linux te kijken, en ook op scholen werd er 10 jaar geleden al voorzichtig aan het werken met Linux gedaan.

Het probleem is dat de leerlingen/studenten zelf niet altijd zin hadden om moeite te doen om ook iets anders dan MS-DOS/MS-Windows te leren. (Ik heb 't van nabij meegemaakt namelijk.) Op het moment dat de persoon zelf geen zin heeft om iets extra's te leren kun je als school heel veel moeite doen, maar 'werken voor een goed cijfer' is dan het beste resultaat wat je kunt bereiken...

Op zich zou de kennis dus voorhanden kunnen zijn, dat dit niet het geval is dat is jammer en ook nog eens duur voor de bedrijven - want dat kost extra licenties aan de diverse MS-server product (en eventueel client-producten, maar dat geloof ik niet van Linux op de desktop is nog lang niet zover dat dit ook ergens breed ingezet zal gaan worden).

Overigens vind ik wel dat er een kern van waarheid in netranger1989's betoog zit, namelijk dit: "Bij Microsoft (producten) is het praktisch altijd point-and-click en iets anders dat wordt niet begrepen door de generatie MS-systeembeheerders..."

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True