Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 95 reacties
Bron: ZDNet, submitter: Falcon

Novell-ceo Ron Hovsepian heeft tijdens de LinuxWorld-conferentie gepleit voor een neutrale standaard voor het ontwikkelen van applicaties voor Linux. Anders verwacht hij dat Linux, net als Unix, ten onder zal gaan aan fragmentatie.

Volgens Hovsepian is de Linux Standards Base, een project met het doel om de interne structuur van Linux-systemen te standaardiseren, niet voldoende. De Novell-topman meent dat er meer nodig is, namelijk independent software vendor-certificatie voor Linux. Op die manier hoopt hij dat de fragmentatie binnen Linux-land kan worden tegengegaan en er een isv-gemeenschap kan groeien, zoals die ook voor het Windows-ecosysteem bestaat. Volgens Hovsepian was het namelijk het gebrek aan applicaties dat ervoor gezorgd heeft dat Unix geen groter succes is geworden en is ditzelfde probleem ook een valkuil voor de groei van Linux. Het genoemde certificaat moet ervoor zorgen dat een programma onder alle Linux-smaken is te draaien.

Hovsepian is blij dat er een groeiend aantal bedrijven is dat Linux-software uitbrengt, hoewel het niet altijd om opensourcesoftware gaat. Tijdens zijn toespraak bedankte de Novell-topman de Free Software Foundation voor het werk dat verzet is voor GPLv3. Volgens Hovsepian zou Linux niet zijn waar het nu is als de FSF er niet geweest was. Verder liet hij weten dat Suse Linux Enterprise Server, ondanks Microsofts harde woorden over de nieuwe licentie, gewoon GPLv3-software gaat bevatten. Tot slot vertelde Hovsepian dat de deal met Microsoft nodig was, omdat klanten werken in een gemixte Windows- en Linux-omgeving en het – met die klanten in het achterhoofd – daardoor onhoudbaar zou zijn om elke vorm van samenwerking te blijven weigeren.

Moderatie-faq Wijzig weergave

Reacties (95)

Het probleem is dat ook al gebruik je 1 en dezelfde package manager dan kan je nog niet pakketten uitwisselen tussen besturingssystemen. De plaats van libraries, executables, shared files ed. zijn niet overal hetzelfde. Daarnaast heb je nog andere naamgevingen voor paketten. Een .rpm kan je omzetten naar een .deb met alien, maar dat betekent niet dat dat goede dependencies oplevert in de gegenereerde .deb.

Dat is de reden dat commerciele programma's onder linux vaak static gelinkt zijn, wat betekent dat de libraries in de executable ingebakken zitten. De vraag blijft waar bestanden geplaatst moeten worden en waar shortcuts voor de menus van de verschillende desktops horen ..

edit: eh.. dit als reactie op StephanL
@blokker_1999: inderdaad. de desktop wordt ook redelijk gestandaardiseerd met behulp van freedesktop afspraken

[Reactie gewijzigd door frogger3d op 9 augustus 2007 12:28]

De plaats van libraries, executables, shared files ed. zijn niet overal hetzelfde. Daarnaast heb je nog andere naamgevingen voor paketten
Het zijn net die zaken die gestandariseerd moeten worden, en de LSB heeft al een deel van het werk gedaan.
volgens mij leeft linux van zijn fragmentatie

vanuit developer gezien:
iedereen kan zijn eigen ideeen er in kwijt (eventueel als groep)
als je het niet eens bent met met de leiding van het project creeer je een fork
als je het niet eens bent met een module in de kernel bouw je je eigen kernel
als je het niet eens bent met de distro die je gebruikt neem je een ander of bouw je iets van scratch.


vanuit het oogpunt van de gebruiker is het handig als alle software op elke wilekeurige machine zou draaien. maar het moet natuurlijk niet ten koste gaan van van de mogelijkheid om je geliefde window manager te gebruiken. trouwens die window manager moet niet teveel op de andere gehaatte gaan lijken want die is evil.

kortom het is een project wat in eerste instantie heel goed lijkt maar niet in het stramien van de linux mensen past.
Ik denk dat je, voor nu, wel gelijk hebt. Maar ik denk dat deze fragmentatie ook een rem is op verdere groei. Hoe gek het ook is, al die keuzes maakt het voor de gewone consument een stuk lastiger. Die wil gewoon 1 soor OS wat overal bijna hetzelfde werkt, of zegt te werken.
Men wil absoluut geen keuze vrijheden beperken. Waar men naartoe wilt gaan is een uniforme basis waarin bepaald word welke bestanden waar thuishoren en welke bibliotheken minimaal aanwezig dienen te zijn alsook een uniforme benaming voor bepaalde zaken.
Dat snapt iedereen ook wel, maar je moet je ook realiseren dat ook dat soort dingen onderwerp zijn van keuzevrijheden. Voor allerlei oplossingen is wat te zeggen, en daarom zijn er ook verschillende oplossingen ontstaan. Dat heb je bij paden, maar ook zeker bij bibliotheken. Iets tot standaard verheffen is niet iets dat zonder gevolgen blijft; het heeft een enorme politieke lading.
Nu heeft inux het misschien van de fragmentatie maar dat is dan ook de reden dat het niet echt doorbreekt bij de gewone gebruiker.
ALs jouw linux installatie op de mijne lijkt dan hebben we iets gemeen, kan ik je iets laten zien op jouw pc want op de mijne is het netzo.

Zolang dit er niet is zal linux, nooit of te nimmer Microsoft van de troon stoten.
Het bestaan van package managers heeft een goede reden, het is simpelweg een ramp als je geen overzicht over alle paketten hebt. Een package manager voor alle distributies gaat ook niet lukken, want iedereen heeft andere behoeften.

De windows manier werkt in windows ook niet echt super, je blijft altijd met rotzooi over.

Ik zie niet hoe een gestandaardiseerde linux + applicaties er gaat komen.
Een package manager voor alle distributies gaat ook niet lukken, want iedereen heeft andere behoeften.
Ik mag toch hopen dat die andere behoeften niet van de package manager afhangen zeg. Alsof je met 1 package manager geen verschillende distro's zou kunnen bouwen. Sterker nog, de vrijheid om zelf je package samen te stellen neemt alleen maar toe wanneer er 1 gestandaardiseerd systeem van installatie komt (waar hebben we het nou helemaal over).

[Reactie gewijzigd door mars op 9 augustus 2007 12:04]

Zelfs als je een package formaat en standaard afspreekt, dan zit je nog met voorkeuren mbt plaatsing van bestanden. Niet te vergeten paketten die init scripts en dergelijk nodig hebben, dergelijke dingen zijn bijna nooit hetzelfde op twee distributies.

Daarnaast kan een pakket nooit compatibel zijn met alle bibliotheek versies, er zal altijd wel iets zijn wat net niet compatibel is. Een broncode pakket standaardisatie (of elk geval een algemeen accepteerd formaat) zou misschien nog wel kunnen, maar of dat zo interresant is weet ik niet.
Ik mag toch hopen dat die andere behoeften niet van de package manager afhangen zeg.
Ooit was rpm revolutionair, en heel bepalend voor de keuze. Tegenwoordig zal het de gewone gebruiker een zorg zijn, want de meeste distro's hebben een goed systeem. Toch kan ik me voorstellen dat er nog steeds gevallen zijn waar het wel uitmaakt. En dan is het toch mooi dat er zoveel smaken zijn, en het is nog veel mooier dat als de jouwe er niet bij zit, dat het je vrij staat om zelf nog iets beters te verzinnen.
Probleem zijn de versies. Neem nu Debian. Debian hangt achterop met gebruikte versies tov een Ubuntu bijvoorbeeld. Als je Ubuntu en Debian deselfde bronlijst zou geven voor apt krijg je gewoon 1 en dezelfde distro na het uitvoeren van een dist upgrade.

Het zijn net de aangeboden packages en aanpassingen die een distro zijn eigenheid geven.
Ik weet niet precies hoe dat bij linux werkt maar het viel me op dat ik op OSX ook nog allerlei troep-libraries in eoa dir had staan als ik via terminal keek. Dit nadat ik een app verwijderd had door hem naar prullebak te slepen dus. Het lijkt erop dat er geen een OS is die een nette 100% complete uninstall kan doen.
Ik weet hoe dat in OSX gaat, maar een gnu/linux distrubutie zal meestal de bestanden allemaal verwijderen. Minus persoonlijke bestanden in je home folder en aangepaste bestanden (gezien dat deze niet matchen met bestaande gegevens).

Is iets naar de prullebak slepen eigenlijk wel de goede methode?

Misschien is zo iets beter: http://www.osxgnu.org/info/pkgdelete.html
Ik zie ook niet in waarom het er moet komen. Elke distro compiled ze apps zo dat het met hun libs werkt en verpakt het netjes in het systeem wat zij het beste vinden. En guess what: Meestal kan je met een tekstcommando een programma installeren en je kan het doen door een vinkje in een lijst te zetten. En daarna gaat alles vanzelf!
Niks downloaden, niks setup.exe, niks depencies. Helemaal vanzelf.

[Reactie gewijzigd door merethan op 9 augustus 2007 12:36]

Ik zou graag één bepaalde installatie methode van software zien. Nu zie je nog. rpm's .deb's. tar.gz en b2z. Misschien vergeet ik nog wel wat.

Het gaat er dus om dat er niet 1 methode is om software te installeren. Tuurlijk je heb in Windows ook. zip, .tar en nog een paar. Maar in windows klik je in het algemeen op setup.exe en je loopt door de installatie procedure.
Je begrijpt de strekking van het artikel niet helemaal geloof ik. Het gaat om globale standardisatie aangezien (bijv) debian-based en redhat-based distributies nog redelijk van elkaar verschillen.

In principe is het wel de kracht van Linux dat je bjivoorbeeld zowel apt als portage hebt. Maar helaas bestaat er dan ook nog wel de rpm's. Verder zijn beide packages niets meer dan getarde pakketten met een bepaalde "indeling". Wat dat betreft zou jou standardisatie ("installatie") niet door te voeren zijn, omdat er teveel wensen zijn van teveel verschillende mensen.
Echter is het wegfilteren van inferieure systemen (bijv redhat packages tov debian packages) wel een goed idee om "het bos wat te snoeien". Je hebt dan nog het simpele apt, de geavanceerde portage en je kan het zelf compilen.
En er zjin ongetwijfeld nog veel meer systemen, maar die spelen een mindere rol in het geheel

@PHiXioN: Synaptic is niets meer dan een gtk frontend voor apt, dus wat is je probleem? Je hebt nog wel "add/remove software", maar dat is een simpele versie om veel gebruikte software te installeren. Je kan met synaptic in principe hetzelfde doen als met apt-get :)
Het is nog veel mooier eigenlijk om het systeem van OSX af te kijken met hun dmg bestanden. Dit is pas eenvoudig. Dit systeem (wat vast wel nadelen zal hebben waar ik nu niet op kan komen) heerst naar mijn mening alle andere installatiemethoden er gigantisch uit.

Ben je klaar met een pakket? Pak de dmg en sleep hem naar de prullenbak, klaar. Geen gezoek door alle tig duizend systeemmappen op verborgen dlls of inf bestandjes. Geen registry settings die altijd overblijven na een de-installatie.

Linux ondersteunt dergelijke soorten van installatie volgens mij voor 100%. Toch word het zelden gebruikt :s
Package-management werkt in Linux ook, en zelfs in Windows een beetje. Het probleem met Windows is dat bijna niemand z'n programma's op Windowsupdate mag zetten (alleen MS-producten en wat drivers). Het probleem met Linux, is dat ik zo al 3 verschillende systemen kan opnoemen die niet compatible met elkaar zijn.
Ik doel niet op package-management.. als ik tenminste begrijp wat jij hiermee bedoelt. Dingen als portage enzo? .. ik doel op het downloaden / kopen van dmg bestanden die je overal ter wereld vandaan kan halen en die allemaal op dezelfde (makkelijke) manier werken en geen bestanden plaatsen over je hele harde schijf tijdens de installatie.

Een beetje zoals rpm of deb maar dan meer op de apple manier. Een soort van U3 technologie voor zip bestanden.

EDIT:

Of zelfs gewoon het compleet ondersteunen van .dmg files. OSX is gebaseerd op BSD toch.. dan zou het lijkt me niet zo moeilijk te porten zijn (indien apple en de wet dit toestaan). Bovendien beschik je dan direct over alle software die mac compatible is (op x86 dan). Of vergeet ik nu een aantal zaken?

[Reactie gewijzigd door athaphian op 9 augustus 2007 15:31]

Dat systeem van MacOSX (al ken ik MacOS niet, maar aan de hand van de beschrijving) bestaat, het heet "Klik" (url). Alle bestanden die een programma nodig heeft, staan in een map, en alles is statisch gecompileerd, dus niet afhankelijk van libraries of versies.
Een nieuw programma installeren is zo simpel als zijn mapje downloaden en in de juiste directory zetten, een programma de-installeren is zo simpel als het mapje weggooien. Een programma van de ene op de andere computer zetten is zo simpel als het mapje kopieren (op bijv. CD-R) en op de andere computer plakken.

Helaas is Klik nog niet zo bekend, en wordt het nog niet zoveel gebruikt. Enig nadeel is dat, doordat er geen gedeelde libraries meer zijn, je veel meer hardeschijf-ruimte nodig hebt, maar dat is vandaag de dag bij moderne computers niet zo'n groot probleem meer.

Kortom, eigenlijk lost het Klik-systeem bijna alles op; het enige wat eraan ontbreekt is marketing.

[Reactie gewijzigd door kidde op 9 augustus 2007 15:29]

Wat mij nooit duidelijk is geweest is waar de instellingen en gebruikersafhankelijke bestanden blijven. Want ook voor de Mac heb je 'uninstallers', bijvoorbeeld App Zapper, waardoor ik denk dat ook de OS X manier niet echt clean is als je de applicatie weer 'wegsleept'.
Ik ben er zelf nog niet aan toegekomen om het te testen, maar ik hoor van verschillende kanten dat RPM-packages makkelijker te bouwen zijn dan DEB-packages.

Het is misschien handig om de LSB eens wat te udaten. Op dit moment is alleen het package-formaat gestandaardiseerd in de LSB. Niet dat veel distributies zich daaraan houden, maar daar kan verandering in komen als de LSB wat meer up to date is. Het package-management moet ook eens worden gestandaardiseerd.

Het beste is om een nieuw systeem te verzinnen dat met de doelen van de grootste distributies rekening houdt:
  • Het optimaal compileren van source-packages moet even makkelijk gaan als in Portage,
  • het installeren van binary-packages, zonder dependency hell, moet even makkelijk gaan als in Apt,
  • het bouwen van binary- en source-packages moet even makkelijk gaan als RPM (hier heb ik zelf geen ervaring mee).
Bovendien moet het een kwestie van op een knop drukken in Firefox (+ authenticatie) om een extern package te installeren, met tegelijk een toegevoegde repository voor de updates.

Het probleem is dat het sterkste punt van de Open Source community, veel slimme programmeurs, dit niet kan realiseren. Het zwakste punt van de Open Source community, geen organisatie, zorgt ervoor dat standaardisering niet te forceren valt.

Het enige waar je op kan hopen, is dat Novell, Canonical en Red Hat samen gaan werken om een systeem te bouwen dat "goed genoeg" is om op over te stappen. Dan krijg je een de-facto standaard, iets wat nogal mist op dit moment.

Als er uiteindelijk één overheersend systeem is, waarbij het makkelijk is om portable packages te maken en repositories op te zetten, dan zal je zien dat het aantal programma's dat je unmanaged, dus op de configure-make-install manier, van source moet compilen opeens sterk vermindert.

[Reactie gewijzigd door DOT op 9 augustus 2007 13:22]

Ik ben er zelf nog niet aan toegekomen om het te testen, maar ik hoor van verschillende kanten dat RPM-packages makkelijker te bouwen zijn dan DEB-packages.
Je kan makkelijk een debian package maken vanaf de source. Inplaats van 'make install' ga je voor 'checkinstall' wat een package voor je bakt en gelijk installeert. Je kan dan zelf nog wat informatie toevoegen binnen de pakket-informatie, om het vervolgens te verspreiden. Het is nog wel commandline ja, maar voor de rest is het echt niet zo moeilijk.
En daarnaast: wanneer krijgen eindgebruikers nu te maken met het bouwen van een pakketje? Alleen het downloaden en installeren is belangrijk. En als gdebi (zie onder) nu alien support krijgt (zodat het ook rpm's slikt) is het helemaal een pracht programma :)
Bovendien moet het een kwestie van op een knop drukken in Firefox (+ authenticatie) om een extern package te installeren, met tegelijk een toegevoegde repository voor de updates.
Voor debian packages heb je dat al: gdebi (afbeelding).
Als je in Gnome dat programma toewijst voor een package kan je klikken in Firefox -> openen met gdebi -> Installeer en je bent klaar.

Voor een repository blijft het nog wel even dat het een bestandje is (/etc/apt/sources.list) met daarin elke regel een repo. Op zich erg handig en efficient, maar voor een beginner niet gebruiksvriendelijk. Gelukkig heeft Ubuntu daar ook een oplossing voor, een frontend om "3rd party" softwarebronnen toe te voegen (zie dit wiki artikel).
Het enige waar je op kan hopen, is dat Novell, Canonical en Red Hat samen gaan werken om een systeem te bouwen dat "goed genoeg" is om op over te stappen. Dan krijg je een de-facto standaard, iets wat nogal mist op dit moment.
Als RedHat met zijn vernieuwingen in het rpm systeem nu eens ging overstappen op apt, was het gelijk klaar :p

[Reactie gewijzigd door mithras op 9 augustus 2007 13:48]

Het gaat mij niet om dat de eindgebruiker makkelijk een package kan bouwen: het gaat me er om dat het zo makkelijk wordt voor developers om een goed portable package te bouwen (en dat kan je dus niet met checkinstall), dat ze het niet meer bij de source-code laten. Je ziet nu vaak genoeg dat niet alle major-distro's een package hebben op de site, of dat er zelfs alleen maar de source staat.

Zoals in het artikel dus verteld wordt: er moet een gezonde ISV-markt ontstaan. Je moet gewoon naar een website kunnen gaan en daarvandaan een pakketje installeren, in plaats van wachten totdat je distro-bakker het in de repository opneemt, of het zelf van source te moeten compileren.

[Reactie gewijzigd door DOT op 9 augustus 2007 15:07]

Als RedHat met zijn vernieuwingen in het rpm systeem nu eens ging overstappen op apt, was het gelijk klaar
Euhm, nee, want dan heb je nog steeds rpm Jij zult bedoelen dat Redhat yum en rpm moet vervangen door apt en yum. Apt heeft één merkbaar voordeel op yum, en dat is dat het sneller is. Maar sinds Redhat zich met yum bemoeit is daar een forse verbetering te zien.

Maar goed, wat schiet je er mee op? SuSE en Redhat gebruiken beiden rpm, maar het blijft onverstandig om een voor SuSE gebakken rpm op een Redhatsysteem te installeren. Het verschil tussen de verschillende packagemanagementsystemen is alleen vervelend als je geregeld op verschillende systemen moet werken.
Bedoel je niet "moet vervangen door apt en rpm"? ;)

Naast nog het feit dat apt gewoon te gebruiken is onder Fedora en RedHat, ik heb het jarenlang gedaan. Maar ben zelf al weer een tijdje over op Smart (http://www.smartpm.org)

Nee, package management is perfect onder Linux IMHO, wat ik graag verbeterd wil zien is een manier op simpel nieuwe software repositories toe te voegen. Voor Fedora zijn er een aantal 3rd party repos die ik altijd aanbeveel, maar uitleggen hoe mensen die moeten toevoegen is toch altijd wel lastig.
Je hebt van de PMS standaard gehoord?
In principe is het wel de kracht van Linux dat je bjivoorbeeld zowel apt als portage hebt. Maar helaas bestaat er dan ook nog wel de rpm's.
APT en RPM, appels en peren.
RPM inferieur? Wss omdat je zelf debian packages gebruikt zeker?
Ok, nu snap ik het. Ik ben niet bepaald een gevorderde Linux gebruiker dus ik dook altijd maar de terminal in om dingen te installeren, zoals vaak in de readme staat.
Ik zou graag één bepaalde installatie methode van software zien. Nu zie je nog. rpm's .deb's. tar.gz en b2z.
Dat, samen met de .deb/.rpm war hierboven, is heel het probleem niet. Het probleem is veel meer dat in Suse bepaalde bestanden op een andere locatie staan dan in bijvoorbeeld Fedora of Gentoo. Dus de locaties waar bestanden staan is vaak niet eenduidig.

Wat is bijvoorbeeld het verschil tussen /var/tmp en /tmp/var? Wanneer moet iets in /usr/local staan (Gentoo zet hier nooit bestanden, andere distributies weer wel)? Wat moet er in /etc/rc.conf staan (in BSD staat hier iets totaal anders dan in Linux)? Wat is het verschil tussen /usr/share/doc en /usr/doc? Wanneer staat iets in /bin, /sbin, /usr/bin of /usr/sbin?

Verder geven de configuratie-bestanden ook een hoop hoofdpijn, deze worden per distributie vaak ook verschillend afgehandeld. Vooral de configuratie-bestanden updaten is een hels probleem. Eigenlijk zou heel de /etc directory gevuld moeten worden met XML-bestanden. Als er dan nieuwe configuratie-bestanden bijkomen, kunnen de oude veel gemakkelijker worden ge-update: Nieuwe onderdelen kunnen automatisch worden toegevoegd, en door de gebruiker aangpepaste regels kunnen automatisch behouden blijven.

Ook is de manier waarop je in programma's support geeft aan bepaalde technologieën (een soort 'add-ons', of toegevoegde modules) vaak heel verschillend. Als ik in Gentoo links met ssl ondersteuning wil, kan ik gewoon links installeren en een USE-flag aanzetten, maar in Debian moet ik naast links ook nog eens links-ssl installeren.

Dát is voor softwaremakers het probleem, híer krijgen Novell en anderen hoofdpijn van, en niet of dat geheel nou verpakt moet worden in een .deb of .rpm bestandje, want die discussie gaat feitelijk nergens over. Immers, als alle locaties en configuratie-bestanden gestandaardiseerd zijn, en de manier waarop add-ons voor software gespecificeerd worden ook, maakt het niks uit of ik een .deb, .tb2 of .rpm heb, omdat ik een .rpm/.tb2 en .deb dan zondermeer onderling om kan zetten zonder al te veel moeite.

[Reactie gewijzigd door kidde op 9 augustus 2007 15:40]

En dan hoop je dat je alle dependencies, frameworks en VM's maar geïnstalleerd hebt. In Linux klik je bij KUbuntu bijvoorbeeld gewoon op het programma wat je wilt hebben en het wordt geïnstalleerd. Je hoeft niet eens op internet te gaan zoeken naar de zo geliefde setup.exe, nee, deze wordt voor je gedownload.

Hoe makkelijk kan het zijn? Ik geef een voorbeeld, Firefox installeren in KUbuntu:

- Ga naar het K-menu
- Ga naar Systeem
- Ga naar Programma's Toevoegen
- Klik op Webapplicaties
- Klik op Firefox
- Klik op Installeren.

Enige tijd later(vooral afhankelijk van je internetverbinding en dus je downloadsnelheid) krijg je de melding dat Firefox geïnstalleerd is, en vervolgens kan je via het K-Menu -> Internet naar Firefox Webbrowser.

Nu voor Windows?
- Start Internet Explorer
- Ga naar google.nl
- Type in 'firefox' (als je je toevallig nog kan herinneren dat het programma Firefox heet)
- Klik op de link met www.getfirefox.com of een andere die je een download beloofd.
- Klik op 'Download Nu'
- Selecteer een plaats waar je je setup.exe wilt opslaan
- Ga kofie drinken
- Minimaliseer alle vensters om op je bureaublad te komen
- Zoek tussen alle icoontjes naar het Firefox Setup exe bestand en klik erop
- Accepteer de beveiligingswaarschuwing van Windows dat je dit bestand toch echt wilt uitvoeren
- Druk op next
- Druk op next
- Druk op next
- Druk op next
- etc(als je toch alleen maar op Next hoeft te klikken waarom zijn de schermen er dan...?)
- Zoek in je toch al overvolle start menu naar het Mozilla Firefox menu'tje en start daar Firefox Webbrowser op.

Nu wil ik niet veel zeggen maar de Linux methode is toch een stuk eenvoudiger, en duidelijker. Dankzij de catagorie-indeling in het software-installatie-scherm hoef je niet eens de naam van het gewenste programma te onthouden, je krijgt een mooie lijst met allerlei webbrowser.

Hoe is Windows nu makkelijker? Linux is anders, maar anders is niet per definitie slechter. En er hoeft helemaal niets gecompileerd te worden, dat is allemaal al voor je gebeurd. Niets omslachtigs aan.
Klinkt leuk maar als mensen het zelf gaan gebruiken werkt dat weer helemaal anders. Ik heb ook firefox op ubutnu en op een dag wil je daar de flash plugin, jre, acrobat reader en nog wat van die dingen er bij hebben voor firefox. Dan worden er door sommige bedrijven rpm's op de site gezet voor die paar linux gebruikertjes en blijkt dat ubuntu daar uit zichzelf weer helemaal niets mee kan ! Dan ga je op zoek naar een .deb welke door bijna helemaal niemand wordt geleverd Dan ga je op zoek op de ubuntu forums hoe je een rpm alsnog kan instaleren etc etc en je bent weer een paar uur kwijt terwijl je op windows alleen maar je .exe hoeft te draaien en zelfs de hele oude win3.11 programmas het vaak nog doen op de veel nieuwere windows OS-en. Ik vind het typisch dat linux met wine het mogelijk probeert te maken om windows programma's te draaien terwijl er zoveel te doen is om gewoon een simpel uniform linux systeem te krijgen.

Daarnaast is het idee van repositories ook gewoon een probleem opzich. Je kan wel even makkelijk apt-get doen maar dan blijkt dat adobe uit de repository is gehaald omdat een GPL fan (freak? ) iets aan te merken had op de licentie van adobe en het programma er toe maar even er uit heeft gegooit. Dan wordt je aangeraden op de ubuntu forums om maar even een andere repository toe te voegen en direct is je hele systeem gevoelig voor lekken via de repositiry (zelfs als je meestal als user inlogt) .

Daarnaast moeten er ook weer allemaal mensen die packages controleren wat tijd en geld kost en wat tot gevolg heeft dat een heleboel ubuntu packages heel erg veroudert zijn Hier kom je natuurlijk pas weer achter nadat je hem hebt geinstalleerd via dat mooie apt-get zodat je hem alsnog kan verwijderen, op kan zoeken via de "echte" site etc etc

Waarom lukt het windows wel al tijden lang met 1 simpel formaat terwijl er voor die 2% linux gebruikers een hand vol verschillende formaten zijn :'(. Ik heb een seieuze poging gedaan met ubuntu en als het mij met moeite lukt dan lukt het 90% van de mensen helemaal niet.
Omdat er nu eenmaal heel veel verschillende distros zijn. Er wordt ook langs verschillende wegen vanuit verschillende paden ontwikkeld. Uiteindelijk is er wel eentje die (darwin) wint.

Vergeet niet dat Ubuntu erg jong is. En Debian waar het vanaf komt is weliswaar zeer robuust en stabiel maar ook draconisch t.a.v. non open source zaken.

Neem Fedora, het oude redhat, of suse etc. Die richten zich al veel langer wat meer op de desktopgebruiker en bestaan al heel wat langer. Gevolg daarvan is dat de repositories heel erg groot zijn en ze ondersteunen het RPM formaat wat je o zo vaak tegenkomt. Zelf heb ik suse en ik installeer alles met de Smart Package Manager die gewoon alles oplost voor me.

Moet je toch af en toe eens compileren, bedenk dan dat het nadeel (bewerkelijk) ook een voordeel heeft. De software wordt gebouwd op JOUW systeem, op basis van JOUW instellingen en library versies. Dat geeft doorgaans een stabieler en sneller geheel dan een standaard gesloten applicatie die allemansvriend moet zijn.
Ik heb vorige week nog een laptop geïnstalleerd met Ubuntu 7.04, ook al gebruik ik linux nog maar een half jaar het gaat gewoon VEEL sneller om een machine werkend te krijgen dan met windows.

Formatteren en installeren met de standaardpakketten die er in zitten (openoffice, firefox etc) pakweg 30 minuten.

Automatix2 er op en zaken als codecs, flash, shockwave, extra fonts, opera en nog een aantal zaken zijn een fluitje van een cent.

Voor de rest gewoon in synaptic de paketten aanduiden die je wil gebruiken, apply, paar minuten wachten en klaar.

Wat hardware betreft heb ik op mijn Dell latitude D410 helemaal NIETS van drivers moeten installeren, alles werkte gewoon out of the box, zelfs de toetsjes om het scherm lichter/donkerder te maken, het geluid harder of zachter te zetten, wifi op en af te zetten etc...

Voor wifi in het menu nog aanvinken dat het gebruikt mag worden en klaar.

ALLE pakketten worden bovendien automatisch up to date gehouden in tegenstelling tot een windows machine.

Voor applicaties die enkel een .rpm distributie hebben kan je alien installeren en dan door het commando sudo alien -i blah.rpm uit te voeren een installatie doen... piece of cake, de console is helemaal niet zo evil als je denkt :)
Ik heb een seieuze poging gedaan met ubuntu
Oh please, je hebt nog niet eens de FAQ doorgenomen als je niet weet dat je software zeer gemakkelijk kan installeren met Synaptic of Adept. Je moet dus haast *nooit* naar de website van de softwaremaker gaan om er iets te downloaden, aangezien alle packages netjes voor jou in 1 interface te installeren zijn dmv ca. 3 muiskliks... Noem je dat een serieuze poging?

Veel mensen vergeten dat ze zijn opgegroeid met windows en het met de paplepel hebben binnengekregen - de ouderen vergeten hier dan gemakshalve dat ze zelf heel wat tijd hebben moeten investeren om met windows te leren werken - waarom kan niemand dan dat beetje tijd opbrengen om een fundamenteel ander systeem te leren kennen?

Ik mag mezelf een gevorderde gebruiker / installateur / hersteller in windows noemen, maar toen ik begin vorig jaar de sprong in linux waagde, moest ik het feit accepteren dat ik daar een newbie was en heel wat documentatie moest lezen. Enkele maanden later was ik zelf in staat om van een pc zonder al te veel exotische hardware een linux-systeem te maken, en vandaag leer ik nog steeds bij om zo steeds complexere problemen op te lossen.

Sinds oktober vorig jaar heb ik mijn windows al drie keer nodig gehad, en telkens was het omdat de ikea keukenplanner geen linux-versie kent. Daarbuiten heb ik altijd alles kunnen doen onder linux, en ik slijt heel wat uren voor de pc/linux: kantoor, grafisch werk, muziek - you name it.

De standaard is er mijns inziens al: de softwaremaker reikt zijn programma aan als source en de distro-verantwoordelijken maken er een package van. De eindgebruiker heeft enkel dit package nodig (zij het nu in deb, rpm, tar.gz of wat nog allemaal - de eindgebruiker merkt deze verschillen niet).

Zelf gebruik ik op kantoor debian en thuis archlinux. De debian repo's bulkt uit van de software, maar deze is helaas al snel verouderd. Archlinux is één van de meest bleeding edge-distro's die ik ken, en zelfs daar ben ik nog niet zoveel software tegengekomen die niet ofwel standaard in de repo's zit ofwel dmv een PKGBUILD van een andere gebruiker op 1-2-3 zelf kan gecompileerd worden.

Uiteindelijk kan het mij niet schelen dat iedereen die ooit eens een ubuntu-livecd gedurende 20 minuutjes heeft gebruikt hier komt blaten dat het toch niet hetzelfde is als windows. Mijn beide kantoorgenoten zijn omzeggens pc-analfabeten, en die zijn zonder problemen overgeschakeld met mij op debian. Na twee weken waren ze dat gewend. Nu ben ik bezig mijn 81-tachtig jaar oude grootvader te leren werken op archlinux - guess what...
Nu noem je een programma wat aanwezig is in de repositories. Heel veel programma's moet je zelf nog compileren, en dan werkt windows toch echt wel wat makkelijker.
Dit is net een voordeel: vertrouwde software kan je heel makkelijk installeren, wil je andere software installeren moet je weten waar je mee bezig bent (zie ook Why Linux Viruses are fairly uncommon.
Daabij komt nog dat als er zich iets niet in de repositories bevindt dit meestal een goede reden heeft (niet populair wegens beter alternatief dat wel in de repositories zit, onveilig, onstabiel, ...) Ik heb persoonlijk ook praktisch nooit manueel software moeten compilen.
De meeste gangbare programma's staan (in het geval van Ubuntu toch) gewoon in de repositories. Als dat niet zo is kun je meestal wat extra repo's toevoegen. Mocht het dan nog niet werken is google je vriend (google naar programmanaam deb).
Ik werk al drie jaar met Ubuntu, doe een technische studie dus ik heb al wat exotische software nodig gehad, en heb tot nu toe 5 programma's zelf moeten compilen.
Nou gebruik ik toch een jaar of 5 linux en kan ik de keren dat ik een programma heb moeten compileren op 1 hand tellen. Dus zo vaak (bijna nooit) komt het niet voor.
Nu voor Windows?
- Start Internet Explorer
- Ga naar google.nl
- Type in 'firefox' (als je je toevallig nog kan herinneren dat het programma Firefox heet)
- Klik op de link met www.getfirefox.com of een andere die je een download beloofd.
- Klik op 'Download Nu'

---------
Kies niet voor opslaan maar uitvoeren.

Verder wordt de wizzard gemaakt door Firefox dus 4x next is 4x doro de makers van Firefox zo bepaald.

Het mooie is dat dit principe voor ALLE programma's zo werkt, daardoor kon mijn moeder ook zelfstandig Firefox op haar PC zetten.

Maar: nu een programma gebruiiken welke niet standaard is. In windows is het hetzelfde als met Firefox.

En in Linux?

Precies.
En in Linux?
In Debian GNU/Linux moet je eerst het administrator paswoord geven voordat je een programma kunt installeren dat voor iedere gebruiker toegankelijk is. Dit voorkomt spy-ware en een langzaam systeem.

Verder is het gewoon in de lijst aanvinken wat je wil hebben. Bijv in de sectie 'net' is Iceweasel te vinden. Aanvinken, druk op 'Apply', klaar.
In bijv. Gnome is het programma link dan terug te vinden in de sectie dat LOGISCH is; Iceweasel staat in sectie 'Internet'.

Samengevat: authenticatie, selectie, apply, klaar!

Simpeler is het echt niet te maken.
Het is door Firefox gemaakt, niet bepaald. Het is namelijk standaard op WIndows om tussen de 4 en 10 keer op Next te moeten drukken om je software te installeren. Ik snap niet dat niet iemand op het idee is gekomen om op het eerste schermpje een knop te maken 'Just install' waarna je dus niet meer 10 x op next hoeft te klikken.

Verder werken de repositories voor zowel normale als exotische software, er is bar weinig te vinden wat er niet in staat.

En als softwaremakers echt zo lamlendig zijn dat ze niet het uurtje werk erin willen steken om even uit te zoeken hoe ze het wel in een keer compatible met meerdere distro's kunnen maken kunnen ze altijd nog AutoPackage(http://www.autopackage.org/) gebruiken. Dit werkt op alle distro's en heeft ook een ingebouwde dependancy-solver. Je krijgt hiermee gewoon een soort 'setup.exe' die je kunt uitvoeren, onafhankelijk van je distro.
Wat jij hier uitlegt is inderdaad heel erg gemakkelijk, maar dit is het probleem ook niet. Het probleem is n.l. dat Ubuntu weer anders is dan RedHat, wat weer anders is dan SuSE, dat weer anders is als Gentoo.

Ik vind dit persoonlijk zelf een hele goeie instelling van Novell maar er zal een groter draagvlak voor dit idee moeten komen voordat er ook echt iets mee gedaan zal worden.

Als voorbeeld noem ik "nano" een kleine texteditor:
In debian zit die er standaard in, bij SuSE niet en valt ook niet te installeren via YaST. Dan moet ik eerst de Nano website opzoeken.... kijken of er een installer is voor SuSE en laten we even zeggen dat die er wel is voor RedHat en Mandriva maar niet voor SuSE. Dan moet je de source downloaden een degelijke ./configure doen en dan nog een keer de hele pruttel gaan compilen. En dit moet ik voor elke update herhalen (want de YaST update zal hem echt niet gaan vinden).

Het zou echt zoveel fijner zijn voor eindgebruikers en ontwikkelaars dat er echt een standaard voor zou zijn zodat 1 installer op alle Linux systemen zou werken. maargoed, je zit met zoveel verschillende architecturen, libraries (die ook weer afhankelijk zijn van architectuur), etc. Dat dit misschien wel eens een heel lastig vraagstuk zou kunnen zijn.

De tijd zal het leren :)
Het leuke is dat wat jij over updates noemt net zo goed voor Windows geldt. Een van de grote voordelen van de package managers is dat ze je hele systeem up-to-date kunnen houden. Als er een update voor een van je programma's is, wordt dit automatisch gesignaleerd en aangeboden om dit te installeren. Bij Windows gebeurd dit niet, of in ieder geval niet centraal. Hoe vaak heb ik niet gezien dat een Windows-systeem vol staat met allemaal update-daemons. Symantec LiveUpdate, Windows Update, Java Update, Adobe Update en ga zo maar door. En de programma's die zelf geen update-daemon willen bouwen vallen buiten de boot, de gebruikers zullen dan zelf regelmatig de website moeten opzoeken om te kijken of er een nieuwe versie is.

Persoonlijk ben ik niet zo'n voorstand van RPM-based distro's, dus daar zal ik niet veel over zeggen omdat de paar keer dat ik het geprobeerd heb, ik het helemaal niets vond. Gentoo en (K/X)Ubuntu of Debian in het algemeen vind ik heerlijk werken en daar heb ik ook bar weinig kunnen ontdekken wat niét in de repo's staat. Bij Gentoo nog veel minder dan bij Ubuntu; dan moet het wel héél erg alpha-software of slecht onderhouden software zijn. XMMS is er nog niet zo heel lang geleden uitgegooid. Vond ik op zich wel jammer, aan de andere kant niet meer dan logisch. Zo lang geen update's, feitelijk zwaar verouderd en vol bugs en security issues. Dan is het ook onverantwoord om gebruikers dat te laten gebruiken, terwijl er perfecte alternatieven zijn. AmaroK, nooit meer iets anders.

Conclusie: software die niet in de repo's staat is over het algemeen door de maintainers van de distro niet geschikt bevonden voor algemeen gebruik. Dat beslissen ze niet voor niets, dat betekent dat het slechte/oude/alpha software is en dat als je dat per sé wilt gebruiken, je daar best wat meer moeite voor mag doen omdat óm het te gebruiken je eigenlijk ook al geen beginner moet zijn. Enige uitzondering is commerciele software. En daarvoor zie ik autopackage eigenlijk als perfecte oplossing. Oftewel: er is geen probleem.
Tot wanneer je een stuk software wil gebruiken dat NIET in de repositories zit, dan begint het geknoei...

Er is wel een RPM, maar geen deb (ik gebruik Ubuntu AMD64), of als er al een deb is is hij niet voor AMD64, ... kan je van source compilen, met nog een hoop nest vandien ....

Er ontbreekt een library, en die is dan weer afhankelijk van die, maar die is dan weer de verkeerde versie, ....

@MadEgg
Het gaat mij niet alleen om de 64bit deb versies, ik spreek in het algemeen. Ook voor 32bit edities blijft het soms sukkelen met source files, libraries,.....
Ik haalde AMD64 aan omdat hier onlangs nog mee in de nesten zat...

[Reactie gewijzigd door Spooik op 9 augustus 2007 12:38]

Tot wanneer je een stuk software wil gebruiken dat NIET in de repositories zit, dan begint het geknoei...
Noem 1 programma of tool dat niet te vinden is in bijv. Debian Repository?

Er zijn letterlijk tienduizenden programma's te vinden.
Alleen Skype heb ik van hun website moeten halen (is tevens closed-source).
Noem 1 programma of tool dat niet te vinden is in bijv. Debian Repository?
Er zijn genoeg programma's die niet in de repositorys te vinden zijn of in zo'n archaische versie dat ze kwasi onbruikbaar zijn. Bijna alle software die wxwidgets gebruikt bvb. Allez, saga-gis bvb. Of een recente versie van pgadmin3. Nochtans twee programma's die ik dagelijks gebruik.

En verder zijn er natuurlijk bijna eindeloos veel commerciële paketten die niet in de repositories kunnen zitten, en dan maar voor x aantal linuxversies een andere installer meeleveren (bvb matlab).

Tot slot denk ik dat veel software (al dan niet commercieel) nu niet voor linux ontwikkeld wordt omdat er geen standaard is. Als je wil dat linux mainstream wordt (ik vind dat trouwens geen prioriteit) moet je er gewoon voor zorgen dat iemand die niks van computers kent gewoon een cd-rom binnenhuisarchitect voor linux van de gouden serie kan kopen. En dat die dan onder alle (enfin alle x86) varianten werkt.

[Reactie gewijzigd door johanvdw op 9 augustus 2007 14:55]

Wat ik bedoelde te zeggen, is dat ikzelf geen programma nodig heb dat niet in mijn repository is te vinden. En ik swing van encryptie naar muziek naar video naar wiskunde.

Je voorbeeld van 'matlab' is juist slecht gegeven. Matlab kan vervangen worden door 'octave' in combinatie met 'gnuplot'. Sterker nog, octave code werkt gewoon onder matlab!
closed source nvidia drivers :/ die je vervolgens ook fijn zonder X mag installeren, werd ik erg happy van de eerste keer (NOT)...

heerlijke systemen maar debian repository heeft bijvoorbeeld zo z'n beperkingen ;)

EDIT en ja, de nvidia drivers zitten in de debian main repository. laatste keer dat ik keek waren dit de opensource dingen die niet eens aan hardwareversnelling hoeven te denken. lekker is dat, dikke PC en nog geen leuke eyecandy, nee, je moet je CLI in.

[Reactie gewijzigd door iceheart op 9 augustus 2007 17:31]

Zit wel degelijk in de repository onder de naam: nvidia-glx. En de tijd toen het niet in de repository zat, was er wel een debian pakket dat geautomatiseerd de drivers van de NVidia website afhaalde en de binary blobs speciaal ging linken speciaal voor jou kernel! Hiervoor is er trouwens ook nog de module-assistant.

Voor je opmerkingen/verwijten maakt ivm programma's die niet te vinden zijn check de facts. Je komt echt zéér zelden een pakket tegen dat niet in een (al dan niet officiële) repository steekt, en zoals iemand al vernoemde... checkinstall is enorm makkelijk in gebruik.
closed source nvidia drivers :/ die je vervolgens ook fijn zonder X mag installeren, werd ik erg happy van de eerste keer (NOT)...

heerlijke systemen maar debian repository heeft bijvoorbeeld zo z'n beperkingen
Niets weerhoud NVidia een (toevoeging aan de) repository te maken.

Zoals je zegt, ze zijn closed source. NVidia toont weinig goodwill naar hun gebruikers. Zo had Windows Vista probleem met hun drivers, hetzelfde uitliep in een class action suite:
http://hardware.slashdot.org/article.pl?sid=07/02/03/0110248
Het is dus niet 1-2-3 logisch om NVidia aan te schaffen.

[Reactie gewijzigd door 201724 op 9 augustus 2007 14:31]

apt-get nvidia-glx
apt-get nv-xorg-glx

een van die 2
anders apt-cache search nvidia

deze staan al JAREN in de debian repository
"Het was al fout #1 om NVidia aan te schaffen."

Dus jij raadt ati aan? Laatste keer dat ik checkte had die helemaal nog geen linux drivers...

Kan inmiddels verbeterd zijn hoor, ik ben nvidia gebruiker en hou ati niet meer zo in de gaten.
De laatste versie van aMSN?

*en goestin gaat door voor de wasmachine*
(nofi hoor, ik vind debian echt super)

Maar zie ook mijn opmerking hieronder, ik vind het een goed idee van Novell.
Eerlijk is eerlijk, net als Windows 64-bit heeft Linux met 64-bit deels hetzelfde probleem: geen ondersteuning. Wordt steeds beter, net als voor Windows, maar ideaal is het nog niet. Is overigens makkelijk op te lossen, als je de 32-bits basis-libraries installeerd kan je zonder problemen 32-bits software draaien, naast je 64-bits software.

Voor 32-bits KUbuntu heb ik nog niets kunnen vinden wat niét in de repositories vond, behalve commerciële toepassingen.

Bij Gentoo is het nog beter; ook voor veel commerciële programma's op CD of DVD zijn ebuilds die de installatie voor je afhandelen vanaf CD zodat je ook daar de package manager kan gebruiken.

Nog een leuk voorbeeld: laatst op een LAN-party gingen we UT2004 doen. Op een groot deel van de computers stond deze nog niet, dus moest geïnstalleerd worden. Uren waren de Windows-gebruikers bezig met het vinden van de patches en bonuspacks. Ik typte gewoon 'emerge ut2004' in en ging mijn biertje opdrinken voor de TV, terwijl automatisch vanaf de DVD ut2004 geinstalleerd werd, de bonuspacks gedownload en geinstalleerd en alle patches geinstalleerd. Lijkt me toch duidelijk.
Dan moet je softwaremaker zorgen dat'ie in die repostoties komt. Als de software vrij is zal dat uiteindelijk vanzelf gebeuren, anders ben je afhankelijk van de softwarebakker.
Oneens.
Die verscheidenheid aan packagemanagers en die verschillen tussen distro's zijn er allemaal omdat elke distro een ander publiek aanspreekt. Er zijn mensen die vinden RPM helemaal geweldig, anderen zweren bij de depency checking van DEB. Fedora richt zich op de desktop, Gentoo op de knutselaars. Het is allemaal Linux, maar de vorm waarin het komt is steeds anders.
Niemand wordt er blij van als alles (bijna) hetzelfde wordt, behalve het grote geld.
Totdat je linux zakelijk gebruikt en blijkt dat de ondersteuning van pakket A enkel bestaat voor Linux distributie X terwijl pakket B enkel beschikbaar is voor distributie Y.

Zolang linux!=linux blijft linux voor de knutselaars en zijn distributies als Red Hat en Suse gewoon té verschillend om door elkaar te gebruiken. Precies het aloude Unix probleem. Overstappen van de ene variant naar de andere was vrijwel onmogelijk. En dat geldt nu onderhand ook voor de zakelijke Linux gebruiker. En dat is voor de linux gemeenschap een slechte zaak.
Linux distributies doen hun best om de meest gangbare software beschikbaar te maken via hun pakket manager. En alles wat je op die manier installeert werkt zonder problemen.

Ga je daar buiten om dan zit je idd met een hoop problemen. De verschillende formaten zijn niet het grootste probleem, maar wel de afhankelijkheden. Als je een bepaalde bibliotheek nodig hebt en je kan die niet geïnstalleerd krijgen of die is niet compatibel met een andere versie die een andere applicatie nodig hebt dan zit je met een probleem. Het is daarvoor dat ik liever oplossingen zie ontstaan.
De ALLERBESTE instalatie methode is deze van apple bij OSX.

Dit is dan ook iets dat ze zeer goed voor elkaar hebben.

Hoe instaleer je een programma?
In de meeste gevallen is het niet nodig om te instaleren, gewoon starten (vanaf een DMG-schijf)
Soms is het een noodzaak dat je het programma sleept naar de map Applications


Nou moe, is dat zo moeilijk?
Je vergeet erbij te zeggen dat je eerst moet betalen.
Ze (LSB) propageren iig wel het gebruik van rpm's:
http://refspecs.freestand...re-generic/swinstall.html
Al zou ik persoonlijk liever zien dat ze apt gaan gebruiken.
Je haalt het door elkaar...

rpm en deb zijn beide packaging formaten.
yum en apt zijn beide distributie systemen voor packages.
Mee eens. Bij Ubuntu heb je altijd nog Synaptic package manager, maar het blijft toch omslachtig om weer in de terminal te moeten duiken als een applicatie daar niet in staat.


Het is natuurlijk logisch dat vanwege de verschillende distributies de applicaties zelf gecompileerd moeten worden, maar dat moet toch minder omslachtig kunnen?
maar het blijft toch omslachtig om weer in de terminal te moeten duiken als een applicatie daar niet in staat.
op servers draai ik echt geen X11, dus ik ben eerlijk gezegt wel blij met dpkg, rpm, apt-get en yum.

Dit limiteerd zich niet alleen tot grafische desktop omgevingen, dus hou dat alsjeblieft scherp in de gaten.

Volgens mij is dit de derde keer dat er gesproken wordt over een 'standaard', de andere twee zijn een behoorlijk roemloze (maar niet geruchtloze) dood gestorven. Gezien de populariteit van Novell in Linux land momenteel vermoed ik niet dat dit ergens gaat komen.

Als ze verbetering willen, laat ze dan eerst het kernel development eens onder handen nemen, want als ik het vergelijk met de BSD's vind ik dat werkelijk dramatisch.
op servers draai ik echt geen X11, dus ik ben eerlijk gezegt wel blij met dpkg, rpm, apt-get en yum.
Zou je niet nog blijer zijn als er maar één toepassing daarvoor was in plaats van 4? Da's nou net de strekking van dit verhaal.
Als ze verbetering willen, laat ze dan eerst het kernel development eens onder handen nemen, want als ik het vergelijk met de BSD's vind ik dat werkelijk dramatisch.
Maar kernel development interesseert de eindgebruiker geen zak (ja ja, stabiliteit, maar ze zijn wel wat gewend), zolang de distro er maar voor zorgt dat er een bruikbare kernel in het systeem zit. Daar kun je als BSD-fan wel van gruwelen, maar er zijn wel meer dingen die niet zo mooi zijn als je de motorkap openmaakt.

Verder is de kernel nou net het gedeelte wat de distributies delen, dus daar zit hem het probleem niet. Het onderwerp is niet "Linux beter maken" maar "fragmentatie van de Linux-softwaremarkt tegengaan", en de kernel doet in dat verhaal hoegenaamd niet terzake.
ik denk niet dat ze dit bedoelen. Met applicaties als alien kan je gemakkelijk zowel deb's als rpm's installeren of je zorgt ervoor dat je distro ze allebei kan afhandelen. Ik denk dat ze het verschil tussen window managers etc bedoelen. KDE en GNOME functioneren namelijk anders en hoewel het bij een goed ingesteld systeem gewoon goed moet werken zal het niet integreren en ik denk dat ze dat willen.
Dit artikel gaat niet over packagemanagers, maar over een bevroren basissysteem industrie standaard (toolchain + kernel ) waar alleen bugfixes op worden gedaan. Verder is de source tarball zoals hierboven al vermeld een generic package.

Meer kan en moet je denk ik niet vastleggen, de chaos is de vloek en de zegen van floss. Moet er niet aan denken dat er een eenheidsworst ontstaat, zoals die zich nu al met ubuntu aftekent.

Probleem onstaat eigenlijk alleen wanneer men proprietary precompiled software wil draaien, die niet tegen hetzelfde basis systeem gebouwd is.

Proprietary software draaien is niet het doel van floss, en hier zal ook nooit de nadruk op moeten komen te liggen of een ingrijpende concessie voor gedaan moeten worden.
Ik zou ook eens het bron artikel moeten lezen voordat ik reageer..
The Linux distribution market won’t expand until the platform is consistent. “It’s a vision … so that ISVs can certify their application once and seamlessly port it across multiple Linux distributions. The vendors win. It opens up a broader market for applications and the customers,” he said.
Het grote probleem is dat de ontwikkeling van libraries zo ontzettend snel gaat onder Linux. Er wordt gelukkig wat meer aan backwards compatibility gedacht tegenwoordig.
Goh, Novell van iedereen gaat de Linux Community even vragen om zich niet zo te fragmentiseren. Dat is nogal hypocriet aangezien ze zelf ook hun steentje erg bewust hebben bijgedragen, nl. de deal met Microsoft. Ze waren er natuurlijk bewust van dat niet elke distro dat ging doen, en dat het problemen, vraagstukken en vooral hevige discussies zou gaan oproepen.

Overigens is, geloof ik, de gemiddelde F/OSS mening hierover dat verdeling goed is.
GNOME vs KDE
BSD vs Linux
etc.

Wat daar uit komt is meestal hetzelfde: verbeteringen en innovatie.
(off-topic ding dat ik bedenk:
Toch ook wel logisch, aangezien het F/OSS beeld aardig "links" is, dat ze Marx's idee van these, antithese en am Ende de synthese.)
Ik zie zelf eigenlijk meer in een eenvoudig en goed systeem dat het mogelijk maakt om snel en geautomatiseerd packages te bouwen voor welke distro dan ook. Er is een reden dat er zo veel distro's zijn die dingen weer even anders doen, en dat is denk ik een kracht van Linux. De uitdaging zit erin om de onmiskenbaar negatieve effecten die het ook heeft te overwinnen zonder die diversiteit op te geven. Het zou nog mooier zijn als het gebruiken van zo'n package dan ook nog een repository (of het equivalent daarvan in die distro) zou toevoegen aan het systeem zodat het pakket automatisch mee kan komen in de update rondes.

Overigens vind ik wel dat een soort van wizard-install soms weldegelijk een gemis is. Meestal werkt emerge of apt-get prachtig, maar voor sommige pakketten zou ik het weldegelijk handiger vinden om te kunnen kiezen uit wat componenten in plaats van vast te zitten aan wat mijn distro gekozen heeft of in plaats van meer dan één pakket te moeten kiezen.
Dit zeg ik al jaar en dag. Want zeg nou zelf het is toch een echte nachtmerrie als je Hard- en software moet gaan ondersteunen en je hebt letterlijke honderde verschillende versies van een Operating systeem.
Hier is windows toch echt veel makkelijker. Gewoon het smaakje (win2K, xp, vista) + servicepack en je weet meteen hoe het vork in de steel zit.

De verschillende linux distributies komen allemaal al met een verschillende kernel versie dus verschillende hard- en software ondersteuning.

De dag dat er 1 linux-smaakje is ben ik ook van de partij. Die ene distro heeft dan ok nog eens 1 plekje ophet www waar ik alle info vind over deze distro, en ook alle patches , alle technische informatie ,..... Bedenk net Microsoft is zo slecht nog niet
De dag dat er 1 linux-smaakje is ben ik ook van de partij. Die ene distro heeft dan ok nog eens 1 plekje ophet www waar ik alle info vind over deze distro, en ook alle patches , alle technische informatie ,..... Bedenk net Microsoft is zo slecht nog niet
Ik zie het al voor me, iedere aanpassing moet eerst langs een commissie van heb ik me jou daar. Heb je een idee hoe package management met een GUI er beter op wordt? Jammer joh, eerst langs de commissie, en waag het eens de source te publiceren voor die het goedgekeurd heeft.
Met andere woorden, je kunt je afvragen of dat zo'n geweldige stap van je is, want dat is ook de dag dat Linux ten dode opgeschreven is.

De kracht van open source ligt erin dat iedereen de mogelijkheid heeft dingen te verbeteren, en om de beste distributie samen te stellen. Vaak lukt dat niet, maar soms wel. En het gebeurt op alle niveaus, van packagemanagementsystemen tot hele distributies.
Je hebt deels gelijk. Maar die 1e distro moet dan wel gaan aansluiten bij alle gebruikers. Er zijn gebruikers die op hun mp3 speler een 50mb grote distro zetten terwijl ik op mijn pc een volledige Ubuntu heb staan. Een van de sterke punten van Linux is dat het er in veel smaken is. Daar moet je niet 1 geheel van maken maar standaardiseren.
Daarom kan je installatie nog wel modulair zijn , maar de bestanden moeten uit 1 repository komen en met 1 click op de knop op een bepaald standaard niveau te brengen zijn. Daarom moet je ook dingen gaan beschrijven wat is een standaard OS maw wat zijn de standaard componenten die aanwezig moeten zijn net zoals bv bij windows heb je een basic notepad. en bij linux is dit dus nano,vi ... alle andere zijn extra programmas en behoren niet tot een core installatie. De core programma's moeten diegene zijn die je met 1 klik tot op een standaard niveau kan brengen.

Een 15mb linux installatie zou dus nooit de standaard kunnen zijn maar dat is ook geen enkel probleem want die zul je ook niet terugvinden op een desktop/server maar ergens voor een embedded systeem met een welbepaald doel.

Je zou dus een soort certifiëring moeten krijgen (isolinux9000), enkel dan mag je jezelf een standaard linux distro noemen.

[Reactie gewijzigd door klakkie.57th op 9 augustus 2007 14:04]

Misschien is het handiger een soort van virtualisatie techniek te maken, deze kan dan de juiste libs etc aanspreken en zo altijd z'n werk doen.

Een beetje zoals firefox de VM voor webaps is. firefox wordt naar het patform geport en de webapp werkt gewoon.
Ja inderdaad het meest haalbare in korte tijd is een abstracte laag rond de huidige installs te zetten. Zodat alle installs in een uniforme manier worden gedaan.

Dan moet je niet gaan klooien met apt-get install, rpm, deb, tar balls en andere exotische formaten. (ik zeg niet dat het niet werkt maar jan met de pet wil gewoon een setup.exe zien maar dan zonder de exe om de linux-fanboys niet te hard voor het hoofd te stoten)

Ubuntu doet dit al reeds maar is er nog niet. (andere flavors heb ik de laatste jaren niet meer geprobeerd)
in de huidige situatie werkt 't toch al, de meeste distro's (zoals ubuntu etc, bieden gewoon package managers aan die veelal alles voor je doen, kortom, voor jan met de pet is 't zelfs nog makkelijker dan windows,

je klikt de knop <software toevoegen> - je zoekt in de lijst naar "aplicatie" - en je klikt de rest word door buildscripts etc geregeld,

wat novel ongetwijfeld graag zou willen is een systeem dat afgekeken is van de manier waarop linspire met packages om gaat... en vooral de manier waarop men het adverteerd...
Als je apt-get, yum, emerge etc gewend bent en de meerwaarde er van inziet zie je ineens dat setup.exe belachelijk is.
Het enige wat die programmatjes doen is de DEB, RPM of sourcepackage downloaden, kijken of er nog andere stukjes software nodig zijn of bij horen en dan installeren.
Setup.exe style werkt alleen omdat in Windows land iedereen op ze eige eilandje zit te kloten. In Linux is alles open en voor iedereen toegangkelijk en gebruiken ze code van elkaar over en weer, en kun je dus nooit alles in 1 setup zetten omdat er dan weer regels moeten komen over welke libs (dll's) er allemaal in een distro moeten zitten. En je dwingt devs ook die libs te gebruiken, ookal werken ze liever met een alternatief wat niet in die regels staat.

Nee, dat uniforme gelul is leuk voor iemand bij Novell die ze geld er mee verdient, maar het doet het open karakter van Linux erg geweld aan vind ik.
Dingen als op alle systemen staan de libs op dezelfde plaats, config files op een eenduidige manier in /etc (dat laatste is vooral in ongeveer iedere config verschillend). Dat is volgens mij de LSB standaard, maar dat mag nog wel iets verder.

Note: ik ben al jaren fanatiek Gentoo gebruiker en ik vind emerge echt geweldig. Geen moeite doen met dingen downloaden, moeilijk installen maar gewoon emerge mozilla-firefox en wat later heb je firefox geinstalleerd. Ook zijn de ebuilds niet moeilijk te maken aangezien het bash is.
Maar dan nog is er veel te verbeteren qua uniformiteit en dat kan Linux inderdaad de das omdoen. Bedrijven willen geen moeite doen om 30 standaarden te ondersteunen terwijl ze er (nu) bijna niets mee winnen. Als het 1 standaard is die duidelijk beschrijft waar alles moet komen en waar iedereen zich aan houdt kunnen ze met minder werk meer mensen bereiken. Hierdoor zullen ze eerder apps naar Linux porten.
Het mooiste qua installatie blijft eigenijk nog steeds mac os x.. Je dragged & dropped de applicatie in de programma map, klaar.. Of bij een groter programma een eenvoudig.. heel eenvoudig setup schilletje
Er is al een standaard manier om (vrijwel) alles op elke distributie te installeren:

compileren van source !
Dan zit je nog met de problemen van ClassPath vars, die niet tegoei worden ingelezen.

Ook zitten de daemons in Red Hat ergens anders als bij Debian.
Zie de BSD ports tree...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True