Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 173, views: 25.040 •

Linus Torvalds heeft de release aangekondigd van de stabiele 2.6.32 Linux-kernel. De nieuwe kernel richt zich vooral op het verbeteren van 3d-graphics op een aantal Radeon-gpu's en shared memory-technologie voor kvm-virtualisatie.

TuxTerwijl in voorgaande kernelreleases druk was gesleuteld aan de diverse bestandssystemen die door het opensource OS werden ondersteund, merkt Torvalds fijntjes op dat kernelversie 2.6.32 - waar drie maanden aan is gewerkt - 'een release is zonder een nieuw filesystem'. Meest opvallend in de lijst met vernieuwingen is de toevoeging van kernel-based mode settings voor Radeon-videokaarten uit de 2000-, 3000- en 4000-serie. Deze kaarten maken gebruik van AMD R600- en R700-gpu's. Met de kms-techniek kunnen deze Radeon-kaarten betere 3d-prestaties leveren. Het is echter nog wachten op ondersteuning voor de Radeon 5000-serie.

De verse Linux-kernel biedt ook de nieuwe ksm-feature, een afkorting die kan staan voor kernel shared memory of kernel samepage merging. De ksm-techniek moet het geheugenverbruik tijdens het draaien van virtual machines via kvm verminderen door identieke geheugenmappings van gescheiden processen samen te voegen.

Kernel 2.6.32 ondersteunt Intels nieuwe Moorestown-platform en bevat optimalisaties voor energiebesparende modi met behulp van acpi 4.0. Ook zouden de prestaties van de kernel zijn verbeterd door nieuwe code voor het cpuidle-framework en het btrfs-bestandssysteem, terwijl de nieuwe devtmpfs-module de boottijd moet helpen verkorten door vroeg in het bootproces gebruik te maken van een ramdisk. Aan de lijst met hardware-ondersteuning zijn de CX25821- en SAA7164-chips toegevoegd die op recente tv-kaarten en in webcams zijn te vinden. De ondersteuning voor usb 3.0, die al in kernel 2.6.31 aanwezig was, zou nu probleemloos moeten werken. Ten slotte hebben de kernelontwikkelaars ook Microsofts Hyper-V drivers in de kernelcode verwerkt.

Reacties (173)

Reactiefilter:-11730169+1105+218+32
Netjes! Hoop nu beter gebruik te kunnen maken van mijn HD4850. :)
Misschien ben ik wel knettergek, maar waarom moet onder Linux bijna altijd eerst Support A in de kernel worden gebouwd (iets wat soms weken of maanden, of nog langer kan duren) om stuk hardware X te ondersteunen?

Onder Windows kan ik gewoon de driver van de fabrikant installeren, en dan werkt het... de HD5xxx etc wordt gewoon ondersteund in Windows XP / Vista / 7 zonder dat er één regel aan code moet worden gewijzigd in het OS. (edit: en er zit ruim 8 jaar tijdsverschil tussen de kernels van XP en 7.)

NB: Dit is geen poging om een flamewar te starten, maar een serieuze vraag.

[Reactie gewijzigd door Katsunami op 5 december 2009 00:19]

Het gaat in dit artikel over het verbeteren van de 3D graphics. De kaarten doen het in principe prima, maar kunnen geöptimaliseerd worden door de nieuwe software.
Dat is een kul argument, want een videokaart werkt onder Windows ook 'gewoon', alleen had je er dan net zo goed geen videokaart in kunnen zetten, want vrijwel alle features blijven dan ongebruikt.

Ontopic: waarschijnlijk komt dit door de box-filosofie, namelijk dat een OS out-of-the-box moet werken op je systeem zonder dat je allerlei drivers moet scoren om je hardware aan de praat te krijgen. En dat ze vaak achterlopen is een gevolg van de gebrekkige (of helemaal geen) ondersteuning van Linux door de hardwarefabrikanten, die soms overigens ook niet anders kunnen omdat ze de GNU/GPL (of aanverwante) licentiemodel niet kunnen/willen accepteren.

@durian: zo moet het eigenlijk ook :).
@esperanto: gaat op Windows vrijwel altijd goed. En een fabrikant weet toch echt wel meer van zijn product dat een stel hobbyisten die via reverse engineering achter de werking moeten komen.

[Reactie gewijzigd door Rick2910 op 5 december 2009 08:12]

En dat ze vaak achterlopen is een gevolg van de gebrekkige (of helemaal geen) ondersteuning van Linux door de hardwarefabrikanten, die soms overigens ook niet anders kunnen omdat ze de GNU/GPL (of aanverwante) licentiemodel niet kunnen/willen accepteren.
Dat hoeft ook niet, niemand dwingt je om een driver onder GPL uit te brengen. nVidia levert bv. gewoon een binary driver,
zo moet het dus niet. Tenminste als je een goed OS wilt hebben. Die binary drivers maken je systeem onstabiel en het enige wat je kan doen is HOPEN dat ze er iets aan gaan doen.
@esperanto:

Maar als je het zo doet als Linux dan blijf je aan de gang, je kunt niet alle hardware support in je kernel inbouwen, er zijn gewoon niet genoeg mensen en niet goed plek om zo alle hardware goed in te bouwen, een betere oplossing zou zijn om een stabielere driver ondergrond te bouwen zodat drivers minder snel crashen, en natuurlijk kunnen ze altijd drivers mee leveren zodat out of the box de belangrijkste kaarten werken.

Ik vind dit niet echt heel erg micro-kernel trouwens, sterker nog, Microsoft is een stuk trouwer aan de micro-kernel, ook verbetert MS ipv ingebakken support de driverpaden zodat drivers beter kunnen werken en het systeem niet laten crashen. (Kijk maar naar de nieuwe driverpaden voor audio en video in Vista/7).

@jb044 hieronder:

Kul, met een driver is dit ook prima mogelijk, kwestie van de kernel eerder de driver (en dependencies) laten initialiseren zodat deze tijdens het startup schermpje al beschikbaar zijn (hoewel het onzin is om dat te kunnen tbh).

[Reactie gewijzigd door roy-t op 5 december 2009 10:41]

Moet die kernel er natuurlijk wel wat mee doen! Je kunt prima nieuwe hardware middels een driver beschikbaar maken maar dan wel binnen de bestaande mogelijkheden. Wil je echt nieuwe dingen dan moet ook de onderliggende infrastructuur op de schop, dat geldt voor Linux maar net zo goed voor Windows. En daar gaat het hier om, dus wat nou kul!
Het is erg afhankelijk van wat je onder 'in de kernel' verstaat.

Bij Linux zijn er voor verchillende grafische kaarten kernel modules die al dan niet geladen worden, afhankelijk van of je wel of niet die kaart hebt. De radeonhd module waar het hier over gaat wordt op mijn systeem niet geladen want daar zit een Nvidia kaart in.

Bij Linux bestaat een grafische driver uit twee delen. Er is een kernel deel in een module dat de aansturing van de kaart verzorgt en er is een X11 deel dat onderdeel uitmaakt van je grafische schil. Zo kun je bijvoorbeeld kiezen of je xfree86 of x.org wil draaien en hoef je niet je X instalatie te updaten als je een nieuwe kernel krijgt.

Bij Windows is die opstelling niet heel erg anders. Er is een kernel deel van de driver (meestal een .sys) en er is een deel dat met de grafische schil samenwerkt (meestal in de vorm van dll's). Vaak is daar nog een splitsing voor 2D en 3D support. Alleen bij Windows worden die door de fabrikant in een enkele setup procedure samen geïnstalleerd. In beide gevallen is er dus evenveel (of even weinig) sprake van een micro kernel.

Voor Linux zijn dergelijke complete installs van de fabrikant ook gewoon te krijgen. Zowel van AMD als van Nvidia kun je een Linux driver package downloaden waarin alles in 1 keer geïnstalleerd wordt. Downloaden, dubbelklikken, next, next, finish, reboot en klaar. Net als bij Windows dus en als je een mainstream distro draait dan werkt het goed, zonder crashes of wat ook. Ook voor de nieuwste chipsets van de fabrikanten. Linux loopt daar dus helemaal niet achter op wat er op Windows kan.

Waar dit over gaat is het open source alternatief voor die drivers van de fabrikanten. Er zijn in de Linux wereld puristen die vinden dat elk stukje code open source moet zijn. Die schrijven hun eigen versie van de driver, naast die van de fabrikant. En dat is bij Windows op zijn minst lastiger.

Dus bij beide OS'en heb je een vergelijkbare mate van ondersteuning van althans de grote fabrikanten. Alleen heb je bij Linux nog wat alternatieven als de drivers van de fabrikant je niet bevallen.
Waar dit over gaat is het open source alternatief voor die drivers van de fabrikanten. Er zijn in de Linux wereld puristen die vinden dat elk stukje code open source moet zijn. Die schrijven hun eigen versie van de driver, naast die van de fabrikant. En dat is bij Windows op zijn minst lastiger.
De vernieuwing die in deze kernelrelease zit is dat een belangrijk deel van het initialiseren van de drivers (o.a. instellen resolutie) nu weg is gehaald uit het "grafische schil"-gedeelte en in het kernel gedeelte is geplaatst. Dit is een vernieuwing die door Intel is ontwikkeld, en die tot nu toe eigenlijk alleen bij Intel video drivers werkte. De closed source video drivers zijn een rem geweest op dit soort kernel vernieuwingen.
Dit is een typisch voorbeeld van een verandering in de 'driver-API' die de voordelen van open source drivers illustreert. In de linux wereld is iedereen blij dat AMD deze voordelen erkent en heel hard aan het werken is om ervoor te zorgen dat hun videodrivers ook opensource zijn. Het kunnen bieden van ondersteuning voor kernel mode setting door de AMD videodrivers is een mooi concreet resultaat van dit harde werk.

[Reactie gewijzigd door iKiddo op 6 december 2009 15:12]

Maar als je het zo doet als Linux dan blijf je aan de gang, je kunt niet alle hardware support in je kernel inbouwen
Waarom niet? Het lijkt vooralsnog vrij aardig te lukken.
... een betere oplossing zou zijn om een stabielere driver ondergrond te bouwen zodat drivers minder snel crashen...
Het probleem is en blijft dat drivers (en zeker grafische drivers) toegang hebben tot heel veel zaken nodig (waaronder directe hardware-toegang), waarmee ze nou eenmaal makkelijk het systeem kunnen laten crashen.

Dat geldt onder elk gangbaar general-purpose OS. Als een driver maar brak genoeg is dan kan hij altijd wel je systeem onderuithalen, en wat je daar tegen kunt doen is vrij beperkt (zonder de performance compleet te laten kelderen).
... en natuurlijk kunnen ze altijd drivers mee leveren zodat out of the box de belangrijkste kaarten werken.
Waarom alleen de belangrijkste? Waarom niet allemaal?
Ik vind dit niet echt heel erg micro-kernel trouwens
Ik geloof niet dat iemand ooit beweerd heeft dat Linux een micro-kernel is :P
Waarom niet? Het lijkt vooralsnog vrij aardig te lukken.
Waarom alleen de belangrijkste? Waarom niet allemaal?
Alle hardware van alle hardware van alle hardwarefabrikanten inbouwen in de kernel, en je hebt een kernel die groter is dan de grootste hardeschijven van dit moment. Daarom niet.. je moet kiezen.
Ik geloof niet dat iemand ooit beweerd heeft dat Linux een micro-kernel is :P
Ah even opgezocht en je hebt gelijk, Linux heeft monolith kernel: http://en.wikipedia.org/wiki/Monolithic_kernel

Volgens wikipedia geeft een monolith kernel een veel meer "high level" overview van de hardware aan de software, hierdoor moet veel meer hardware support direct ingebouw worden in de kernel (een erg slechte zaak vind ik, omdat je als hardware bouwer ineens niet zelf drivers kan releasen maar moet wachten op een nieuwe kernel en dan maar hopen dat mensen je product in die kernel bouwen / jouw branch accepteren. (Dit geld voor een pure monolith kernel, Linux is natuurlijk niet puur monolith en windows niet puur micro-kernel.) Het is wel tekenend dat alleen Linux nog gebruik maakt van een monolith kernel, zowel Apple als Microsoft zijn al jaren geleden (rond 2000) overgestapt op een micro-kernel aanpak.
Het probleem is en blijft dat drivers (en zeker grafische drivers) toegang hebben tot heel veel zaken nodig (waaronder directe hardware-toegang), waarmee ze nou eenmaal makkelijk het systeem kunnen laten crashen.

Dat geldt onder elk gangbaar general-purpose OS. Als een driver maar brak genoeg is dan kan hij altijd wel je systeem onderuithalen, en wat je daar tegen kunt doen is vrij beperkt (zonder de performance compleet te laten kelderen).
Met boxing, monitoring en virtualising kun je op dit moment redelijk goed drivers in bedwang houden, kijk maar toen Vista net uit was en de ati drivers nog niet goed werkte. Vista stopte de driver, herstarte deze en gaf een melding wat er was gebeurt, terwijl XP gewoon hard op de kop gaat of overblijft met een 640x480x16 kleuren (standaard vga drivers zeg maar) tot je reboot.

Alle energie die hier in gestoken wordt kan ook gestoken worden in ervoor te zorgen dat drivers minder schade doen als ze crashen, de driver->hardware laag (HAL op windows) verbeteren en versnellen, en ervoor zorgen dat drivers meer dingen kunnen (directe paden naar hardware enzo).

Fabrikanten en mensen die graag drivers schrijven krijgen dan meer tools en power, terwijl de linux community een betere kernel krijgt voor iedereen, niet alleen voor die "paar" ATI gebruikers.

Dat scenario staat mij echt veel meer aan, is dat nu zo gek? Iedereen reageert met potentiele voordelen (hoewel volgens mij onrealistisch) maar niemand pakt me op de nadelen? Zijn deze nadelen niet belangrijk? Ik denk dat het echte deal breakers zijn en dat dit compleet het verkeerde pad is.

Microsoft heeft voor Windows 2000 geprobeerd om ook alle printer in de kernel te krijgen. Ze zijn heel snel van die beslissing terug gekomen, en nu begaat Linux dezelfde fout.

Interessant artikel hierover: http://www.advogato.org/article/888.html (even doorlezen voordat het echt over kernels gaat).


Verderop wordt nog ergens verteld dat je niets hebt aan zo'n plugable driver structuur als de kernel niet met de nieuwe versie om kan. Dan heb je dus echt niet begrepen waar zo'n plugable structuur om gaat. Toen veel mediaspelers uit kwamen hadden ze geen rekening gehouden met een "kijk wat ik luister systeem" zoals last.fm, toch werkt het via plugins prima op foobar, wmp, winamp etc... Toen windows XP uit kwam had niemand gedacht aan physics accelerators, toch werken de kaarten van PhysX prima op Windows XP.

Het gaat er niet om dat het OS percee iets kan met je drivers, het gaat er om dat de programma's die jij wil draaien iets kunnen met de hardware die jij hebt gekocht. Het os is slechts een brug tussen hardware en software en mag daar geen belemmering van zijn. De weg die linux nu inslaat is echt verkeerd, ze zouden juist de andere richting op moeten, dit is dwijlen met de kraan open, totdat ze een terrabyte kernel hebben met duizenden buggy 'drivers' die allemaal in kernelspace draaien en dus meteen de boel crashen.

Nee als dit echt de insteek blijft doen mij dan maar weer alleen Windows...
Verderop wordt nog ergens verteld dat je niets hebt aan zo'n plugable driver structuur als de kernel niet met de nieuwe versie om kan. Dan heb je dus echt niet begrepen waar zo'n plugable structuur om gaat. Toen veel mediaspelers uit kwamen hadden ze geen rekening gehouden met een "kijk wat ik luister systeem" zoals last.fm, toch werkt het via plugins prima op foobar, wmp, winamp etc... Toen windows XP uit kwam had niemand gedacht aan physics accelerators, toch werken de kaarten van PhysX prima op Windows XP
Zoveel anders werkt Linux niet hoor op dit punt, er zijn genoeg reallife voorbeelden van kernel modules die door 3rd party software tijdens de installatie worden gecompileerd en die nieuwe functionaliteit beschikbaar stellen. Maar dat alles natuurlijk wel binnen de mogelijkheden die de kernel beschikbaar stelt aan zo'n module, dus als je echt belangrijke wijzigingen wilt aanbrengen zul je toch echt de kernel zelf moeten wijzigen en daar gaat het hier om.

Wat de discussie een beetje moeilijk maakt is dat bij Linux de kernel drivers (die je ofwel meecompileert of achteraf dynamisch inlaadt) en de kernel zelf 1 en hetzelfde project zijn. Dus het is niet altijd duidelijk waar je nou mee van doen hebt.

Overigens is die hele monolitisch versus micro kernel discussie wat mij betreft vooral leuk voor studenten informatica, maar is het in de echte wereld nauwelijks relevant. Als Linux iets heeft bewezen is het dat wel. Om met een voorbeeld af te sluiten:

Linux heeft een monolytisch kernel en BeOS was grotendeels een microkernel (zonder het volgens het boekje te zijn). De theorie leert dat een microkernel welliswaar voordelen heeft maar dat dit ten koste gaat van een zekere overhead. Dus Linux is per definitie sneller? Fout, met name bij multitasking is de performance van BeOS nog altijd ongeevenaard. Dus daar ga je met je theorie.
Alle hardware van alle hardware van alle hardwarefabrikanten inbouwen in de kernel, en je hebt een kernel die groter is dan de grootste hardeschijven van dit moment.
Haha, overdrijven is ook een vak he. :P

Netwerkkaart-drivers zijn in Linux onderdeel van de kernel source tree, dus alle netwerkdrivers worden meegeleverd met de kernel. Wat zien we:

% du -sh /lib/modules/2.6.31-1-686/kernel/drivers/net
11M
% find /lib/modules/2.6.31-1-686/kernel/drivers/net -type f | wc -l
336

11MB in 336 modules. Support voor praktisch alle netwerkkaarten die er zijn, inclusief ethernet, wireless, tokenring en fibrechannel kaarten.

Sterker nog, alle drivers die bij die 2.6.31 van mij (nouja, van Debian Unstable) zitten zijn bij elkaar 49MB. We hebben nog even te gaan voordat die 2TB harddisk vol zit. (Dit telt trouwens alleen kernel drivers, en niet userspace drivers zoals printer drivers, scanner drivers, grote delen van grafische drivers, etc)
Volgens wikipedia geeft een monolith kernel een veel meer "high level" overview van de hardware aan de software, hierdoor moet veel meer hardware support direct ingebouw worden in de kernel
Hangt er nogal vanaf wat je bedoelt met "direct ingebouwd". In een monolithische kernel draaien alle kerneltaken in dezelfde address space, en geladen modules maken dus rechtstreeks deel uit van de kernel zonder al te veel onderlinge bescherming.

Het betekent niet dat drivers al of niet dynamisch geladen kunnen worden. Een monolithische kernel met loadable modules (zoals Linux) is nog steeds monolithisch.

Het zegt ook niets over of drivers al of niet onafhankelijk van de kernel zelf ontwikkeld kunnen worden. Het is in Linux gebruikelijk om open-source kerneldrivers op te nemen in de main kernel source tree (en dat is over het algemeen een goede zaak voor onafhankelijkheid, onderhoud, en out-of-the-box support), maar dat is niet noodzakelijk.

Zie ook deze post van mij verderop bij dit artikel over monolithische vs. micro-kernels.
(een erg slechte zaak vind ik, omdat je als hardware bouwer ineens niet zelf drivers kan releasen maar moet wachten op een nieuwe kernel en dan maar hopen dat mensen je product in die kernel bouwen / jouw branch accepteren.
Dat is natuurlijk volstrekte onzin, en heeft niets met al-dan-niet monolithisch te maken.

Fabrikanten kunnen gewoon een kernel module maken en verspreiden zonder dat hiervoor iets aan de mainline kernel hoeft te veranderen. Dat is overigens ook precies wat bijvoorbeeld ATi en NVidia doen met hun video drivers (die overigens nog closed-source zijn ook, om mijn punt extra kracht bij te zetten).
Alle energie die hier in gestoken wordt [...] Fabrikanten en mensen die graag drivers schrijven krijgen dan meer tools en power, terwijl de linux community een betere kernel krijgt voor iedereen, niet alleen voor die "paar" ATI gebruikers.
Ik snap niet waar je het over hebt. Een van de nieuwswaardige dingen in dit artikel is dat de Linux radeon driver wat verbeterd is, en het is nogal wiedes dat dat alleen nuttig is voor ATi gebruikers. Wat moeten die developers dan doen? Die driver niet verbeteren?

[q]Microsoft heeft voor Windows 2000 geprobeerd om ook alle printer in de kernel te krijgen. Ze zijn heel snel van die beslissing terug gekomen, en nu begaat Linux dezelfde fout.[q/]

Printer drivers zijn userspace in Linux, en altijd al geweest. Het gaat bij de radeon driver (net als bij alle andere video drivers) trouwens maar om een klein deel dat - noodzakelijk - kernelspace draait, zie deze post van mij verderop bij dit artikel voor meer uitleg.
De weg die linux nu inslaat is echt verkeerd
Nu? Er is niks veranderd hoor; videodrivers hebben een kernelspace component sinds Linux 3D acceleratie heeft, en dat is nu wat? 12 jaar geleden? Nog meer?
Nee als dit echt de insteek blijft doen mij dan maar weer alleen Windows...
Achja, als je wil beslissen op onderbuikgevoelens in plaats van de praktijk, is goed hoor :)
Alle hardware van alle hardware van alle hardwarefabrikanten inbouwen in de kernel, en je hebt een kernel die groter is dan de grootste hardeschijven van dit moment. Daarom niet.. je moet kiezen.
Bullshit, je denkt nog veel te veel windows. Je gaat er van uit dat de MS manier de enige goede is, waarschijnlijk omdat jij een van die velen bent die niks kwaads over Windows wil horen omdat je het zelf gebruikt.
Is er werkelijk zoveel verschil tussen het ene of het andere merk van hetzelfde type hardware? Alle kaarten hebben min of meer dezelfde functie, en worden op dezelfde manier aangesproken vanuit userspace. Of zo zou het in ieder geval moeten zijn. Daarom is een heleboel van de code van dat soort kaarten ongeveer hetzelfde. Dit is niet alleen voor grafische kaarten, maar voor eigenlijk alles, van wifi tot tv kaarten.
Op Windows wordt dat allemaal door de fabrikant geïmplementeerd. Daar is de werking van je kaart dus erg afhankelijk van wat de fabrikant voor jou heeft gemaakt. Op Linux is het gebruikelijk om alle shared code niet in de "driver" (kernelmodule, ik zal voor jou als windows fanboy maar even de windows term gebruiken) te implementeren, maar om alle drivers dezelfde shared code te laten gebruiken. Hierdoor krijg je voor alle gelijkwaardige apparaten een groot shared deel en een klein hardware specifiek deel, waardoor het meteen ook een stuk makkelijker wordt om ondersteuning voor nieuwe hardware te implementeren

Die Windows manier is niet de goede weg. Alle modules bij elkaar van mijn huidige Ubuntu kernel zijn 80.4MB. Vind je dat nou echt zo veel? De verzameling drivers van Windows neemt vele malen meer plek in, en dan worden die nog compressed opgeslagen ook. Simpelweg omdat er allemaal dubbele functionaliteit in zit. Ook wordt het hele OS er inconsistent door. De werking van je OS zou niet moeten veranderen als je van merk hardware wisselt.
Op dat gebied ligt Linux een heel stuk voor op Windows. Drivers zijn consistenter, kleiner, bugvrijer (door de open code) en vaak ook sneller. De wifi performance van Windows, om maar eens wat te noemen, haalt het niet bij wat Linux of OS X kan met degelijke drivers. Simpelweg omdat de fabrikant geen interesse heeft om een zo goed mogelijke driver te schrijven, maar alleen maar een stukje code levert om hun hardware te kunnen verkopen (niemand koopt een stukje plastic waar je OS niks mee kan).
Alleen op het gebied van grafische kaarten valt er nog veel te doen. Daar is de werking niet erg consistent, en dat komt voornamelijk door die binary blobs (drivers van de fabrikant) die je nodig hebt voor nvidia of ati. Die ati drivers zijn zo slecht dat er allemaal problemen inzitten die nvidia niet heeft. Met volledig open source drivers zou dit niet het geval zijn geweest.

Wifi zat vroeger op de "windows" manier in elkaar. Er zat allemaal dubbele functionaliteit in de onderlinge drivers. Dit komt voornamelijk omdat de fabrikanten soms meehielpen met het schrijven. Gelukkig is er nu de mac80211 laag die de shared code afhandeld ongeacht welke kaart er onder kant, en de driver alleen hardware specifieke functies aanbied aan dit framework. Voor grafische kaarten zijn ze ook met zoiets bezig, onder andere met de in het artikel genoemde kernel mode setting (kms), maar ook met nieuwe grafische architecturen als gallium3d. Hier houdt je uiteindelijk betere drivers aan over. Niet alleen consistenter en stabieler dan wat je onder windows van fabrikanten krijgt, maar ook een stuk sneller, omdat het direct in de kernel verwerkt zit.
Dat je er dan wat langer op moet wachten, tja, so be it. Rome is ook niet op 1 dag gebouwd. Ik vind dat ze goed op weg zijn, en hoop dat er snel bruikbare open source drivers komen voor die ati kaarten, die net zo goed en snel zijn als die voor nvidia. Dan namelijk geen nvidia meer voor mij, die binary blobs is altijd gehannes...
Dat is helemaal geen kul argument, videokaarten worden al tijden goed ondersteund, maar dit gaat juist om het zo vroeg mogelijk initialiseren van je GPU zodat bv een grafische boot mogelijk wordt die veel verder gaat dan alleen een hogere resolutie.

Nieuwe techniek dus, een beetje vergelijkbaar met de nieuwe eyecandy van Vista en hoger die ook in het OS zit en niet simpelweg met een driver update beschikbaar komt.
Ik dacht dat juist de kracht van Linux was dat je losse modules had die op boot-time geladen kunnen worden. Maar blijkbaar is Linux toch niet zo goed dat ze er inderdaad voor moeten kiezen om ondersteuning rechtstreeks in de kernel te bouwen.
Die drivers zijn onderdeel van de kernel, je hebt de keus om ze op te nemen in de kernel of als losse module beschikbaar te stellen (wat dan weer @ runtime in de kernel ingeladen wordt). Kortom klok klepel verhaal, verdiep je eens ergens in voor je zomaar wat begint te blaten!
Het meeste in Linux is inderdaad een module. Alleen worden die modules met de kernel meegeleverd, en kun je dus spreken over verbeteringen in de kernel, ook al wordt het als module geladen.
Dus jouw ATI 5xxx werkt zonder drivers op volledige resolutie en 3d versnelling? :>
@Rick2910,

De meeste ontwikkelaars van de Linux kernels ontwikkelen aan de Linux kernel voor hun werk, wou je zeggen dat de ontwikkelaars van o.a. AMD, Intel en IBM een zootje hobbyisten zijn?

De problemen die men onder linux heeft met hardware komen voort uit het feit dat veel fabrikanten moeilijk doen over linux ondersteuning of gewoon niet bereid zijn geld te stoppen in ontwikkeling van hun firmware (dit laatste is het beste merkbaar bij goedkope mobo's).
Ok, maar wat doet hardware specifieke code nou eigenlijk in de kernel? En even los van de grafische kaarten, je kan onder linux wel meer hardware ondersteuning meebakken in de kernel...

Maar raakt je kernel dan niet een beetje aan de volle kant. Het zou toch idealer zijn om de kernel zo lean-and-mean mogelijk te houden en drivers via een aparte ingang toegang te geven?
En daarom wordt die kernel modulair geladen. Dynamisch. Dus je hebt in principe ondersteuning voor de meeste hardware, maar het wordt alleen gebruikt en geladen als je het nodig hebt.

Dat heeft 2 voordelen:

1) Als er support is voor hardware dan werkt het meteen, out of the box zonder dat je drivers hoeft te installeren. Als je wel eens Windows hebt geinstalleerd weet je dat je daarna nog wel ff bezig bent met de drivers. Da is met Linux dus niet.

2) Als je een hard drive over schroeft in een volledig ander systeem, met andere chipsets, processor, southbridge of whatever, dan werkt dat meteen. Probeer dat maar eens met Windows want dat werkt dan in 9 van de 10 gevallen echt niet...

Ergo: Geen nadelen, alleen voordelen.
Om punt 1 nu een voordeel te noemen, je moet wel maanden tot soms jaren wachten voordat iets ondersteunt wordt. Dan ben ik liever bezig met die 5min driver installeren :P

En punt 2 was vroeger vaak zo, tegenwoordig werkt het 1 van de 10 gevallen niet. Oke het werkt niet feilloos, maar goed genoeg om ff de drivers te updaten en dan werkt het wel weer feilloos.

Slotconclusie, het heeft dus 1 heel groot nadeel. De tijd dat je moet wachten voordat iets in linux helemaal ondersteund wordt. Ik zelf ben een radeon gebruiker, al jaren. En pas sinds kort kan ik 3d games lekker spelen op me linux bakkie.

(en ik bedoel dit niet om te flamen, de programmeurs kunnen er ook niet veel aan doen als ze niet goeie drivers van fabrikanten doorkrijgen)
Ja, maar dat nadeel wordt dus niet door het kernelontwerp veroorzaakt, maar door de stugge houding van (sommige) hardware fabrikanten.

Verder kan ik me de keer dat ik jaren heb moeten wachten op hardware ondersteuning niet heugen en meer dan 2 maanden komt ook zelden voor. Meestal rond een maand na uitkomen nieuwe hardware zit het er wel in hoor. OOK de ondersteuning van video hardware want er zijn wel bijna altijd binary video drivers. Die zijn meestal goed genoeg.

Dat gezegd hebbend: Hoe vaak koop jij hardware die *net* uit is? Meestal koopt de mainstream klant een nieuwe PC en die bevat componenten die al enkele maanden of langer op de markt zijn. Daar heb je dus helemaal geen problemen mee. Dit probleem is echt gewoon een beetje uit zijn verband getrokken. Voor de meeste gebruikers bestaat het niet.
de mainstream klant gebruikt geen linux...
@Delgut en Fridge-RaideR:
Er zit wat meer geschiedenis aan vast dan "de stugge houding van de hardwarefabrikanten". AMD heeft al een flinke tijd geleden (voor de R500 chips al in 2007) de hardware documentatie vrijgegeven die de driver developers in kwestie nodig hadden om de drivers te ontwikkelen. Maar net toen de originele R500 driver goed op gang kwam (en de R600/R700 driver half ontwikkeld was) werd het ontwerp omgegooid zodat het makkelijker te onderhouden is totdat Gallium3D (hier kom ik zo op terug) het roer over kan nemen. Dit betekende dus dat een hoop code herschreven moest worden en zette het project een significante hoeveelheid tijd terug, en daardoor is nu pas dus de R600/R700 code bijna klaar voor de eindgebruiker.

Nou wat is Gallium3D?
Gallium3D is een nieuw systeem voor gfx driverdevelopment. An sich is het ontworpen voor multi-OS gebruik, maar VZIW wordt op dit moment al het developmentwerk op Linux gedaan. Gallium3D bestaat uit 2 grote delen (dit is een sterk versimpelde weergave!): een hardware-specifieke driver en zogenaamde state trackers. State trackers zorgen er dus voor dat er bijvoorbeeld OpenGL, OpenCL, 2D UXA hardware acceleratie (bovenop de 3D acceleratie, gezien 2D een subset van 3D is) of zelfs VDPAU/VA-API functies beschikbaar komen voor de desktop, en de hardware specifieke drivers zorgen ervoor dat de gfx kaarten kunnen interfacen met het Gallium3D systeem.
Dit is in contrast met het huidige driver systeem binnen Mesa, waar je een driver moet schrijven die en hardwarespecifiek is, en ook nog eens zelf voor (op dit moment vnl) OpenGL en EXA/UXA support moet zorgen. Dat is een sh*tload of work.
Hmm dynamisch, klinkt als drivers, die worden ook niet geladen als je de hardware niet geinstalleerd hebt... Geen enkel voordeel over drivers tot nu toe.
1) Als er support is voor hardware dan werkt het meteen, out of the box zonder dat je drivers hoeft te installeren. Als je wel eens Windows hebt geinstalleerd weet je dat je daarna nog wel ff bezig bent met de drivers. Da is met Linux dus niet.
Dus geen nieuwe kernel, dan kan je ook je nieuwe hardware niet gebruiken. Behalve hardware virtualisatielaag of API laag horen drivers NIET in de kernel.
2) Als je een hard drive over schroeft in een volledig ander systeem, met andere chipsets, processor, southbridge of whatever, dan werkt dat meteen. Probeer dat maar eens met Windows want dat werkt dan in 9 van de 10 gevallen echt niet...
Het is heel makkelijk, als ik een harddisk heb met Windows XP, Vista, 7, 2003, 2008 en ik plaats deze in een willekeurig systeem en de juiste SATA/SCSI/ATA drivers staan op de disk dan werkt het. Eigenlijk net zoals Linux. O ja, heb je bij Linux de verkeerder kernel dan moet je eerst even de juiste kernel bouwen....
Het is heel makkelijk, als ik een harddisk heb met Windows XP, Vista, 7, 2003, 2008 en ik plaats deze in een willekeurig systeem en de juiste SATA/SCSI/ATA drivers staan op de disk dan werkt het. Eigenlijk net zoals Linux. O ja, heb je bij Linux de verkeerder kernel dan moet je eerst even de juiste kernel bouwen....
Hij heeft het over een hdd met daarop een OS, zoals linux of Windows. Ik heb al vaak voorgehad dat windows bij het versteken van een systeem met een via-chipset naar een systeem met een nvidia-chipset gewoonweg niet meer wou booten, het resulteerde telkens weer in een bluescreen, zelfs safe-mode. Recovery console bracht geen soelaas. Dat is namelijk zijn punt, in linux heb je zulke dingen niet voor, omdat het daarmee beter overweg kan.

[...]
Dus geen nieuwe kernel, dan kan je ook je nieuwe hardware niet gebruiken. Behalve hardware virtualisatielaag of API laag horen drivers NIET in de kernel.
Bij Linux zijn een aantal zaken fundamenteel anders. Omdat de sourcecode open is kun je zelf (bijv als fabrikant) een "nieuwe kernel" maken door een patch te releasen. Het is niet nodig om te wachten op een officiele release van Linus en z'n team.
Bij Windows is dat niet zo. Hierdoor is er in de Windows-wereld een stabiele driver-API nodig, om als fabrikant zelf je driver tegenaan te ontwikkelen.

Het gevolg van dit verschil is inderdaad uit te drukken in voordelen en in nadelen. Nadeel voor de fabrikant is dat hij niet alleen een API hoeft te leren, waarbij een deel van de complexiteit van een kernel is weggeabstraheerd, maar alle betrokken subcomponenten van de kernel moeten leren. (Hier staat tegenover dat kernelontwikkelaars je graag op weg willen helpen, wat voor de fabrikant weer wat 'human resources' scheelt.) Voordeel is dat het mogelijk is om in een veel hoger tempo aan de kernel zelf te werken. API-breaking is geen kopzorg meer. Drivers zitten in de kernel en worden 'automatisch' tegen de nieuwe componenten gecompileert.
Dit is alleen nodig als hardware X van fabrikant Y niet met een open standaard werkt en zijn driver structuur gesloten houd.

Voor windows moet Fabrikant Y zelfs zijn drivers maken die zich aan een bepaalde API moeten houden, zoals DirectX.
Ook voor linux heb je drivers die je kan installeren, zie de site van AMD bijvoorbeeld, bij het 'download-driver' gedeelte staat er een linux-sectie bij.

Wat je onder linux wel sneller hebt: onder windows blijft je normaal gezien jarenlang met dezelfde kernel werken (win xp gaat al 9 jaar of zo mee), waarbij alles quasi hetzelfde blijft werken al die tijd.
Onder linux komt er om de paar maanden echter een nieuwe kernel uit, wat quasi overeenkomt met het wisselen van windows-versie voor driver-schrijvers. 'oude' driver-versies werken daardoor niet meer (een driver van xp zal lang niet altijd werken onder vista bijvoorbeeld, wat net hetzelfde is)

Het grote verschil nu is dat de ondersteuning voor een stuk in de kernel zelf terechtgekomen is, waardoor de driver-schrijvers van ati/amd het makkelijker zullen hebben in de toekomst, en mensen die de driver van ati/amd niet willen installeren zullen in de toekomst een apparaat hebben dat standaard beter werkt (en dat onder alle linux-distro's).

[Reactie gewijzigd door roeleboel op 5 december 2009 01:24]

Omdat Linux monolitische kernel is en de drivers dus per defenitie in de kernel zitten.
(ik vond zo meteen niets op google, maar Torvalds heeft zijn eigen reden om dit te behouden. Linux wordt 99.99% zeker nooit een micro/hybribe kernel)

je kúnt ook drivers van de fabrikant installeren die niet in de kernel zitten zoals oa de ATi en Nvidia proprietaire drivers. Alleen zul je dan wel zelf moeten zien dat je drivers bij elke nieuwe kernelversie werken.
Die drivers draaien ook gewoon in kernelspace hoor, net zoals de meeste drivers in Windows en Mac OSX. Micro kernel model veranderd hier ook weinig aan. Drivers voor hardware moet nou eenmaal in kernel level draaien omdat er directe systeem toegang nodig is. Alle andere dingen, zoals TCP/IP, filesystem,..., kunnen wel gewoon in userspace draaien.
niet helemaal waar

zie het artikel in de knowledge base van MS,
http://msdn.microsoft.com/en-us/library/aa480220.aspx

De nieuwe wddm drivers sinds vista, bestaan uit 2 sub drivers, zogezegd. Het ene deel wat inderdaad in de kernel draait geeft slechts de meest basale functionaliteit door, waardoor de userspace driver communiceert met de hardware, dit zorgt ervoor dat een foutje in de bv. directx implementatie niet een heel systeem om zeep kan helpen.
Het vreemde is nu dat linux fans in het verleden altijd zaten te klagen dat in windows zoveel op kernel level draaide.

En nu blijkt windows de boel op dat punt veel netter voor mekaar te hebben dan linux.
Zijn ze bij linux van hun geloof af gevallen, of was het geklaag op windows in het verleden onterecht?
Daar is niets vreemds aan. De kritiek was er op gericht dat op een windowsmachine zaken in kernelspace draai(d)en die daar niet thuishoren. IIS, de webserver van MS, liep bijvoorbeeld in kernelspace. De linuxontwikkelaars zijn dus niet van hun geloof afgevallen en het geklaag was ook niet onterecht (tenzij je het gerechtvaardigd vind om zaken in kernelspace te draaien voor wat extra performance).
En nu blijkt windows de boel op dat punt veel netter voor mekaar te hebben dan linux.
Nee, dat heeft Windows helemaal niet. Linux had al jaren de scheiding die Windows pas sinds Vista's wddm model heeft.

Onder Linux zijn grafische drivers gesplitst in drie delen:
  • Direct Rendering Manager, kernelspace. Verzorgt de feitelijke hardware-toegang, arbitreert, en zet DMA-transfers op. Verzorgt sinds de introductie van KMS ook mode-setting.
  • Xorg drivers, userspace. Verzorgt het grootste gedeelte van de 2D taken, mode-setting (behalve als je KMS gebruikt), en coordineert ook de samenwerking tussen de verschillende delen.
  • Mesa OpenGL library, userspace. Vertaalt OpenGL naar opdrachten die de videokaart snapt. Dit is over het algemeen het grootste deel.
Op mijn desktop (Linux 2.6.26, Radeon 8500. Ja, oud) vertaalt dat naar de volgende drie filegroottes:
  • /lib/modules/2.6.26-2-686/kernel/drivers/char/drm/radeon.ko 128KB
  • /usr/lib/xorg/modules/drivers/radeon_drv.so 536KB
  • /usr/lib/dri/r200_dri.so 2216KB
Er zit dus maar een klein deel in de kernel, en dat deel fungeert als een soort doorgeefluik voor de daadwerkelijke GPU-commands vanuit userspace, en controleert daarbij bijvoorbeeld of de geheugenadressen in de GPU-commands in orde zijn, om te voorkomen dat de videokaart fout geheugen overschrijft door een fout in de userspace componenten.

En zo werkt dat al een jaar of 8. De verbeterde dingen in 2.6.32 (waar dit artikel over gaat) zijn:
  • Verbetering van KMS (Kernel Mode-Switching) in de radeon driver. (Dit heeft in tegenstelling tot wat de t.net samenvatting beweert niks met snellere 3D te maken)
  • Verbetering van GEM (Graphics Execution Manager) in de radeon driver. (Wel snellere 3D, uiteindelijk)
  • Ondersteuning voor nieuwere videochips.
Het gaat vooral om het tweede puntje, GEM. Met GEM wordt het geheugenbeheer op videokaarten verplaatst van Xorg naar de kernel driver, waar dit veel efficienter kan plaatsvinden en het geheugen van de videokaart beter gebruikt kan worden.

En jep, dat betekent dat iets verschuift van userspace naar kernelspace. Maar de kernelspace driver is nog steeds het kleinste deel :)
Ja en nee: Linux is monolitisch (net zoals Windows) en heeft een driver-architectuur die het mogelijk maakt stukken toe te voegen aan de kernel (bijv. drivers). Echter als je de architectuur aan wilt passen (zoals KMS doet) dan is een driver niet echt genoeg meer.

De drivers van ATI/Nvidia komen ook hard in de kernel te zitten na installatie (zie je in je syslog: de TAINTED vlag wordt gezet om duidelijk te maken dat er code geladen is die niet gereviewed is want er is geen source).
windows is niet monolitsch, het betreft een hybride kernel.
zie http://en.wikipedia.org/wiki/Windows_NT
Der hele discussie die hier gevoerd wordt over micro, hybrid of monolitisch gaat ervan uit dat er alleen maar user en system space is. Er zijn echter meer niveaus van autorisatie. Zo draait een scheduler doorgaans (op x86/x86_64 CPU's) in ring 0 (het hoogste autorisatie niveau als je hypervisors buiten beschouwing laat) en draaien device drivers in ring 1. Gebruikers programma's draaien in ring 3.

Door deze scheiding kunnen drivers bijvoorbeeld niet elkaars geheugen verzieken en kun je zelfs bepalen welke directe hardware toegang een driver heeft, zodat deze alleen zijn eigen stukje hardware en bijvoorbeeld een interrupt controler en een DMA controler aan kan sturen.

De gebruikte termen zijn dus eigenlijk verouderd en op zowel Windows als Linux niet meer van toepassing.
Goderic heeft het net verkeerd om:

Linux is absoluut niet monolitisch.
Linux is modulair en is dit altijd al geweest.
Windows was monolitisch.
De reden dat windows 95/98 compleet crashte door slechte display drivers was direct te danken aan dit monolitische ontwerp, instabiele display drivers waren immers direct in de kernel ingebakken en brachten het hele systeem op zijn hielen bij een klein render foutje.

Dat een linux kernel bepaalde hardware ondersteund betekend niet dat al deze modules/drivers bij de kernel zijn ingebakken.
Kernel modules zijn niet bij de kernel ingebakken, de kernel weet alleen dat er voor een specifiek stukje hardware een module aanwezig is en zet dan de juiste ingangen open zodat deze module met de kernel kan communiceren wanneer deze geladen word.

Als over een lange tijd een driver zijn stabiliteit bewezen heeft kan je er bij linux voor kiezen om deze module/driver op te nemen in de kernel zelf.
Kies je hier niet voor lever je een stukje performance in voor stabiliteit van de rest van het systeem.

Micro, hybride, het is maar net wat je er zelf van maakt.
Micro
Sloop je alle support voor scanners/printers en weet ik veel wat voor randapparatuur die je niet bezit uit je kernel.
Minder support, meer snelheid, meer stabiliteit
Monolitisch
Stop alle drivers voor alle aangesloten hardware in je kernel.
Meer snelheid, meer support, minder stabiliteit.
Hybride
Stop alleen drivers voor muizen en dat soort elementaire hardware in je kernel maar laad de instabiele en complexe display drivers als module.
Een afweging tussen snelheid en stabiliteit.

/edit:typos

[Reactie gewijzigd door damanseb op 5 december 2009 19:26]

Linux is absoluut niet monolitisch.
Linux is modulair en is dit altijd al geweest.
Als je met "modulair" bedoelt dat kernel modules run-time geladen en verwijderd kunnen worden, dan nee, dat is Linux zeker niet altijd geweest. Vroeger moest alles wat je nodig had vast in je kernel gecompiled worden.

Linux had in het begin geen loadable module support, dat is pas rond 0.99.14 (eind '93, begin '94) geintroduceerd.

Tegenwoordig wordt zoveel mogelijk (en zeker drivers) als module gecompiled, maar dat was niet altijd zo.

En modulair is iets heel anders dan niet-monolithisch. Linux is een monolithische kernel, en is dat altijd geweest.
Als over een lange tijd een driver zijn stabiliteit bewezen heeft kan je er bij linux voor kiezen om deze module/driver op te nemen in de kernel zelf.
Kies je hier niet voor lever je een stukje performance in voor stabiliteit van de rest van het systeem.
Nee. Of iets als module geladen is of statisch in de kernel gecompiled is maakt niks uit voor de stabiliteit of performance (een beetje geheugenfragmentatie daargelaten).
Micro, hybride, het is maar net wat je er zelf van maakt.
Micro Sloop je alle support voor scanners/printers ...
Monolitisch Stop alle drivers voor alle aangesloten ...
Hybride Stop alleen drivers voor muizen en ...
Dat is helemaal niet wat monolithisch vs. microkernel betekent.

Userspace processen draaien in gescheiden memory address spaces, om ze tegen elkaar te beschermen en het systeem tegen de processen te beschermen. Een process kan daardoor alleen zichzelf verknoeien en niet andere processen.

In een monolithische kernel draaien alle kernel-onderdelen (inclusief geladen kernel modules) in dezelfde address space, en bovendien in kernel mode. Dat betekent dat er geen bescherming is tussen de verschillende kernel-onderdelen; onder een monolithische kernel kan elke geladen kernel module moeiteloos bij het hele geheugen van de kernel.

Dit heeft als voordelen dat het snel is, en dat er minder communicatie-protocollen vastgelegd hoeven te worden tussen de verschillende onderdelen, maar het heeft natuurlijk als nadeel dat kernel bugs makkelijker het heel systeem om kunnen leggen.

In een microkernel-architectuur heb je een zeer kleine kernel die alleen basale zaken regelt als scheduling, memory management, memory protection, en communicatie. Alle andere OS taken draaien dan (net als user processen) in hun eigen address space, beschermd tegen elkaar. De OS taken communiceren dan met elkaar via de microkernel in plaats van rechtstreeks.

Dit heeft als voordelen dat de verschillende onderdelen beter van elkaar geisoleerd zijn, wat fouten mogelijk minder fataal maakt. Maar de comminucatie tussen verschillende onderdelen is starder en kost meer overhead.

Wikipedia heeft hier een aardig plaatje over.

Linux is een monolithische kernel. Alle geladen kernel modules draaien in dezelfde address space. Een kernel module kan over het geheugen van alle andere kernel-onderdelen heen walsen (al dan niet expres).
Als je met "modulair" bedoelt dat kernel modules run-time geladen en verwijderd kunnen worden, dan nee, dat is Linux zeker niet altijd geweest. Vroeger moest alles wat je nodig had vast in je kernel gecompiled worden.
Ik neem dan aan dat hij het over 2.6 had. Alles van voor 2.6 is eigenlijk niet relevant, dat is stokoud. Anders ga ik Windows ook afzeiken omdat Windows 95 zo brak in elkaar zat en Win3.11 alleen een msdos-shell was.
Linux 2.6 is vanaf het begin modulair geweest.

Verder is dit hele gedoe over micro vs monolitisch eigenlijk bullshit. Welke architectuur je gebruikt is niet relevant, zolang je als developer maar weet wat de voordelen en nadelen zijn en daar goed mee om gaat. Voor de rest is het leuk voor informatica studenten, meer niet.

[Reactie gewijzigd door kozue op 7 december 2009 15:31]

Misschien ben ik wel knettergek, maar waarom moet onder Linux bijna altijd eerst Support A in de kernel worden gebouwd (iets wat soms weken of maanden, of nog langer kan duren) om stuk hardware X te ondersteunen?
Het betreft hier de RadeonHD driver. Dit is een volledig Opensource driver voor de Radeon GPU's.
Onder Windows kan ik gewoon de driver van de fabrikant installeren, en dan werkt het... de HD5xxx etc wordt gewoon ondersteund in Windows XP / Vista / 7 zonder dat er één regel aan code moet worden gewijzigd in het OS.
Dit werkt zo ook voor Linux je kunt de closed source AMD, fglrx driver, driver installeren dan werkt een radeon HD5*** ook gewoon, die nog niet werkt met de RadeonHD driver.
Het gaat er in het geval van deze ATi kaarten niet om dat ze niet werkten, maar dat er nu open source drivers voor in de linux kernel opgenomen zijn die 3D ondersteunen. Voorheen waren deze drivers er ook wel, maar ging het om een driver die door AMD geschreven is en waarvan de broncode niet beschikbaar is. Deze werkt wel (met 3D zelfs veel beter) maar kent zo zijn mankementen (ondersteund niet alle kernels en x servers). Dat is ook niet zo gek aangezien het klantenbestand van AMD vooral uit Windows gebruikers bestaat.
Het mooie aan deze kernel en bijbehorende drivers, is dat de linux community het bijhoud en we dus wel goede ondersteuning hebben (op gebied van software).

Je stelling klopt dus niet helemaal. Het is alleen het gemak dat er voor de linux gebruiker op vooruit gaat...
Een "driver" is in principe gewoon een kernel-module. Het is puur een verschil in terminologie.
Wat Dystized zegt is dat hij straks "beter" gebruik kan maken, het is puur een optimalisatie. Iets wat nagenoeg iedere Windows release ook beloofd (een betere 3d ervaring oid).
Een driver hoeft helemaal geen kernel module te zijn. Kan net zo goed in user mode draaien.
En net zo hoeft een kernel module geen driver te zijn. Een kernel module biedt functionaliteit aan. Dit kan generieke functionaliteit zijn die door andere modules wordt gebruikt, of een op zichzelf staande hardware driver. Type maar eens 'lsmod' in op een Linux bak, kun je zien welke modules geladen zijn en welke een dependency is van andere modules. De modules die dependency zijn, zijn zelf meestal geen driver.
Hier een voorbeeldje:
# lsmod | grep iwl
iwlagn 109052 0
iwlcore 112540 1 iwlagn
mac80211 181076 2 iwlagn,iwlcore
cfg80211 93052 3 iwlagn,iwlcore,mac80211
led_class 4096 3 iwlcore,sdhci,thinkpad_acpi
iwlagn is m'n wlan "driver" (voor intel wifi kaartjes). iwlcore is een algemene functionaliteitsmodule voor die intel wifi kaartjes (shared code denk ik) en mac80211 en cfg80211 zijn het mac80211 framework, een algemeen framework waar alle nieuwe wifi drivers gebruik van horen te maken. Wat led_class is weet ik niet zeker, maar ik vermoed aan de naam dat het een simpel drivertje is voor dat wifi ledje op deze thinkpad, die kan knipperen bij activiteit.
Dit is ook niet nodig, maar net zoals Microsoft op een gegeven moment de hele grafische architectuur omgegooid heeft (meen ten tijde van NT4) om er meer snelheid uit te persen doen ze dit nu ook in Linux. Gaat dus niet om support, maar om beter support. Dat het lang duurt ligt voornamelijk aan de fabrikant: die geven alleen maar drivers vrij en weinig tot geen specs (Nvidia al helemaal niet) zodat het met veel reverse engineering gedaan moet worden.

Dus: fabrikanten drivers zijn er wel (meestal erg buggy) dus kun je je hardware wel snel gebruiken, voor optimale aansturing in het geval de fabrikant geen specs vrijgeeft duurt het even.
maar waarom moet onder Linux bijna altijd eerst Support A in de kernel worden gebouwd (iets wat soms weken of maanden, of nog langer kan duren)
In principe hoeft het niet, drivers kunnen ook los geleverd worden.

Echter, opname in de mainline-kernel heeft voordelen:

-Anderen kunnen jouw drivers 'updaten, dit scheelt jouw moeite'.
Als de Linux kernel verandert, hoef jij niet je driver te updaten. Degene die de veranderingen doorvoert kan immers jouw driver gelijk updaten aan zijn veranderingen. Dit scheelt moeite en communicatie. Voor gesloten systemen gaat dit niet. Dan ben je volledig afhankelijk van degene die de drivers maakt.

-Men kan dus de kernel vernieuwen zonder compabiliteit met oude drivers te verbreken. Microsoft kan dit niet voor Windows, ze moeten steed zorgen dat hun kernel compatibel blijft met bestaande gesloten drivers. Daarom is het moeilijk vernieuwingen iedere zes maanden toe te voegen, en vandaar dat dit voor Windows ook niet gebeurd. Dus een kernelwijziging voor Windows doorvoeren duurt langer dan voor Linux.

-Gemeenschappelijke delen kunnen geisoleerd worden. Stel broadcom, realtek en ralink hebben open source modules voor hun netwerkkaarten die alle drie hetzelfde doen, dan kan men die code isoleren. Dat kan dan op 1 plek geoptimaliseerd worden, en dat scheelt werk en geld. Voor gesloten drivers (zoals bij Windows) moet dit werk iedere keer gedupliceerd worden.

-Men kan code-audits doorvoeren. Vaak maken drivers gebruik van oude system-calls die in de toekomst niet meer ondersteund worden. Het systeem kan dan waarschuwingen geven, en als de driver open is kunnen anderen het fixen of de maker waarschuwen.

-Anderen kunnen bugs in de modules fixen.

Kortom, als leverancier van hardware kan je geld besparen door je driver te submitten voor de mainline. Anderen helpen dan mee aan de optimalisatie, bugfixen, onderhoud en aanpassen aan veranderingen aan Linux van jouw driver, en dat scheelt geld en tijd.
De meeste argumenten die je aanhaalt hebben niets te maken met waar de code draait.

Eigenlijk is alleen je tweede argument relevant... Maar dat is een tweesnijdend zwaard. Wat het is net zo hard een nadeel als een voordeel. Een kernel wijziging in Windows is inderdaad lastiger.... maar het is ook vrijwel nooit nodig. In Linux is het makkelijker, maar de kernel moet dan ook continue worden geupdate.

Dat is dus meer een eigenschap van de keuze, dan dat het een specifiek voor of nadeel is.
Wat maakt het uit waar de code draait? Dat is alleen voor programmeurs interessant. Hij geeft voordelen aan van het in de kernel tree hebben van drivers voor alle hardware. Een hoop daarvan hebben direct invloed op een positieve gebruikerservaring. Shared code verbeterd betrouwbaarheid en consistentie. Drivers die makkelijk geupdate kunnen worden zorgt ervoor dat hardware ondersteund blijft in nieuwe releases, in tegenstelling tot zo'n vista waar je je oude hardware allemaal weg kon gooien. Als iedereen bugs kan fixen wordt de code beter van (stabieler, sneller, etc).
Om dan weer die irrelevante discussie van hierboven over kernelspace vs userspace aan te halen wordt ik een beetje moe van, er is geen enkele normale gebruiker die dat wat interesseert.
Er zijn genooeg drivers die niet in de kernel zijn ingebrouwd. Dit is trouwens vaak de eerste stap bij het ontwikkelen van een driver. De reden waarom driver in de kernel gebakken worden is gewoon voor een beter performatie.
een beter performatie.
Daar wordt ik zo moe van he, mensen die Engelse woorden niet vertalen maar "vernederlandsen" (he, komt dat woord door m'n firefox spelling checker heen?). Noem het gewoon performance of gebruik anders een echt Nederlands woord zoals prestatie...
Dat komt omdat Linux historisch gezien een monolithische kernel heeft. Dat houdt in dat alle code die in kernel-mode uitgevoerd moet worden in een keer geladen moet worden. Windows NT heeft in principe een microkernel, wat inhoudt dat met name drivers geladen worden nadat de basis van de kernel geladen is. Dit modulaire laden is (volgens mij) inmiddels ook in Linux ingebouwd en voor zover ik weet kun je in Linux (en alle *BSD's) ook gewoon runtime modules in je kernel laden.

Ook in Windows is het nodig voor drivers, die immers directe hardwaretoegang nodig hebben, om in kernel-mode te draaien. Het is alleen wat netter verpakt voor de gebruiker.
Wat is dat nu voor verhaal?

"Inmiddels"?

Linux heeft al zo lang als ik me kan herinneren de mogelijkheid om in runtime modules toe te voegen en te verwijderen. Da's dus zeker al sinds 1995 en dus kun je er gevoeglijk van uitgaan dat dit altijd zo geweest is.

Met de hardware van toen was het niet *nodig*, omdat de monolitische kernel kon worden geoptimaliseerd tot minder dan 1 MB... Rond '98 kwam voor mij de omslag toen een monolitische kernel met alle modules die ik nodig had echt te groot werd om handzaam te zijn.

Even naar de geschiedenis van insmod/modprobe/rmmod kijken...
Ja, die goeie oude tijd dat je een complete Linux installatie inclusief shell op een floppy kwijt kon :+
In linux heb je ook gewoon een driver die je kan installeren voor een bepaalde grafische kaart (en ook andere dingen zoals geluid enzomeer). Echter is het op kernelniveau allemaal veel sneller en op die manier moet je ook geen driver meer gaan downloaden omdat het er al inzit.
In dit recente interview met Greg Kroah-Hartman lees je waarom dit zo is: http://howsoftwareisbuilt...nux-kernel-devmaintainer/
Dit ligt meer aan de fabrikant dan aan Linux. De drivers voor Nvidia kaarten worden gewoon geleverd door nvidia, en zodra je die installeert doen ze het ook gewoon. Voor een nieuwe grafische kaart van Nvidia hoeft er dus ook geen regel code in de kernel veranderd/toegevoegd te worden...

Windows wordt gewoon ondersteund door alle fabrikanten en linux niet....
Bij Windows werkt het allemaal wel zonder specifieke driver, net zoals het onder linux met een standaarddriver wel allemaal werkt, maar voor de optimale performance heb je zowel voor linux als ook voor windows toch echt recente drivers nodig. Bij linux is een driver een kernelmodule, bij windows heet het gewoon een driver, maar komt vanuit de gebruiker wel op hetzelfde neer. Effectief is er dus weinig verschil.
Bij Linux krijg is standaard een "echte recente driver" voor je hardware. Bij Windows is het inderdaad een basic driver die een hele classrange van devices afhandelt, bij Linux is de kernel driver meestal de officiële. Er zijn maar een paar uitzonderingen, zoals Nvidia/ATI en een paar zeldzame wifi kaartjes.
knettergek??? - nou zou wil ik het dan weer niet noemen, onwetend, of misschien onbedachtzaam??¿

je kunt natuurlijk op je vingers na tellen dat, er voor windows waarschijnlijk even lang is gewekt aan drivers, echter gebeurde dit al tijdens de bouw van de chips, linux heeft daar gewoon een oneerlijke achterstand.

verder is je statement ook niet helemaal waar, vergelijk het maar eens met de 'driver' problemen die we hadden bij vista, ik heb verhalen gehoord van mensen die maanden moesten wachten op vista drivers, en ik meen dat creative behoorlijk onder vuur lag om dat het zo lang heeft geduurd om drivers te bouwen (als die al kwamen).

bovendien wordt er wel degelijk af en toe iets te geweizigd in windows om ondersteuning te bieden voor nieuwe hardware.

bij linux is dat echter anders. linux gaat niet in grote stappen vooruit, zoals windows...
'wij' leven op kleine releases met steeds kleine verbeteringen, terweil men bij windows liever grote stappen neemt. over een periode van meerdere jaren vraag ik me zeer af wat uiteindelijk beter is, 100 kleine stapjes, 2.3.1 - 2.3.2 ... 2.3.30 etc, of 1 reuze stap, (windows nt 5.2, windows NT 6.0, windows nt 7.0 etc) en dan vervolgens nog 150 bugfixes. in de jaren erna, na elke van deze releases.

verder is het bij linux vaak zo dat men het ontwikkelen van drivers in de kernel houd. dat betekend dus dat driver modules, met een kernel-update worden meegestuurt -
je kunt natuurlijk op je vingers na tellen dat, er voor windows waarschijnlijk even lang is gewekt aan drivers,
Nee, volgens het interview die ejabberd hierboven postte is een Linux driver ongeveer 3x zo klein als een Windows driver, omdat er meer code gedeeld wordt over devices. Voor 20 wifi drivers hoef je niet 20x wpa te implementeren, of 20x een configuratie utitlity te maken, je hoeft alleen het hardware specifieke deel af te handelen.
Dit in tegenstelling tot Windows. Wifi is daar echt een zooitje, met allemaal verschillende drivers met eigen custom tooltjes. Neem een andere wifi kaart en je kunt weer opnieuw beginnen met uitzoeken hoe het ding werkt. Neem op Linux een andere kaart en je merkt het verschil niet eens (mits de driver goed werkt natuurlijk).
kms, ksm, kvm.. Echt duidelijk zijn de afkortingen niet :/
KMS betekent Kernel-based modesetting. Modesetting is zeg maar alle variabelen van je beeld (kleuren, resolutie etc) instellen, en KMS is significant omdat dit vroeger in userland werd gedaan. Nu is dat dus (voor de 3 generaties RadeonHD kaarten in ieder geval, voor Intel gfx chips bestond dit al langer en voor Nvidia-based chips komt dit er ook aan) naar de kernel verplaatst. Dit levert voordelen op. Om maar eens een paar te noemen:
- zonder rootrechten X server kunnen draaien: hoe minder software met elevated privileges kan draaien, hoe beter. Tel daarbij op dat de X.org stack best wel veel code is, en dan kan je bedenken dat dit best een groot security puntje is.
- Het is sneller dan userland-modesetting. Als je naar een Virtual terminal switcht bijvoorbeeld met ctrl+alt+f2 dan merk je dat de switch nu instantaan is. Eerst was er een merkbare periode. Tevens heb je nu ook dat virtual terminals op je monitor's native resolutie worden weergegeven.
- Het geeft de mogelijkheid tot een grafisch foutmeldingscherm. VZIW zijn hier geen concrete plannen voor, maar het kan wel.

Het is overigens niet zo dat KMS automagisch de 3D prestaties omhoogschroeft (en waar Dimitri Reijerman dit idee vandaan heeft is mij een raadsel). Er is nu wel support voor FOSS 3D graphics (en ik kan inmiddels uit eigen ervaring zeggen dat dit best wel goed werkt, op een memleak in X.org na) maar daar is veel meer bij komen kijken dan alleen KMS. Er waren o.a. een nieuwe graphics memory manager (een GEM/TTM mix) voor nodig, en natuurlijk de code die het zware werk verricht zelf.

En wat betreft de MS Hyper-V code: die gaan er misschien in 2.6.33 alweer uit omdat niemand in MS zich geroepen voelt de (onvermijdbare) bugs in de code te pletten.
Betekent dit dat ik dan eindelijk zonder stotteren HD films kan kijken op mijn mobility 2600, of heeft dit echt alleen effect op 3d games/programma's? Op windows (vista) gaat dit zonder problemen, maar in Ubuntu nog steeds niet helaas :(
Alle r5xx en nieuwere chips kunnen alleen textured Xv aan, dus verbeteringen wat 3D versnelling betreft zijn wel relevant. Echter verandert dit niks aan ondersteuning voor UVD(2), dus is je CPU nog steeds de bepalende factor.
als je de fglrx driver gebruikt, kan je wel je uvd2 (en dan ook alleen versie 2) benutten.
Zoek op xvba en vaapi

Het is alleen jammer dat van UVD2 nooit een opensource implementatie van komt, zal wel juridisch niet kunnen wegen licensies van h264 ed.

[Reactie gewijzigd door DLGandalf op 5 december 2009 01:35]

Daarvoor zou je eigenlijk xvba-video van de repositories moeten plukken. Ik weet niet of ze al uit de betafase zijn, maar het schijnt goed te werken.

De toevoeging van Radeons aan de KMS zorgt er voor dat (delen van) de drivers niet via de X server word geladen maar rechtstreeks vanuit de kernel.
AMD is al bezig met een flinke inhaalslag om nVidia als onofficiële Linux-friendly GPU fabrikant te onttronen.
Dat zou wel leuk zijn, als ATI goede linux support maakt ben ik over!

Heb je een link naar iets wat naar ATI/AMD verwijst tov linux drivers?
Ik denk in alle eerlijkheid dat als je nu op je RadeonHD 2600 kaartje HD films wil kijken je terug moet naar fglrx: hier zijn ze van plan binnenkort support in te bouwen voor XvBA waarbij ook userland apps (denk aan mplayer, het gstreamer framework etc) er echt gebruik van kunnen maken.

Als je met enkel FOSS HD filmpjes wil kunnen afspelen waarbij het werk geoffload wordt naar je gpu, zal je moeten wachten totdat het Gallium3D driversysteem op zn plek zit.
In het kort werkt dat door in 2 fasen te coden: 1 specifiek voor je hardware, en daarboven nog een laag met zogenaamde state trackers die dan zorgen voor bijvoorbeeld OpenGL of OpenCL support. Zo ook komt er een state tracker voor het naar je gpu offloaden van video decoding. Natuurlijk zit het Gallium3D systeem wat ingewikkelder in elkaar maar voor uitlegdoeleinden hier is dit versimpelde beeld goed genoeg. De reden dat het systeem er nog niet is, is omdat het een nieuw systeem is en er nog weinig drivers voor bestaan. Die zijn al wel in ontwikkeling, maar het is moeilijk en tijdrovend om drivers voor gfx cards te schrijven, zelfs met een systeem als Gallium3D, en daarnaast zijn de verschillende driverteams nogal onderbemand.

@DLGandalf: De RadeonHD 2600 niet, maar de HD2600 mobility wel.

[Reactie gewijzigd door Jeanpaul145 op 5 december 2009 12:28]

voor zover ik weet heeft de RadeonHD 2600 geen UVD2 support, hier zullen dan ook géén xvba implementatie voor gemaakt worden.
Heb je geen IO probleem dan? Dat lijkt me een logischere oorzaak dan je 2D acceleratie...
Met de kms-techniek kunnen deze Radeon-kaarten betere 3d-prestaties leveren.
Voor zover ik weet heeft KMS weinig te maken met 3D versnelling, het zorgt ervoor dat het wisselen van grafische modes door de kernel afgehandeld kan worden waardoor er bijvoorbeeld al tijdens het booten op de native/hoogste resolutie kan worden weergegeven. Hiermee wordt o.a. het switchen tussen X (grafisch) en de shell (text) ook veel sneller gedaan dan voorheen in 'userspace'.

Er is ook 3D versnelling toegevoegd voor nieuwere generaties Radeon kaarten, maar dit is een geheel ander project (Mesa e.d.) dan KMS.

[Reactie gewijzigd door litemotiv op 4 december 2009 19:54]

De shell is nu dacht ik ook grafisch en wordt gevirtualiseerd door KMS. En inderdaad, KMS heeft vrij weinig met 3D te maken. Grove fout in het artikel!

En volgens mij gaat Mesa plaatsmaken voor Gallium3D.
Mesa gaat niet plaats maken voor, maar deel uitmaken van Gallium3D, en dat als een OpenGL state-tracker. Voordeel hiervan is dat als Mesa een nieuw deel van de OpenGL specificatie ondersteunt, dit niet voor elke driver apart zal moeten ondersteund worden (e.g. interfacen met Mesa), maar slechts éénmaal met Gallium3D die op zijn beurt dan de zaken met Mesa zal afhandelen.
Dit principe geldt evenzeer voor andere technologieën, zoals Xv/VDPAU of OpenCL. Waar die nu per-driver moeten geimplementeerd (of geinterfaced) moeten worden, zal dit allemaal via het Gallium3D framework gaan.
goed uitgelegd, maar je wat je bedoelde even had moeten toevoegen voor de 'leken': Mesa een opensource implementatie is van de OpenGL specificatie
Ook zouden de prestaties van de kernel zijn verbeterd door nieuwe code voor het cpuidle-framework en het btrfs-bestandssysteem, ...
Beetje vreemd dat btrfs zich bij de maker (Oracle) nog in een alpha-stadium bevindt terwijl er in de nieuwe Linux kernel al performance-tweaks voor doorgevoerd zouden zijn...
Vreemd dat een alpha-product verder verbeterd wordt en daardoor sneller is? Ik snap het niet :P
The Btrfs disk format is not yet finalized, and it currently does not handle disk full conditions at all. Things are under heavy development, and Btrfs is not suitable for any uses other than benchmarking and review.
http://oss.oracle.com/projects/btrfs/

Als de maker zelf dit zegt, denk je dan dat er veel mensen zijn die dit gebruiken?
je zal soms verbaast staan denk ik. het zal zeker niet standaard staan geactiveerd op een distro of live-CD maar veel mensen die met linux werken hebben er schik in om dit soort dingen uit te proberen enzo. en als daar dan kernel developers bij zitten die zien dat iets beter kan, waarom dan uitstellen?
dat helpt ook gelijk om het product uit de alpha dan wel bèta fase te halen lijkt me.

eigenlijk is dat ook gelijk de kracht van Linux. alles wat normale gebruikers gaan gebruiken is al tijden lang door de Linux actievelingen gebruikt en zit dus meestal heel goed in elkaar.

[Reactie gewijzigd door Countess op 5 december 2009 00:07]

Dus dadelijk ook hardware versnelling bij de populaire AMD780 & 785 chipsets, zoals al enige tijd het geval is bij de Nvidia 9300/9400 via VDPAU _/-\o_
Nee, zeker niet. Waarschijnlijk komt er ooit in de toekomst (waarneer de devs niets meer te doen hebben ;)) ondersteuning voor het decoderen van films op de videokaart via shaders, maar zeker niet binnen afzienbare tijd.

Dit gaat puur om 3D-versnelling.

Misschien vind je het leuk om te lezen dat XvbA sinds kort (soort van) werkt op Linux, maar dit is wel closed-source.

[Reactie gewijzigd door mzziol op 4 december 2009 20:06]

met openCL en (opensource) openCL drivers voor de radeon hoeft het helemaal niet zo lang te duren eigenlijk.
openCL ondersteuning is er in linux, en volgens mij zijn de eerste Beta's van openCL drivers uit.
ook deze oplossing is niet ideaal, want dit maakt gebruik van de shaders zoals mzziol al zei, UVD2, is een technologie die gebruikt maakt van een apart stukje hardware op de die die uiterst efficient HD kan decoden. Shaders zullen nooit zo efficient zijn.
Ziehier het grote euvel van Linux.
Het loopt qua hardware ondersteuning altijd achter. (ja ook de schuld van hardwarefabrikanten) Tel daar de versplintering door de diverse distro`s bij op en het word duidelijk waarom mensen niet overstappen.
Wil Linux echt een serieuze tegenhanger worden van windows (Bij thuisgebruikers) moeten ze toch eens met zichzelf om tafel om een degelijke route uit te stippelen in plaats van voor elke nichemarkt een aparte distro uit te brengen.
Ik heb een tijdje Linux naast windows gedraait om te zien of ik zonder problemen kon switchen. Helaas zijn mijn ervaringen op het gebied van hardwareondersteuning en gamen niet al te best. Dat gestoei met Wine om spellen aan de gang te krijgen is een spel op zich en wel een achievement waardig :P

Zolang je alleen maar wat tikt en internet is linux best een optie, wil je meer is het voor de meeste mensen gewoon geen doen.
Totaal oneens met wat je schrijft, maar dat zal waarschijnlijk een persoonlijke ervaring zijn.
Wat bedoel je met
..in plaats van voor elke nichemarkt een aparte distro uit te brengen.
?

En vooral dat laatste, ik denk zelf dat juist voor de meeste mensen die niet alleen wat tikken maar net wat meer willen doen met hun PC, linux (welke distro dan ook) uitermate geschikt is.
Stabieler, duidelijker en overzichtelijker om mee te werken (ook een persoonlijke ervaring ;) )
Uhm.. stabieler? duidelijker? en overzichtelijker?.. vraag me dan af welke linux jij gebruikt.. het probleem met linux is juist dus ook al die verschillende distro's, en ook het probleem dat je niet zomaar dus een 'linux'programma kunt downloaden, nee die moet dan ook nog voor jouw distro beschikbaar zijn.. Voor een gemiddelde gebruiker (dus een non-tweaker) is linux een stuk gebruiksonvriendelijker dan windows, maar het gaat wel langzaamaan de goede kant op..

En abraxas heeft dus wel echt gelijk dat ze daar bij al die linux distro's een rond de tafel moeten gaan zitten om eens op 1 lijn te komen.. want ook bv Google's Chrome-OS en android zijn niets anders dan weer aparte linux distro's.
Over het algemeen moeten gebruikers nooit manueel een programma "downloaden", het maakt dus niet uit in welk formaat de developers het beschikbaar maken, zolang het door de distro managers maar correct verwerkt wordt in hun package-management systeem.
Als dat goed gebeurt (en dat valt bij populaire distro's zoals Ubuntu of Fedora best wel mee), durf ik dat wel duidelijker en gebruiksvriendelijker noemen dan een doorsnee windows versie.
Maar het is een wat andere manier van werken, waardoor de meeste Windows gebruikers dit nogal snel "onoverzichtelijk" of "onduidelijk" durven noemen :)
Sorry, maar Linux is wel degelijk stabieler dan Windows. Als je veel software installeert, terug verwijderd, honderden users aanmaakt en aanpast, dat gaat een hoop eenvoudiger in Linux. Mijn uptime van mijn downloadservertje zit rond de 178 dagen :)

Verder moet je ook helemaal niet zoals in Windows duizend verschillende sites afgaan om een gratis en werkend softwarepakket te vinden, je start Synaptic op en hebt alles voor je neus staan.
Heb je überhaupt ooit al een linux programma proberen te installeren?

Er zijn duizenden programma's beschikbaar in de repo's van de distributies.
En als er een programma niet in de repo's beschikbaar is heb je erg veel kans dat er een .deb of .rpm bestand te vinden is, welk even gemakkelijk te installeren is als een Windows programma.

De verschillen in distributies zijn trouwens ook echt niet zo groot, zo goed als alle packeges zijn hetzelfde, enkel de versies zullen wat veranderen. Sommige distro's kiezen voor bleeding edge (fedora), andere gaan voor oerstabiel (debian). Voor de rest is het gewoon de configuratie die vooral veranderd.


Google Chrome-OS en android zijn dan juist weer voorbeelden van dingen die niét weer-een-andere Linux distro zijn. Google had gewoon een kernel nodig voor haar OS'en en koos de Linux kernel, voor de rest stopt de vergelijking met andere Linux distro's.
Heb je überhaupt ooit al een linux programma proberen te installeren?
Jazeker. Ik kreeg een lijst met een kleine 10 programma's die allen ongeveer hetzelfde deden met daarbij aan mij de vraag welke ik wilde installeren. Toevallig wist ik wat ik wilde hebben, maar een doorsnee gebruiker rent volgens mij gillend weg. Tot aan Ubuntu 9.04 werd 'los' geïnstalleerde software niet meegenomen in het Synaptic overzicht (Skype bijv.), dus hoe uninstall je software dan zonder de terminal in te duiken? Gelukkig is dat in 9.10 aangepast.

Maar om op OP terug te komen: ja, er moet zeker uniformiteit binnen Linux komen. Al die disotro's zorgen voor versnippering, maar ook voor verspilling van tijd en effort. Ubuntu is een mooi begin, maar ook ik durf de overstap nog niet te maken, te meer omdat ik niet kan garanderen dat mijn OS een update overleefd (elke 6 maanden), heb mijn Ubuntu installatie sinds 7.04 al tweemaal 'gebriked'.

@Goderic
Ik ga nu even heel flauw doen, hopelijk ga je er even in mee.
Pas wanneer iedereen hetzelfde denkt zal er maar 1 Linux distro zijn.
Windows heeft daar anders geen enkel probleem mee en Apple heeft er zelfs zijn bedrijfsfilosofie van gemaakt. Keuze? Daar doen wij niet aan, mensen willen geen keuze, mensen willen dat het werkt. One size fits all.
En waarom zou het jou iets kunnen schelen hoeveel distributies er zijn? Als je dat echt zo erg vind dan moet je maar doen alsof er slechts 1 distro bestaat en je probleem is opgelost =)
Om dezelfde reden als je eerste quote, maar dan precies andersom: ik ben niet in mijn eentje! Het merendeel van de mensen heeft een werkende computer dankzij het handige buurjongetje en dankzij goedwerkende drivers van fabrikanten. In wat voor krankzinnige wereld gaan we terecht komen als we van dat buurjongetje gaan verwachten dat ie 10 distro's kent en dat fabrikanten ook voor 10 distro's drivers gaan uitbrengen en onderhouden? Dat gaat helemaal niet gebeuren waardoor je vanzelf één defacto distro zult krijgen die mainstream wordt, en vooralsnog lijkt Ubuntu die kant op te gaan.
Natuurlijk, de Windows package manager geeft je direct het juiste programma dat je nodig hebt...
Hij laat me iig zien wat er op mijn systeem staat ;).
Of wacht er ís helemaal geen Windows package manager dus als je een extra programma moet installeren op Windows moet je gaan googlen en dan uit 20 verschillende trials een keuze maken.
Wat is het gemakkelijkst denk je?
Mensen vinden datgeen wat ze al kennen vaak het makkelijkste, dus dan is dat de Windows manier. Blijft onverlet dat de package manager een heel fijne tool is, maar als je distro ineens erg populair wordt (je wordt commercieel interessant), dan ga je volgens mij veel gezeik krijgen van softwareleveranciers die niet in de package manager komen. Dat deden RealPlayer en Opera al op het Windows platform (zonder package manager), dus hou je maar vast wat dat op Linux gaat doen.

[Reactie gewijzigd door Rick2910 op 5 december 2009 00:01]

Verschillende distro's zijn er omdat er mensen zijn die anders denken over bepaalde dingen. Pas wanneer iedereen hetzelfde denkt zal er maar 1 Linux distro zijn.
Patches voor packages worden worden ook in andere distributies gebruikt, dus het is zeker niet dat elke distro alles dubbel doet.

En waarom zou het jou iets kunnen schelen hoeveel distributies er zijn? Als je dat echt zo erg vind dan moet je maar doen alsof er slechts 1 distro bestaat en je probleem is opgelost =)
Jazeker. Ik kreeg een lijst met een kleine 10 programma's die allen ongeveer hetzelfde deden met daarbij aan mij de vraag welke ik wilde installeren. Toevallig wist ik wat ik wilde hebben, maar een doorsnee gebruiker rent volgens mij gillend weg. Tot aan Ubuntu 9.04 werd 'los' geïnstalleerde software niet meegenomen in het Synaptic overzicht, dus hoe uninstall je software dan zonder de terminal in te duiken? Gelukkig is dat in 9.10 aangepast.
Natuurlijk, de Windows package manager geeft je direct het juiste programma dat je nodig hebt... Of wacht er ís helemaal geen Windows package manager dus als je een extra programma moet installeren op Windows moet je gaan googlen en dan uit 20 verschillende trials een keuze maken.
Wat is het gemakkelijkst denk je?

[Reactie gewijzigd door Goderic op 4 december 2009 23:34]

Windows heeft daar anders geen enkel probleem mee en Apple heeft er zelfs zijn bedrijfsfilosofie van gemaakt.
Je snapt mijn punt niet. Open source software is "van iedereen", iedereen heeft de mogelijkheid om er zijn eigen ding mee te doen, dus zolang mensen verschillende dingen denken zullen ze ook verschillende dingen doen.
Er zouden wss ook hopen mensen Windows of Mac aanpassen mochten ze het mogen/kunnen, maar het mag/kan niet dus het gebeurt niet.
Keuze? Daar doen wij niet aan, mensen willen geen keuze, mensen willen dat het werkt. One size fits all.
Nu moeten mensen toch ook kiezen tussen Apple of Microsoft? Waarom zouden ze niet mogen kiezen tussen Apple, Microsoft, Ubuntu en OpenSuse? Who cares dat die 2 laatste dezelfde kernel (en nog veel meer) hebben, alsof het mensen iets kan schelen welke kernel hun besturingssysteem heeft?
Om dezelfde reden als je eerste quote, maar dan precies andersom: ik ben niet in mijn eentje! Het merendeel van de mensen heeft een werkende computer dankzij het handige buurjongetje en dankzij goedwerkende drivers van fabrikanten. In wat voor krankzinnige wereld gaan we terecht komen als we van dat buurjongetje gaan verwachten dat ie 10 distro's kent en dat fabrikanten ook voor 10 distro's drivers gaan uitbrengen en onderhouden? Dat gaat helemaal niet gebeuren waardoor je vanzelf één defacto distro zult krijgen die mainstream wordt, en vooralsnog lijkt Ubuntu die kant op te gaan.
Zoals ik al zei, die distro's verschillen echt niet zoveel.
Als de fabrikanten het spelletje spelen zoals het hoort steken ze hun drivers in de kernel en moeten ze er maar 1 maken. Als ze hun drivers niet in de kernel steken zullen ze voor elke kernel/Xorg versie een nieuwe driver moeten maken. Verschillende distro's maken geen verschil, kijk maar naar ATi of Nvidia, er is 1 linux driver voor alle linux distro's. (oké, het zijn drivers die je via de terminal moet installeren, maar het is 5 minuten werk om een .deb en een .rpm installer (goed voor 100% van alle beginners distro's) te maken die achter de schermen exact hetzelfde doet)
Hij laat me iig zien wat er op mijn systeem staat .
Zeer interessant als je opzoek bent naar een nieuw programma? Mijn packagemanager doet dat trouwens ook, dus volgens mij doe jij iets fout.
Mensen vinden datgeen wat ze al kennen vaak het makkelijkste, dus dan is dat de Windows manier. Blijft onverlet dat de package manager een heel fijne tool is, maar als je distro ineens erg populair wordt (je wordt commercieel interessant), dan ga je volgens mij veel gezeik krijgen van softwareleveranciers die niet in de package manager komen. Dat deden RealPlayer en Opera al op het Windows platform (zonder package manager), dus hou je maar vast wat dat op Linux gaat doen.
Oermensen (we gingen het flauw doen hé ;) ) vonden wandelen waarschijnlijk veel makkelijker dan autorijden (waarom eigenlijk altijd vergelijkingen met auto's?), toch maken veel mensen nu gebruik van de auto.
Mensen passen zich ook aan en leren nieuwe dingen die in het begin moeilijk zijn maar daarna handiger zijn. Of wandel jij ook naar school/ werk omdat leren fietsen/autorijden zo moeilijk is?

Wat de software leveranciers betreft, niemand houdt hun tegen om een deal te sluiten met de makers van distributies ;) Opera zit bijvoorbeeld al in de repo's van Ubuntu.

Op het moment dat een Linux distributie in de zelfde (monopolie) als Windows zou komen zullen ze misschien verplicht worden om meer programma's in hun repo's op te nemen, maar dat is technisch gezien helemaal geen probleem.

[Reactie gewijzigd door Goderic op 6 december 2009 23:50]

Jazeker. Ik kreeg een lijst met een kleine 10 programma's die allen ongeveer hetzelfde deden met daarbij aan mij de vraag welke ik wilde installeren. Toevallig wist ik wat ik wilde hebben, maar een doorsnee gebruiker rent volgens mij gillend weg.
En hoe gaat dat met Windows? Waar kan jij bij Windows opgeven dat je een nieuw programma wilt installeren? Hoef je bij Windows niet te weten wat je wilt hebben om het te installeren?
Maar om op OP terug te komen: ja, er moet zeker uniformiteit binnen Linux komen. Al die disotro's zorgen voor versnippering, maar ook voor verspilling van tijd en effort.
Moet er ook uniformiteit in auto's komen? Of in koekjes? Moet iedereen maar dezelfde smaak koffie en cola lekker vinden? Nee? Waarom moet dat met distro's dan wel?
Ubuntu is een mooi begin, maar ook ik durf de overstap nog niet te maken, te meer omdat ik niet kan garanderen dat mijn OS een update overleefd (elke 6 maanden), heb mijn Ubuntu installatie sinds 7.04 al tweemaal 'gebriked'.
Tsja, en ik heb al 7 jaar een laptop met Linux draaien, ontelbaar keer geupgrade en toch doet hij het nog steeds en draait de nieuwste software... met Windows had ik in die tijd toch wel een aantal reinstalls moeten doen, nog even los van het feit dat het ding met Vista of Windows 7 twee weken nodig zou hebben om te booten...
Het merendeel van de mensen heeft een werkende computer dankzij het handige buurjongetje en dankzij goedwerkende drivers van fabrikanten. In wat voor krankzinnige wereld gaan we terecht komen als we van dat buurjongetje gaan verwachten dat ie 10 distro's kent
Als dat buurjongetje 1 distro kent, dan installeert hij die distro toch bij iedereen die hij kent?
en dat fabrikanten ook voor 10 distro's drivers gaan uitbrengen en onderhouden?
Nee, fabrikanten maken drivers voor Linux en de distro's integreren die drivers in hun distro.
Windows heeft daar anders geen enkel probleem mee
Hoezo, er is maar 1 Windows distributie?
  • Starter
  • Home Basic
  • Home Premium
  • Professional
  • Enterprise
  • Ultimate
en dan heb ik het nog niet eens over de verschillen tussen de Windows-installatie die je bij een Dell PC krijgt en die je bij een HP PC krijgt (gratis versie virusscanner X, trial versie Office Y, adware versie tooltje Z).
Mensen vinden datgeen wat ze al kennen vaak het makkelijkste, dus dan is dat de Windows manier.
Een uitstekende reden om alle innovatie maar stop te zetten...
Blijft onverlet dat de package manager een heel fijne tool is, maar als je distro ineens erg populair wordt (je wordt commercieel interessant), dan ga je volgens mij veel gezeik krijgen van softwareleveranciers die niet in de package manager komen.
Waarom? Bij de meeste distributies is het een fluitje van een cent om een script te maken voor de packagemanager (eerder makkelijker dan moeilijker dan een .MSI maken), dus als die softwareleverancier zelf zo'n script maakt (en voldoende aannemelijk kan maken dat hij het up to date houdt) dan zal geen enkele distro daar moeilijk over doen.
Dat deden RealPlayer en Opera al op het Windows platform (zonder package manager), dus hou je maar vast wat dat op Linux gaat doen.
Daar zit toch wel een aantal gigantische verschillen tussen
  • Zoals je al zei: geen package manager
  • dat MS zelf een product levert dat concurreert met de genoemde producten
  • dat MS een monopolie-positie heeft
[/list]

Het probleem blijft dat je blijft denken vanuit een Windows-wereld en de Linuxwereld wilt veranderen een Windows-wereld-met-een-Linux-sausje.
Tot aan Ubuntu 9.04 werd 'los' geïnstalleerde software niet meegenomen in het Synaptic overzicht (Skype bijv.),
Onzin, los geinstalleerde packages stonden gewoon in de lijst en waren gewoon te deinstalleren. Op Dapper (6.06) stond Skype al tussen m'n package lijst als ik de package geinstalleerd had. Non-package software kent synaptic inderdaad niet. Het is dan ook een *package* manager, geen zelfgecompileerde-software-manager.
Windows heeft daar anders geen enkel probleem mee en Apple heeft er zelfs zijn bedrijfsfilosofie van gemaakt. Keuze? Daar doen wij niet aan, mensen willen geen keuze, mensen willen dat het werkt. One size fits all.
En dat is ook precies een van die redenen waarom ik niks van Windows moet hebben. Windows doet niet wat ik wil en zal dat ook nooit gaan doen door de rare company policies van MS.
Bovendien is hun UI achterlijk, maar dat is weer een andere issue en zal ik niet al te veel op ingaan. Het enige wat ik er over kwijt wil is dat ik me gister af zat te vragen wanneer ze het startmenu voortaan net zo groot als de desktop gaan maken en IE, WMP en MSN er standaard in integreren, in plaats van als los programma aan te bieden. Dan hoeven ze voortaan ook geen desktop meer te hebben en kunnen ze gewoon alleen het start menu als UI gaan leveren.
het probleem met linux is juist dus ook al die verschillende distro's
Wat maakt het voor de gemiddelde gebruiker nu uit dat er andere distributies zijn die dezelfde kernel gebruiken? Een gebruiker gebruikt toch Ubuntu, of Fedora, kan hem het nu schelen dat er nog tig andere distributies zijn.

Elke distributie heeft zijn eigen manier van dingen doen, en elke distributie heeft zijn eigen voor en nadelen. 'Even alles gelijk trekken' lijdt alleen maar tot compromissen, en uiteindelijk is het allemaal matig.
en ook het probleem dat je niet zomaar dus een 'linux'programma kunt downloaden, nee die moet dan ook nog voor jouw distro beschikbaar zijn
En maar goed ook. Van de gemiddelde consument kan niet verwacht worden dat ze een zinnige uitspraak over de correcte(en gewenste) werking van software kunnen doen. Die beslissing moet worden gemaakt door een vertrouwde partij, met mensen met verstand van zaken, zoals je distributie. Doordat de gemiddelde Windows gebruiker zo gewend is dat hij zomaar overal software moet downloaden staan een groot deel van de consumenten PC's vol met spyware, adware, virussen, keyloggers, botnetten en andere crap. Dan kan ook bijbehorende symptoombestrijding in de vorm van virusscanners en consumenten-firewalls ook afgeschaft worden. Daar wordt iedereen beter van.

Het 'downloaden van software' is het grote beveiligingsprobleem waar consumenten ook daadwerkelijk tegenaan lopen, en het is daarmee iets dat men moet afleren, in plaats van aanmoedigen.
En maar goed ook. Van de gemiddelde consument kan niet verwacht worden dat ze een zinnige uitspraak over de correcte(en gewenste) werking van software kunnen doen. Die beslissing moet worden gemaakt door een vertrouwde partij, met mensen met verstand van zaken, zoals je distributie.
Zal ik mijn computer dan maar meteen bij 'mijn distro' afgeven? Ik ben nog altijd baas over mijn eigen computer en heb echt niemand nodig die mij gaat vertellen wat ik er wel en niet mee mag doen. En als ik het vervolgens vernachel dan is dat mijn keuze, altijd nog beter dan één of andere betweterige distro die denkt te weten wat zijn gebruikers willen en doen.
Zal ik mijn computer dan maar meteen bij 'mijn distro' afgeven? Ik ben nog altijd baas over mijn eigen computer en heb echt niemand nodig die mij gaat vertellen wat ik er wel en niet mee mag doen. En als ik het vervolgens vernachel dan is dat mijn keuze, altijd nog beter dan één of andere betweterige distro die denkt te weten wat zijn gebruikers willen en doen.
En dat is nou precies de reden waarom ik geen Windows meer draai...
Als jij voldoende verstand van computers/OS'en hebt, kan je alle instellingen/keuzes die je distro voor je gemaakt heeft overrulen.
Waar het om gaat is, dat je distro-leverancier zorgt voor een goed op elkaar afgestemde mix van programmatuur. Net als MS zorgt dat ze geen Windows leveren met DirectX 21, terwijl de desktop DirectX 22.3 nodig heeft, alleen bij Linux-distro's gaat dat veel verder dan alleen het OS + grafische omgeving, maar tot aan gebruikersapplicaties aan toe en dus zorgen ze ervoor dat ze niet OpenOffice 19 (die minstens kernel 3.8 nodig heeft) op een systeem met kernel 3.6. Als jij denkt het beter te weten: ga je gang. Niemand die je tegenhoudt.

* expres rare versienummer gebruikt om te voorkomen dat er reactie komen als "ja maar, DirectX 58 werkt prima samen met kernel 24.7"
Uhm.. stabieler? duidelijker? en overzichtelijker?.. vraag me dan af welke linux jij gebruikt.. het probleem met linux is juist dus ook al die verschillende distro's, en ook het probleem dat je niet zomaar dus een 'linux'programma kunt downloaden, nee die moet dan ook nog voor jouw distro beschikbaar zijn..
Ik draai Mint(debian) en Debian met KDE, moet je toch maar 's kijken....
en uh..installeren (en updaten) gaat in ieder geval een stuk makkelijker dan bij windows
Voor een gemiddelde gebruiker (dus een non-tweaker) is linux een stuk gebruiksonvriendelijker dan windows, maar het gaat wel langzaamaan de goede kant op..
Voor een gemiddelde gebruker is linux stuk gebruiks vriendelijker. Tenzij je alleen maar windows kent, maar dan is alles wat anders is vreemd... soort van ..wat de boer niet kent vreet' ie niet. Window gebruikers hebben zelfs moeite om van de ene versie naar de nieuwe(re) versie te gaan....
Voor een gemiddelde gebruker is linux stuk gebruiks vriendelijker.
Zolang ik nog om wat voor reden dan ook de terminal in moet, of daar door anderen naartoe wordt verwezen, zal Linux nooit mainstream worden.

@bas r
Scriptjes maken? Mij niet gezien, geen zin in, ben veel te grafisch ingesteld. En velen met mij. Ik heb destijds pas een Mac gekocht toen ik zeker wist dat ik niet in de terminal hoefde te kloten. Ik zit onder Windows ook nooit meer in de command. En als jij sneller een scriptje typt dan er via klikken te komen dan ken je je OS niet goed genoeg, ofwel ben je écht een nerd (lees: een echte nerd, positieve zin des woords :)).

[Reactie gewijzigd door Rick2910 op 5 december 2009 18:29]

Juist die terminal geeft mij een hoop voordelen: het is een stuk sneller dan dat eeuwige geklik in Windows. Scriptje maken/draaien en klaar.
Ander voordeel is dat die terminals op verschillende linuxen zo goed als altijd naar de dezelfde commando's luisteren: mijn router, mijn telefoon, mijn pc, de servers op mijn werk: allemaal aan te sturen met dezelfde commando's.

Mainstream, dat is het al lang, je zal schrikken hoeveel apparaten in je huis op een linux draaien.
lol, waarom denk je dat windows beheerders (echte) ook via terminals beheren....simpelweg omdat het grafisch niet goed in elkaar zit om alle variabelen aan te passen...

volgens mij weet jij niet zo goed hoe jij met je eigen windows om kan gaan.
Jij bent zeker geen power user als je denkt dat je met klikken sneller kunt werken dan met commando's. Ik kan een hoop vergelijkingen voor je geven van zaken die sneller gaan op de commandline, maar als je zo denkt ga je toch nooit inzien hoe veel gebruiksvriendelijker een goede terminal werkt dan al die ingewikkelde grafische UI's waar ze veel te veel opties in proberen te proppen. Vooral MS software heeft daar last van.
Ik weet nog wel hoe ik onder dat rare Windows 7 (of was het vista? zie het verschil toch niet) minutenlang heb zitten zoeken naar de plaats waar ik m'n IP adres in kon stellen. Onder Linux doe je gewoon "ifconfig eth0 <ip> up" en klaar is kees. Dat werkt op iedere distro hetzelfde.

En dat je onder Windows geen terminal gebruikt verbaasd me niet. Daar heb je er niet zo veel aan, want die terminal is daar niet flexibel genoeg voor. Je mist er teveel goede commando's zoals grep en pipes heeft het al helemaal niet van gehoord. Ik weet dat dit allemaal als abracadabra voor jou klinkt, maar voor mij werkt het 10x sneller als die rommelige Windows GUI's.

Bovendien *hoef* je het niet te gebruiken. Ubuntu heeft ook overal GUI's voor, voor degenen die daar behoefte aan hebben. Voor degenen die daar niet op zitten te wachten, zoals ik, heb je tenminste de *mogelijkheid* om de commandline te pakken. De grootste reden dat je op Linux sites vaak commando's tegen komt is niet zozeer omdat de GUI er niet voor is, maar omdat het veel simpeler is om even een commando te copy-pasten dan uit te leggen waar je in een GUI iets kunt vinden.
"Open dit en dat tooltje wat daar en daar in je programmalijst zit, klik dit menu item hier en daar aan, zet hier een vinkje en klik een paar keer op OK"? Screw that...

[Reactie gewijzigd door kozue op 7 december 2009 14:15]

Weet je, ik heb een vriendin die geen "tweaker" is en die draait al een tijd met Linux. Ze kan, anders dan haar pc aan en uit zetten, niets 'tweaken'. Ze wil nooit meer terug naar Windows.
Dat is even een persoonlijke ervaring.

Jij doet net alsof alle "tweakers', zoals jij het ziet, zo slim zijn met een computer.
Is het een speciale soort mensen? Je bent kinderachtig en leeft in een hele kleine droomwereld. Je verknoeit een discussie met zo'n houding.
Dat is een persoonlijke mening.

Zie? Je kunt niet zomaar voor iedereen praten en anderen minderwaardig vinden omdat 'ze' geen 'tweaker' zouden zijn.
Het is ook niet eerlijk om spellen met Wine te gaan draaien, natuurlijk. Dit is niet de fout van Linux, maar de "fout" van de gamefabrikanten.

Ik ben het wel met je eens: Linux moet vercommercialiseren. Canonical is er gelukkig al mee bezig: Ubuntu One, Ubuntu Music Store, Support, Ubuntu Software Center (ook voor commerciële software), etc. Té erg moet het natuurlijk niet worden: de broncode moet natuurlijk ten alle tijden opvraagbaar zijn en ook de development moet openlijk gebeuren.
Het is ook niet zozeer vergelijken, maar voor verreweg de meeste games de enigste optie. En voor mijn overstap naar linux zeker een zwaar meetpunt.
En helaas voor linux, maar voor gamen moet je niet bij linux zijn. (Wie daar dan de schuld van is, is voor mij als eindgebruiker niet zo interressant).
Das niet erg, gamen op de pc is toch dood aan het gaan, consoles zijn het verleden, het heden en de toekomst, pc gaming was van tijdelijke aard.
Wil Linux echt een serieuze tegenhanger worden van windows ...
Je doet net alsof dat moet ofzo?
Dat gestoei met Wine om spellen aan de gang te krijgen is een spel op zich en wel een achievement waardig :P
Wat is dat nou voor onzin. Windows programma's, ook games, zijn gemaakt voor Windows en niet voor Linux. Mensen moeten het eens uit hun hoofd zetten om Windows games en andere programma's onder Linux te willen draaien. Dat kan niet. Daar zijn die programma's niet voor gemaakt en als het dan toch per ongeluk werkt op wat voor manier dan ook, dan nog zullen ze nooit beter werken dan onder Windows.
Niet geheel waar, er zijn applicaties die beter (sneller) draaien onder wine dan dat ze dat onder windows doen.
Uiteraard integreren ze niet zo mooi als een native applicatie maar om te zeggen dat ze nooit beter dan onder windows kunnen draaien is ook weer zoiets. Wine is dermate snel dat de windows versie van Firefox onder wine sneller is dan de native Linux versie. En ook word er bij de development van sommige programmas wel degelijk rekening gehouden met dat het in wine te draaien moet zijn.

Je brengt het over alsof het onmogelijk is wat dan ook te doen met windows programmas onder Linux, ik vermaak me echter prima met zowel Overlord als het goede oude Starcraft.
(Mech commander wil helaas niet, maar goed die doet het ook niet onder Windows 7..)
Welke ontwikkelaar/tweaker prefereert nou een OS bedacht door een bedrijf dat alleen maar zelf geld wil verdienen en de community/ontwikkelaars pas tegemoet komt als ze door concurrentie zo ver gedwongen worden?
Sorry hoor maar hier ga ik toch op reageren. Zie je zelf niet hoe krom deze opmerking is? Een commercieel bedrijf bestaat hoofdzakelijk maar voor een doel: geld verdienen. De oprichter ziet een gat in de markt, ontwikkelt een product of is ergens goed in en brengt dit op de markt. Aangezien dit tijd en geld kost en de beste man/vrouw ook brood op de plank wil hebben wordt hier geld voor gevraagt. Dat er dan mensen zijn die hetzelfde (in het geval van windwos <> linux) gratis wil doen betekent dit niet dat het commerciele bedrijf tet ook opeens maar gratis moet doen. Dit zou namelijk een mooie boel worden: Meneer A heeft een commercieel autobedrijf, Meneer B start een free-of-charge autobedrijf -> Menaar A is nu opeens evil, omdat hij geld vraagt voor zijn diensten...zie je nu hoe krom je reageert?

Back on-topic: goed om te zien dat linux werkt aan een betere ondersteuning voor hardware, toch nog steeds één van de mindere punten van linux. En naar mijn inziens de voornaamste reden waarom linux onder de massa (nog) niet aanslaat, het is verder namelijk een prima product (ubuntu livecd al een aantal keren gebruikt vooor rescue-operaties)
Silverstein bedoelt dat Microsoft pas wat doet als ze ingehaald worden door de concurrentie, zie IE6.
Windows is er de laatste 10 jaar nauwelijks op vooruit gegaan, Windows 2000 is vaak nog steeds stabieler en sneller dan Windows Vista/7.

5 jaar terug had je een punt gehad met slechte hardware ondersteuning voor Linux, tegenwoordig is het onzin en is de hardware ondersteuning soms zelfs beter dan onder Windows.
Snap ook niet waarom je post +2 informatief krijgt.

[Reactie gewijzigd door Spetsnaz op 4 december 2009 21:17]

. Zie je zelf niet hoe krom deze opmerking is? Een commercieel bedrijf bestaat hoofdzakelijk maar voor een doel: geld verdienen.
Dus? Daar heb je als gebruiker iets aan want...?
Wat kan het mij als eindgebruiker nou verrotten dat MS geld wil verdienen, mij interesseert het alleen maar dat mijn computer goed werkt.
Natuurlijk wil MS geld verdienen, dat is alleen geen reden om het goed te praten.
"Windows geeft mij minder vrijheid dan Linux, maar dat is niet erg, want MS moet ook ergens z'n geld aan verdienen" of zoiets?
Wie heeft er ooit gezegt dat dat uberhaubt de bedoeling was? :?

Linux is oorspronkelijk voor mensen die het leuk vinden om hun eigen OS in elkaar te draaien en daar lekker aan te tweaken en rommelen of voor mensen die graag eens met iets anders dan windows willen spelen.

Dat er hele volkstammen denken dat het de bedoeling is dat Linux windows gaat verdrukken zullen nog wel even moeten wachten. Aangezien dat niet direct het uitrangspunt is zal dat slechts als neveneffect kunnen gebeuren of als de markt zelf bepaald dat linux voordelen heeft t.o.v. windows of elk ander OS. Er is geen enkel perfect OS en elk OS (ook linux) heeft nadelen en en voordelen en iedereen moet die voor zichzelf afwegen.

Vooralsnog is blijkbaar windows voor de meeste gebrukers handiger dan Linux of OSX (om de 3 grootste maar te noemen, kan mij niet voorstellen dat mensen vrijwillig dagelijks met (open)VMS of OS/2 ofzo werken :) )

Ik zelf geef de voorkeur aan Linux omdat ik het leuk vind om te het OS te verbouwen naar mijn persoonlijke smaak (iets wat met Windows niet zo eenvoudig gaat) Maar ik gebruik ook veel windows omdat dat soms beter is.

Kortom maak je niet druk en gebruik wat je zelf handig vind of leer met de tekortkomingen te leven en probeer daar wat aan te doen door een bijdrage te leveren aan de community.

Vooralsnog is dit wederom een mooie update van de kernel waar een hoop mensen gelukkig van worden.

amen. :X
Linux is oorspronkelijk voor mensen die het leuk vinden om hun eigen OS in elkaar te draaien en daar lekker aan te tweaken en rommelen of voor mensen die graag eens met iets anders dan windows willen spelen.
Linux is een kernel, natuurlijk is dat bedoelt om een OS mee in elkaar te draaien, een kernel op zichzelf heb je niet zo veel aan. Echter is de focus van een linux distro helemaal niet om mensen een OS in elkaar te laten knutselen, maar om een goed werkende desktop aan te bieden.
Dat er hele volkstammen denken dat het de bedoeling is dat Linux windows gaat verdrukken zullen nog wel even moeten wachten.
Dat denken ze helemaal niet. Persoonlijk kan het me niks schelen of jij Windows of Linux draait, zolang die Windows gebruikers mij maar niet lastig vallen met hun gare OS.
Dat is wat me het meest tegenstaat van Windows, de hele community er omheen die denkt dat het het beste is wat de pc ooit is overkomen. Gister nog iemand op WoW die mij vroeg waarom ik Linux draai. Scuse me? Iemand die Linux draait heeft daar zelf voor gekozen. Ik heb hem gevraagd waarom hij Windows draait en hij kwam met kul aan, omdat er niks aan goede argumenten voor Windows in te brengen is. Dat hij Windows draait zal me een rotzorg wezen, zolang hij mij er maar niet mee lastig valt.
Vooralsnog is blijkbaar windows voor de meeste gebrukers handiger dan Linux of OSX
Nee, niet handiger, ze zijn het gewend. Dat is net zoiets als dat ik gewend ben om iedere dag een te lange route te rijden met de auto, niet wetend dat er ook een snellere weg is. Toch blijf ik het doen, want ik ken die shortcut niet.
Vergeet ook niet dat het niet zo hoeft te zijn dat mensen *kiezen* voor Windows. Op de Apple kopers na krijgen ze allemaal Windows voorgeinstalleerd op hun net gekochte computer. Wat denk je dat ze gaan doen? Dat gebruiken of iets anders installeren? Als er Linux op stond hadden ze dat gebruikt.
Ik zelf geef de voorkeur aan Linux omdat ik het leuk vind om te het OS te verbouwen naar mijn persoonlijke smaak (iets wat met Windows niet zo eenvoudig gaat) Maar ik gebruik ook veel windows omdat dat soms beter is.
Ikzelf geef niks om het OS verbouwen, en wil gewoon een gebruiksvriendelijke desktop. Daarom draai ik Linux, omdat Windows niet aan mijn eisen voldoet en ik het helemaal geen handig OS vind.

[Reactie gewijzigd door kozue op 7 december 2009 14:30]

Het loopt qua hardware ondersteuning altijd achter.
Er is maar weinig hardware dat niet ondersteund word. Ik denk zelfs dat de ondersteuning groter is dan die van windows, zeker bij iets oudere apparaten die sinds Vista niet meer werken heb je bij linux geen enkel probleem. Ook de nieuwste hardware werkt vaak zonder problemen.
Tel daar de versplintering door de diverse distro`s bij op
Er mag dan wel versplintering zijn, er zijn maar enkele grote distributies waarbij een deel zich dan zelfs nog niet op de thuisgebruiker richt..
in plaats van voor elke nichemarkt een aparte distro uit te brengen.
En ook hier laat men zien wat Linux allemaal kan. Van je GPS over je router via je smartphone op je PC tot de grootste/krachtigste servers, Linux draait op alles.
Zolang je alleen maar wat tikt en internet is linux best een optie,
Voldoende dus voor de meeste PC gebruikers.
geldt alleen voor games en niche programmas. De meeste mensen zijn juist beter af met Linux, mits het voldoende basisprogramma's meelevert (zoals Ubuntu) want zelf iets uitzoeken is verschrikkelijk moeilijk voor de gemiddelde persoon anno 2009.
mwah, one click installers van openSUSE verschillen niet veel van .exe's. Je klikt een linkje, drukt een paar keer next en het programma is geinstalleerd, okay je krijgt niet de optie om het na de installatie ook meteen te laten starten waardoor je in het menu moet zoeken.. dus daar ligt de lat iets hoger.

In ieder geval goed om te zien dat er aan support voor de oudere ATIs wordt gesleuteld, een aantal daarvan heeft geen support van AMD zelf meer (en dus werken ook de proprietary drivers niet) dacht ik. Maar goed ik zal nog steeds iedereen die van plan is linux te draaien een NVIDIA te kopen (of een intel) aangezien de kans erg klein is dat er bij die 2 wat mis gaat.
Of iets als Linux Mint. Sinds versie 8 gebruik ik het nu ook en ik vind het toch een aantal voordelen hebben tov. de normale Ubuntu.

- Alle evolution meuk is weg, en Thunderbird is de standaard mail-client.
- Codecs en de meeste browser-plugins zijn al geïnstalleerd op voorhand.
- Mits wat tweaks zeer gemakkelijk om Windows-gebruikers over te halen.

Alleen jammer dat ze wat achter lopen op het Ubuntu-releaseschema.
Hoe komt linux binnen moet komen bij de thuisgebruiker is marketing, en daar in is Microsoft is nog steeds heer en meester.
ik gebruik juist linux omdat ik meer wou dan een beetje tikken en internet gebruiken! en qua hardware ondersteuning is linux superieur aan welk besturing systeem dan ook! de hoeveelheid drivers die standaard mee geleverd worden en hoe vlekkeloos dat allemaal werkt(oude video-kaart eruit, nieuwe erin geen drivers die moet (un)installeren)...

tja, van tevoren moet je ff op de site van de distro maker of via google ff zoeken of het ondersteund wordt, dat kost 10 minuten voor een stukje hardware die 5 jaar mee gaat, dus een investering van tijd die wel bestempeld mag worden als nuttig.

er is meer dan alleen maar gamen in deze wereld, linux is net een trouwe hond die je altijd steunt, andere besturing systemen willen je soms nog wel eens laten barsten.

maar ik ben blij dat jij geen linux uitgevonden heb, anders hadden ze het nooit zo ver geschopt.

MAAR: de meeste mensen die tikken ook alleen maar een beetje en internetten, dus volgens jouw zou iedereen linux moeten gebruiken... terwijl je beweerd dat het niet zo is! je spreekt jezelf tegen....
Ik heb ook betere ervaring met hardware ondersteuning van Linux dan van Windows. Zelfs voor het draadloze toetsenbord en muis set van Microsoft zelf. Op WIndows kan ik daar geen drivers voor vinden, iig niet automatisch en ik heb echt geen zin om die te moeten zoeken. Op Linux en OS X doen alle knoppen het gelijk, bij windows dus gewoon niet. Hij leest de set niet eens als een keyboard muis set van Microsoft.

Hetzelfde voor andere apparatuur waar het op windows altijd geklooi met drivers is.
Zolang je alleen maar wat tikt en internet is linux best een optie, wil je meer is het voor de meeste mensen gewoon geen doen.
En meer is in dit geval spelletjes doen? Je kunt zoveel meer met een PC dan spelletjes.
Software ontwikkelen, DTP, muziek maken/bewerken, webdesign.
Dat wil allemaal prima onder Linux.
Weet je, je zou gelijk hebben als je t had over alleen gfx drivers (en zelfs daar wordt nu een enorme inhaalslag gemaakt). Wat de rest van de drivers betreft loopt Linux soms zelfs voor op windows (USB3.0 ondersteuning om maar iets te noemen). Het gfx drivers probleem verklaart gedeeltelijk je trubbels met gamen op Linux; de andere kant van het verhaal is dat de meeste devvers (enkele verlichte studio's zoals id software daargelaten) alleen hun games voor windows developen door DirectX te gebruiken ipv OpenGL/SDL/OpenAL. Dat je dan met wine een aantal games kan spelen is op zich al een klein wonder vind ik.
Daarnaast begin ik me nu af te vragen of ik wel wil dat Linux als "OS for the masses" doorbreekt: het levert alleen maar ergernissen (zoals pogingen tot virussen/rootkits) en onbegrip ("maar het werkt niet zoals windows!") op als je mensen de ogen probeert te openen. People, just take the blue pill!

Zo, dat was mijn rant voor vandaag.
Ik ben nu 5 jaar professioneel met Linux bezig en dit is volgens mij de status:

Server: Linux beter, sneller, stabieler. Steeds meer partijen hebben dat door en het gaat daar ook heel hard.

Desktop: Linux goed bruikbaar. Voor gamers wat lastiger. Wel veiliger en stabieler. Maar wat de boer niet kent... Hier zal het nog wel ff duren voor dit goed gaat lopen.

Daarentegen draai ik thuis en op het werk al jaren geen Windows meer en ik draai vanalles, tot best recente games aan toe. Je moet goed kiezen wat je koopt en dan is het zelfs met gamen goed te doen. Ik mis Windows eigenlijk vrijwel nooit.
Jouw reactie verbaast me.
Er wordt een nieuwsbericht gepost over de nieuwe versie van de Linux kernel, en je eerste reactie is:
Ziehier het grote euvel van Linux.
heh?

Verder schrijf je:
Wil Linux echt een serieuze tegenhanger worden van windows ... in plaats van voor elke nichemarkt een aparte distro uit te brengen.
Nieuwsbericht gaat niet over distros voor nichemarkten, maar ik vind het wel apart dat van de hoeveelheid distros wel een probleem gemaakt wordt, maar van de grote hoeveelheid automerken en types per merk weer geen probleem gemaakt wordt. Ik bedoel, een distro voor iedereen is hetzelfde als zeggen dat iedereen precies dezelfde auto moet rijden.

Of een ander voorbeeld: iedereen is vrij een eigen distro uit te brengen voor een bepaald publiek, net zoals dat iedereen vrij is een eigen politieke partij te beginnen. Als er geen behoefte is aan een bep. politieke partij, dan sterft het wel vanzelf (niemand stemt erop) en als er wel behoefte is, dan wordt zo'n partij vanzelf wel heel groot (Ubuntu, Fedora, etc)

Conclusie: ik begrijp niet waarom er altijd geklaagd wordt over het aantal distro's bij elk Linux-gerelateerd nieuwsbericht. Het is heel simpel: je kiest een distro en als het je bevalt dan blijf je erbij, en van het bestaan van andere distro's heb je simpelweg geen last.

[Reactie gewijzigd door terabyte op 6 december 2009 13:34]

Jouw reactie verbaast me.
Er wordt een nieuwsbericht gepost over de nieuwe versie van de Linux kernel, en je eerste reactie is:
Ja, dat is een van de dingen die me het meest stoort aan windows. Al die fanboys van MS. Linux is volgens hun per definitie niet gebruiksvriendelijk en ondersteunt hun hardware niet. Terwijl ze waarschijnlijk dit idee al jaren hebben en sindsdien geen recente distro meer hebben gezien.
Nieuwsbericht gaat niet over distros voor nichemarkten, maar ik vind het wel apart dat van de hoeveelheid distros wel een probleem gemaakt wordt, maar van de grote hoeveelheid automerken en types per merk weer geen probleem gemaakt wordt. Ik bedoel, een distro voor iedereen is hetzelfde als zeggen dat iedereen precies dezelfde auto moet rijden.
En behalve de auto-vergelijking, heb ik nog een betere voor m: van Vista waren er wel 7 verschillende versies. Hoeveel er zijn van win7 weet ik niet, maar dit zullen er waarschijnlijk meer zijn dan het aantal polulaire consumenten desktop distributies. Verder dan Ubuntu, Fedora, OpenSUSE, Mint en Debian kom ik niet. De rest zijn allemaal kleintjes, en zelfs Mint is volgens mij niet zo groot (maar wel aan het groeien).
Conclusie: ik begrijp niet waarom er altijd geklaagd wordt over het aantal distro's bij elk Linux-gerelateerd nieuwsbericht. Het is heel simpel: je kiest een distro en als het je bevalt dan blijf je erbij, en van het bestaan van andere distro's heb je simpelweg geen last.
Helemaal mee eens. Wat maakt het voor een Ubuntu gebruilker uit dat er ook nog andere distro's zijn? Precies, net zoveel als dat het voor een Windows gebruiker uitmaakt dat Linux bestaat: bijna niks, het is alleen een extra optie die open blijft.
De meeste gebruikers kiezen zelfs niet eens voor een distro. Die horen ergens over een distro en gebruiken dat. Mijn pa vroeg een aantal jaar geleden of ik "Linux" wilde installeren. Ik heb er Ubuntu op gezet, omdat me dat op dat moment het meest aan stond. Hij heeft er nooit problemen mee gehad dat er nog meer distro's bestonden, en het interesseert m ook niet.
Hij draait het overigens nog steeds, en lijkt geen behoefte te hebben om terug te gaan naar windows. Hij is op computergebied best een leek, en voor mij een goed voorbeeld dat Linux geschikt is voor de massa die alleen wat internet en emailt.
Wil Linux echt een serieuze tegenhanger worden van windows
Dat gestoei met Wine om spellen aan de gang te krijgen is een spel op zich en wel een achievement waardig
Toch wel humor om te zien dat om een serieuze tegenhanger te zijn spellen beter moeten gaan werken.

Ten eerste is het zo dat Wine een manier is om Windows-programma's op Linux te draaien, als spelfabrikanten een Linux-versie van spellen zou uitbrengen zou dat "gestoei" helemaal niet nodig zijn. Er is dus helemaal geen "met zichzelf om de tafel zitten" nodig om dat voor elkaar te krijgen, alleen maar meer marktaandeel, zodat Linux interessant is voor spellenmakers.

Ten tweede: hoeveel "gestoei" is er nodig om een Linux-programma onder Windows te laten draaien?

Ten derde: ik heb vorige week nog een Windows spel onder Wine aan de praat gekregen: wine setup.exe next, next, next finish en werken. Hoezo gestoei?
Zolang je alleen maar wat tikt en internet is linux best een optie, wil je meer is het voor de meeste mensen gewoon geen doen.
Ik kan het ook omkeren, wil je een beetje spelletjes spelen, dan is Windos best een optie, wil je meer, dan moet je gaan stoeien met virusscanners, malwarescanners, firewalls en regedit en is het voor de meeste mensen gewoon geen doen.
Dat is goed nieuws :)

want de laatste keer dat ik probeerde was het een NO GO met de Ati 4890 hij wilde simpel weg mijn x omgeving niet booten. gelukkig was het een test systeem en niet mijn eigen.

Jammer dat ze de 5 serrie niet hebben gedaan en de 2 a 3 serrie hebben laten wachten want daar zijn er denk ik niet meer zo veel van ( kan het mis hebben maar ken niemand met nog 1 van die serrie's)

Ik moet eerlijk zeggen dat ext 4 nog steeds niet optimaal is, bij mij het heeft last dat het opeens de files in mappen niet weer geeft terwijl als je de properties opvraagd de files er wel in zitten umount en mount verhelpt het maar is wel schrikken. Ntfs werkt wel als een zonnetje al 2 kernels al hoor ik vaak dat mensen daar wat problemen mee hebben.

O betere ondersteuning van de VM omgeving is ook wel lekker want windows draait nu wel in VM maar nog niet altijd even soepel als je wil.
Naast deze hardware versnelling, zou het ook mooi zijn wanneer de grafische kaart meer ingezet ingezet gaat worden als general-purpose processor. Op dit moment bestaan er al drivers voor Linux om de grafische kaarten van NVidia in te zetten voor gespecialiseerd rekenwerk mbh NVidia Cuda: http://www.nvidia.com/object/cuda_home.html#

Voor de aardigheid heb ik enige maanden geleden eens een testje gedaan met het kraken van draadloze netwerken die beveiligd waren met WPA-TKIP (jaja, legale tests). Eerst kraakte ik de beveiliging puur op CPU kracht, en vervolgens met verenigde krachten van mijn cpu en GPU (linux, Cuda). De resultaten waren verbluffend te noemen. Bekijk deze stats maar eens (niet mijn persoonlijke resultaten): http://pyrit.googlecode.com/svn/tags/opt/pyritperfaa3.png
Algemeen genomen kun je stellen dat de GPU zeer goed is in het paralel uitvoeren van berekeningen.

edit: een kleine toevoeging bij bovenstaande afbeelding. Een PMK is het WPA-TKIP wachtwoord dat door de gebruiker in de router en de clients wordt ingesteld. Die grafiek geeft weer hoeveel wachtwoorden je per seconde gokt en test. Meer is beter gezien je daardoor sneller het correcte wachtwoord raadt.
edit2: Gewijzigd naar aanleiding van Evil Dax's opmerking.

[Reactie gewijzigd door deus4 op 4 december 2009 20:42]

Cuda en WEP? WPA1/2 zul je bedoelen, aangezien WEP gewoon uit te lezen is.
(overigens doet op m'n laptop me GPU 10x meer keys genereren als me CPU, alleen jammer dat 'ie er na een kwartier totaal mee ophoudt)
Correctie, ik bedoel idd WPA-TKIP.

[Reactie gewijzigd door deus4 op 4 december 2009 20:41]

spectaculair! ik ben vooral verbaast door de ati stream, die presteert beter op de 4870 dan op te tegenhanger gtx260. Ik dacht dat de ati stream technologie moest onderdoen voor cuda...; niet dus

ze zouden die tests eens opnieuw moeten doen met wat krachtigere ati kaarten en met crossfire....
Het overzicht van Kernel Newbies mag natuurlijk niet ontbreken :)

Ik ben vooral erg benieuwd naar de 'Kernel Samepage Merging' (voor virtualisatie) en btrfs, al zal het nog wel even duren voor dat bestandssysteem stabiel is...

[Reactie gewijzigd door JanDM op 4 december 2009 20:35]

Op dit item kan niet meer gereageerd worden.



Populair: Gamescom 2014 Gamecontrollers Websites en communities Smartphones Beheer en beveiliging Sony Microsoft Games Besturingssystemen Consoles

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013