Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 164 reacties

Microsoft-ontwikkelaars zijn bezig om de kernel van de opvolger van Windows Vista grondig te herschrijven. Het zogeheten MinWin-project heeft als doel de code compacter te maken.

Windows logoDe plannen voor een rankere kernel werden door Microsoft-engineer Eric Traut uitvoerig toegelicht tijdens een presentatie (wmv, h.264) op de universiteit van Illinois. Traut gaf toe dat de huidige Windows-code beter kan: 'Veel mensen zien Windows als een groot en log OS, en dat is misschien wel een rake typering. Maar de kernel is juist behoorlijk gestroomlijnd.'

De ontwikkelaar demonstreerde een gui-loze MinWin, die op de harde schijf niet meer dan 25MB aan opslagruimte vroeg. Windows Vista vereist minimaal 4GB aan schijfruimte. Volgens Traut kan de mini-kernel al draaien in een systeem met 40MB werkgeheugen, maar de ontwikkelaar zegt er naar te streven om de code nog verder te verkleinen. Uiteindelijk wil Microsoft met een compactere kernel embedded systemen en mobiele apparatuur beter kunnen bedienen, maar Traut gaf aan dat de huidige MinWin-code voorlopig niet commercieel gebruikt zal worden. Uiteindelijk moet een slankere kernel wel deel uit gaan maken van de opvolger van Windows Vista. De volgende versie, met de codenaam Windows 7, zou volgens Microsoft ergens in 2010 verschijnen.

Moderatie-faq Wijzig weergave

Reacties (164)

Zou dit soms een begin kunnen zijn van een nieuwe windows architectuur waarbij je voor een koopje dan een de kernel koopt, en de rest kan customizen via internet enzo? En zo dus een Aero interface kan downen, of een andere GUI..? Evenals er opties bij kan kopen, zoals Bureau Accessoires, of diverse servers...?

In dit geval kan het erg interrassant klinken voor de markt. :). Ieder zijn gecustomized Windows.

[Reactie gewijzigd door AW_Bos op 22 oktober 2007 12:43]

Ik weet niet of daar heel erg veel animo voor zal zijn. Eindegebruikers zullen niet staan te trappelen omdat je dan dus nog je complete werkomgeving moet opbouwen. Daarbij zou de aanschaf in stukjes wel eens een heel stuk duurder kunnen zijn dan de aanschaf van alles in 1 keer.

Modulariteit is prima, maar het moet niet dorschieten. Waar wil je de grens leggen? Geen grafische file manager? Geen Media Player? En van de 'problemen' met Windows is, is dat er maar 1 partij is die alles in een doos stopt en verkoopt: MS zelf. Vergelijk dat maar eens met de enorme keuze die je hebt op het gebied van Linux distributies, waarbij je heel gespecialiseerde dingen kunt krijgen voor bepaalde doelen. Extra veilig, extra klein, extra uitgebreid,.....

MS heeft met Vista ook een behoorlijk aantal varianten op de markt gebracht maar die verschillen lang niet zo veel van elkaar als, ik noeem maar wat, SELinux en Linspire.

MS zal dat ook nooit kunnen doen. Windows is hun platform en alles moet daar enigszins op kunnen werken. De manier waarop in de Linux wereld de rollen van kernel ontwikkelaars en distributie packagers van elkaar gescheiden zijn levert voor MS geen extra geld op.
"manier waarop in de Linux wereld de rollen van kernel ontwikkelaars en distributie packagers van elkaar gescheiden zijn levert voor MS geen extra geld op. "

Dat laatste is nog maar de vraag. Waar men in sommige gevallen nu of in de toekomst voor een minimale linux omgeving kiest,( ofwel vanwege simpliciteit dan wel voor de performance ) heeft men straks mogelijk ook de keuze voor een minimale windows OS.
Als een mimaal Windows OS een gunstig prijskaartje meegeven kan dit weldegelijk rekenen op interesse vanuit de markt. Ik neem aan dat ze bij microsoft wel marktonderzoekers hebben om te controleren in hoeverre dit verhaal opgaat, maar ik durf wel te zeggen dat de optie om kernel en overige software lagen te splitsen mogelijk voor microsoft ook interessanter gaat worden.
Op zich een goed idee, maar ik denk dat je dat windows gebruikers niet wilt aandoen. De grootste reden waarom nog veel windows gebruikers bij windows blijven, is omdat juist veel mensen hikken tegen de enorme flexibiliteit die bij Linux wordt geboden. Er zoveel keus en veel mensen hebben gewoon niet genoeg know-how om de juiste keuze te maken voor hun situatie.

Het feit dat veel mensen voor windows kiezen is juist vanwege z'n eenvoud daarin. Ze willen na het installeren van een app er niet achter komen dat ze een verkeerde desktop ofzo hebben draaien. Of bepaalde componenten / libraries missen. Tuurlijk ff apt-get draaien ofzo... maar dat wilt een gemiddelde windows gebruiker gewoon niet doen.

[Reactie gewijzigd door Laurens-R op 22 oktober 2007 16:33]

Pimp my Windows :P

Goed idee als je 't mij vraagt hoewel alleen een kernel misschien wel erg weinig is...
Ik vind dat er erg veel negatieve reacties komen, tuurlijk iedereen heeft de vrijheid van meningsuiting. Maar even de positieve kant van het verhaal. Windows zit niet stil, ze zijn wel bezig met een effictienter OS te bouwen. Ik denk juist als ze op die trent doorgaan, van de grond af aan bouwen, dat er straks een veel betere OS op de markt komt van Microsoft, en het publiek ook een veel betere mening weer gaat krijgen over Microsoft. (of iig, een veel minder slechtere mening).
Helemaal mee eens!
En als men in Redmond nu ook backward compatibility laat vallen, dan is er een kans op een inherent veilig Operating System by Microsoft!

Ik blijf voorlopig sceptisch, maarja, zit dan ook pas 25 jaar in 't vak.
Ja, en moet je nu eens kijken wat voor een commentaar ze krijgen omdat ze het driver model op de schop genomen hebben. Wat denk je dat er gebeurt als schoon beginnen zonder backward compatible? Dat is bedrijfstechnische zelfmoord, want dat houdt ook gelijk in dat 99% van de huidige applicaties in een keer onbruikbaar wordt.

Zal dus nooit gebeuren. Alleen stapje bij stapje bij stapje.
Apple kon het ook!

Ik vind het alsnog een wonder dat die overgang zo goed verlopen is. Denk dan MS ook maar bij zo'n overgang een XP image ofzo moet bijleveren voor (tegen die tijd) legacy apps en games.
Het grootste probleem is het niet meer willen draaien van ongesigneerde drivers. Want die zouden de DRM zooi te makkelijk kunnen doorbreken.
Backwards compatibility is nou juist de belangrijkste feature van Windows. Als je ziet hoeveel gezeik Microsoft al krijgt omdat er een paar dingen niet meer werken in Vista, hoe verwacht je dan dat men zou reageren op een versie van Windows die helemaal geen oude software meer draait?
Met emulgators werken zoals apple heeft gedaan? |:( |:(

Dan kan toch met oude programma's gewerkt worden terwijl je de kernel compleet
kan herschrijven naar een veilig model
Apple emuleert alleen maar een andere processorarchitectuur, geen andere API, programmeermodel of rechtensysteem. En Apple neemt ook geen drivers en andere low-level software mee.

Virtualisatie is leuk, maar wat heb je er aan om een "onveilig" systeem te virtualiseren, dan is het nog steeds net zo onveilig.

[Reactie gewijzigd door Wouter Tinus op 22 oktober 2007 16:48]

Apple kon dat veel en veel makkelijker doen met die halve procent marktaandeel die ze in die tijd hadden. Wil jij je bedrijfskritische applicatie in een emulator draaien? Ik in ieder geval niet. Als door een bugje in de emulator je applicatie niet meer (goed) draait dan zit je daar. Laten we het maar niet hebben over file clusters, SQL Server clusters enz enz. Dat ga je toch niet in een geemuleerde omgeving draaien? Kom op.
Tijd om eens te kijken bij grote bedrijven: VMWare ESX draait heel wat SQL clusters en middleware oplossingen omdat het veel robuuster is (fail-over op machine niveau) en je kunt dan consolideren om je CPU eindelijk eens echt te gebruiken.
M.a.w. emulaturen of virtuele machines hebben meer toekomst dan je denkt.
Het is een goede zaak dat Windows veel compacter wordt dan de vorige versies, nu nog Vista. Maar het is nog erg vaag wat ze echt mee bedoelen met Windows 7, er wordt wel gezegd dat er modulair wordt gebouwd en online OS. Dat schept nog geen duidelijkheid.
Het is volgens mij dat MS opnieuw codes aan herschrijven zijn om zo veel mogelijk problemen die we nu met nieuwe Vista hebben te voorkomen.

Ik zie daar veel overeenkomsten met afgeslankte Windows voor Thin-Clients en met volgende Windows-versie! Juist de computers worden steeds kleiner als een thin-client. Dan kunnen we programma oproepen als er verbinding is gemaakt met het server waar iedereen zijn eigen desktop zelf beheert. Zoiets heb ik op mijn werkplek op school, da's heeft veel voordelen. Hoe meer voor veiligheid wordt gedaan is een goede zaak van MS.

Met vele veranderingen gaat altijd gepaard met kinderziektes en vaak wel nagtieve reacties. Zoiets hoort er bij, mensen.
Een volledig web-based OS zie ik voorlopig nog niet gebeuren, ook bij Gartner in de hype cycle staat het nog in een erg prematuur stadium. Wat ik me wel kan voorstellen is dat een volgend OS in de nabije toekomst steeds minder applicaties ingebakken krijgt en meer gebruik gaat maken van diensten via het Internet.
Laat ze eerst maar eens virtualizatie goed implementeren waar nodig (met HW ondersteuning van DirectX als het aan mij zou liggen -> Als parallels het kan, moet MS het ook kunnen in VPC).
Grappig dat jullie verschillend reageren over de nieuwe Windows 7. Ik heb een intressant stuk gelezen elders op het internet. Het is waar ook dat precies mijn verwachtingen hier over gaat. Het wordt geen bloated OS, lijkt me, met Windows 7, zover die speciaal is gemaakt voor Internetdiensten. MS kan wel fouten hebben gemaakt met ontwiikelingen rondom verschillende versies. ME was een grote flop. Ik weet programmeren soms wel een moeilijke klus blijkt te zijn, waar men veel tijd en met handen gewerkt wordt. Niet is altijd 100% zeker dat zonder fouten gaat. Ik begrijp sommige mensen die zo heibel is met Windows Vista, ondanks gebrek aan juiste hardware zoals scanners en printers, die geen goede drivers voor hebben gemaakt. Het is misschien een goede zet van MS om een veel magere Windows te maken in plaats van hele zware en dure Windows-versie. Maar ik ken Linux wel, maar die zijn inderdaad veel lichter dan Windows, is ook superstabiel, maar vreet wel minder aan geheugen dan die OS uit Amerika. Is erg verschillend van elkaar met werking hoe men opstart en in elkaar zitten, zal wel technisch zijn. Ik denk dat het begin is van een grote verschuiving is dat er programma's niet meer op de dvd of cd gebrand wordt om in verkoop te gaan. Zoals ik in eerdere bericht van vandaag nog schreef, dat het niet altijd het zelfde blijft met software ontwikkelingen. Internet wordt duidelijk steeds belangrijker.

Dan hoeven we geen dure schijven meer aan te schaffen en duidelijk hoeven we maar alleen printers of scanners hebben. Dan slaan we bestanden op afstand op schijfruimte op de server waar iedereen een abonnement op heeft genomen. Zo zie ik dat komen gaan. Kijk, er is nog services met online backupopslag gaande, zo iets dergelijks kan het ook goed met online Windows. Ik denk dat MS daar goed op doelt om een nieuwe Windows te maken.
Nou ik ben blij dat ze mijn grootste ergernis snappen. Een OS wil ik hebben om de looks en omdat ik geen zin meer heb om C:\dir/p etc in te tikken enz. Ben zeker wel benieuwd naar die Windows tegen die tijd.
Maar ze beginnen er wel te laat aan aangezien ik net, in navolging tot een eerder bericht, Ubuntu (linux) heb geinstalleerd en het verbaast me tot nu toe hoe lekker dat werkt.
Een OS is niet per definitie grafisch! Linux is niet grafisch bijvoorbeeld, daar heb je Gnome, KDE etc voor.

Sterker nog, Microsoft heeft met de Powershell de CLI flink opgewardeerd. In sommige opzichten nog krachtiger dan Linux CLI's.
En in welke opzichten is het beter dan?

Linux shells(met name bash maar ook andere) bieden zeer uitgebreide scripting-ondersteuning die niet onderdoet voor een programmeer-taal. Daarnaast heeft Linux standaard zoveel hele simpele, doeltreffende command line tools om hele elementaire taken heel doeltreffend, efficint en configureerbaar uitvoert dat het praktisch onmogelijk is om daar tegenop te boksen. Dat is simpelweg het gevolg van jarenlange ontwikkeling van zowel professionele ontwikkelaars als hobby-isten. Ik zie niet in hoe Powershell dit dan zou verslaan...
Die lage eisen zullen wel alleen zijn voor een uiterst simpele versie waar je in principe weinig mee kan. Wil je een beetje zelfde functionaliteit als bijv. XP of Vista hebben (en dan wil de gemiddelde verwende computergebruiker tegenwoordig) dan zal het ws. gewoon erop uitdraaien dat je alsnog 2-4GB ram nodig zult hebben.

Mobiele devices zijn een heel ander verhaal dan desktop pc's... (al groeien beide uiteindelijk denk ik wel steeds meer naar elkaar toe tot 1 apparaat).

[Reactie gewijzigd door Palomar op 22 oktober 2007 12:43]

Het is inderdaad maar net wat je wilt gebruiken. Maar als ik kijk naar de manier waarop echte eindgebruikers een modern OS gebruiken dan is het eigenlijk niet veel meer dan een programma starten, informatie tussen programma's kopieren via een clipboard en bestanden beheren, al dan niet op een netwerk. Daarbij hoort natuurlijk ook nog de ontsluiting van allerlei randapparatuur, maar dit is zo'n beetje het basislijstje. Gegeven dit gebruiksprofiel is het pervers dat een kaal OS zoveel ruimte in weet te nemen zonder dat de eindgebruiker ook maar n nuttige actie heeft uitgevoerd.

Een bijzonder slanke kernel met daarbij allerlei modules die alleen worden geladen als het nodig is, is dan een redelijke benadering van het ideaal, namelijk een OS dat puur geschreven is voor de hardware combinatie die je gebruikt.

[Reactie gewijzigd door Bobco op 22 oktober 2007 12:49]

40 MB is inderdaad best veel voor alleen een kernel.

De grafische rommel en alles eromheen slokt juist die ruimte in. Als ze dit presenteren als klein, dan zijn ze werkelijk ondergschikt aan linux.
Hmm toch is zoiets als Tinylinux al 50MB geinstalleerd en heeft 80MB nodig om te draaien...

Ok dat windows iets groter is, maar windows heeft dan al geinstalleerd veel meer functionaliteit in de kernel zitten.

(linux is meer uitbreidbaar in de kernel)

Dus ja... vind het weer een beetje nutteloze post. Net zoals CycloneT zegt, kan een <40MB linux distro ook een ftp/webserver zijn? Of enig andere standaard windows functionaliteit bieden?

Vind 40MB prima klein, helemaal als je het vergelijkt met een min 4GB voor Vista (weet alleen niet hoeveel x procent hier kernel van is.
Veel routers draaien op linux, en die hebben vaak niet meer dan 32mb geheugen nodig. Toch draaien ze wel een soort van webservers.
Veel routers draaien op linux, en die hebben vaak niet meer dan 32mb geheugen nodig. Toch draaien ze wel een soort van webservers.
Dat heet embedded als ik mij niet vergis...

Artikel:
Uiteindelijk wil Microsoft met een compactere kernel embedded systemen en mobiele apparatuur beter kunnen bedienen
Dat is dus ook waar MS heenwil met de ultraslanke kernel. Extra functionaliteit kun je altijd inladen via modules (zoals bij linux veelvuldig gebeurd).

Als ik een linux install heb gedaan doe ik altijd een hercompilatie van mijn kernel met louter en alleen ondersteuning voor mijn systeem... en dan laat ik de meeste meuk ook nog in via modules. Zo hou ik een kerneltje over die een fractie is van de standaard distro-kernel.

Ook even voor kokx (hierboven)...
Kan wel zijn, maar ik kan Linux 2.6.x ook nog steeds installeren op mijn 386 of hoger met een minimum van iets van 4 MiB RAM. Wat je er dan nog mee kan is te bezien, maar zodra je iets van een 486 DX met 8 a 16 MiB RAM hebt kan je er al prima een webserver op draaien, of zelfs een GUI met een lightweight window manager.

Het leuke van nieuwe Linux versies is dat ze steeds sneller worden op dezelfde hardware, in tegenstelling tot Windows wat steeds zwaarder wordt. Kijk bijvoorbeeld maar naar KDE 4.x die, na de flinke prestatieverbetering van KDE 3.x wederom een verbetering van 20 a 30% voortbrengt. Dat wil ik Windows nog wel eens zien doen...
Die 80MB geheugen van linux is over het algemeen omdat de drivers in een enorme ramdisk worden gezet tijdens het opstarten. Deze ramdisk wordt uiteindelijk weer geleegd als de kernel eenmaal geboot is en alle benodigdheden geladen zijn.
(kernel -> early userspace -> userspace).
Als je deze "initial ramdisk" weglaat of verkleint kan je met 16MB geheugen makkelijk toe.
Je verward twee dingen:

- De grootte van de kernel. Dit is de grootte van de centrale module van het besturingssystem. Dit is bij Linux standaard zo'n 1.5Mb, maar kan enorm worden verkleind als je dingen weglaat die je niet nodig hebt.

- De grootte van een minimale installatie. Hierin zit alle software die nodig is om een minimaal besturingssysteem te draaien (inclusief driver modules, minimale software, configuratie utilities, en soms zelfs een grafische schil zoals X). Dit is bij Linux zo'n 50Mb.

[Reactie gewijzigd door wumpus op 22 oktober 2007 12:52]

was het idee van windows niet dat het een microkernel heeft, en dus juist _veel minder_ in de kernel heeft zitten dan linux? Verder lijkt het me erg apart om services zoals ftp of http in de kernel te bakken. Dan ben je volgens mij helemaal verkeerd bezig.

Wat betreft klein, check coyotelinux maar es, dan kan je een bootende linux inclusief ftp/ssh/nfs werkend krijgen vanaf 1 (ja 1 ja) floppy. :P
Ik kan DOS booten vanaf floppy, heb ik nog ruimte voor programma's ook..

Lukt je dat ook met je linux diskette? Of moet je dan diskettes gaan wisselen?

Oftewel... het met wel functioneel blijven.

Ik zat me ok af te vragen waarom windows kleiner moet, tegenwoordige systemen zijn snel genoeg en data opslag kost nog maar een fractie ten opzichte van een aantal jaar geleden. Zeker over een paar jaar geen optie.

Maar de opmerking online os klinkt wel interessant, ben benieuwd hoe ze dat bedoelen, een os is toch al nodig om online te kunnen gaan.

EDIT:

Ik bedoelde het een beetje cynisch.
3. Een online OS heeft toch weldegelijk voordelen. Bedenk je in dat je mutaties kan doen ( programma's installeren ) en desktops inrichten naar keuze en dat je dat voor altijd en overal beschikbaar hebt. Een pc met een browser is het enige wat je nodig hebt om bij je eigen desktop te komen, ook al zit je aan de andere kant van de wereld vakantie te houden. Ik zeg hiermee niet dat ik hier zelf toegevoegde waarde in zie. Het is louter een constatering van het feit dat er weldegelijk toepassingen voor te bedenken zijn.
Dat kan ik nu ook. bestande online, programma's online, alles online...
Vanaf een pc met zijn eigen os. Ik snap niet waarom je je kernel vanaf afstand zou willen laden.

[Reactie gewijzigd door [Roland] op 22 oktober 2007 13:32]

1. wat is functioneel? Wie bepaalt wat functioneel is? Heel veel pc's worden vandaag de dag zonder floppydrive uitgerust, dan sta je daar dus met je floppy vol met programma's.

Vrijwel alle gangbare linux distributies hebben een cd waarvan je kunt booten ( en in deze tijd zijn er dus echt meer pc's met een optische unit dan met diskette drive ) met volop applicaties meegeleverd op deze cd's. Deze distro's lopen uiteen van zeer licht tot zeer zwaar. Voor iedereen keuze.

2. Waarom windows kleiner moet? Omdat niet iedereen zit te wachten op een besturingssysteem van enkele gygabytes aan code. Het gaat hier niet om het feit dat de hardware het allemaal wel aankan ( qua performance of ruimte ), maar het wordt meer een principe kwestie. Allerlei rotzooi waar een gemiddeld mens niets mee doet, vertraagd het systeem onnodig EN kan ook nog eens systeeminstabiliteit veroorzaken.
Eenvoud is hierbij het kernwoord. Ik voorzie dus ook een tweesplitsing: een groep gebruikers die MEER willen en een groep die juist meer terug naar de basis gaan. Een trend die we nu ook al waar kunnen nemen.

3. Een online OS heeft toch weldegelijk voordelen. Bedenk je in dat je mutaties kan doen ( programma's installeren ) en desktops inrichten naar keuze en dat je dat voor altijd en overal beschikbaar hebt. Een pc met een browser is het enige wat je nodig hebt om bij je eigen desktop te komen, ook al zit je aan de andere kant van de wereld vakantie te houden. Ik zeg hiermee niet dat ik hier zelf toegevoegde waarde in zie. Het is louter een constatering van het feit dat er weldegelijk toepassingen voor te bedenken zijn.
Ik had enkele jaren geleden een 486 die ik gebruikte als router. Die draaide Linux en die bootte inderdaad vanaf een 1'44" inch diskette. Het systeem was wel gecomprimeerd en moest zichzelf uitpakken bij het booten, maar het werkte wel. De machine zelf had 16MB RAM.
Dus ja, zo klein kan Linux zijn, en ook nog functionaliteit bieden.
dat lukt linux ook, verder heeft linux dan wel netwerk, en een kernel uit 2007, ipv een doskernel uit 1987 (20 jaar geleden).
de echte reden is waarschijnlijk onderhoudbaarheid

Windows XP en zeker Vista is zodanig lomp geworden dat het veel te moeilijk is om er nog wijs uit te raken (als programmeur)
de kans dat als ze iets veranderen, iets anders kapot gaat is daarom zeer groot geworden, vandaar ook de zeer lange testruns voor elke patch die ze uitbrengen

volgens mij moeten ze dringend heel de architectuur herzien (zijn ze al een tijdje mee bezig trouwens), waarop dan gewoon een virtuele Windows draait voor oudere programma's
Waarom moet het juist steeds groter? (zoals nu gebeurt) Ik heb een PC met een Athlon XP 2400+ die iets sneller draait (wordt als 2600 herkend) met als systeem Win XP Pro SP2, intern zit er 1152 MB in met een nV 6600.
Ik heb ook een Notebook van drie maanden oud met een Turion64 X2 die Vista draait. Hier zit 2048 MB intern in met een goforce 7300.
Mijn PC is het snelste opgestart ondanks dat die ouder is met zijn SDRAM erin tegen de DDR(2) van de notebook.
Daarom moet de kernel van Windows weer eens een stuk kleiner.
Volgens de geldende wetten worden computers steeds sneller, dat klopt, maar helaas wordt dit dan weer teniet gedaan door de programmatuur.
Dan kan je bijna net zo goed met een 386 en WP5.1 onder DOS gaan tekstverwerken ipv met een X2 5000+ onder Vista met Office 2007. Waarschijnlijk is de eerste combinatie nog sneller ook.
Dat sneller booten komt vooral door de harde schijf die in de desktop zeer waarschijnlijk een ferm pak sneller is. Daarmee is ook de repsonse in het OS zelf vlotter. Steek eens de allernieuwste 7200rpm laptopschijf in je laptop en je zal zien dat het allemaal wat sneller zal werken.
Ok dat windows iets groter is, maar windows heeft dan al geinstalleerd veel meer functionaliteit in de kernel zitten.
lol... even kijken:
support voor MIPS -- nope
support voor ARM -- nope
support voor UltraSparc -- nope
support voor PPC -- nope
support voor 10Gb/s ethernet --nope

Ik denk dat je hier naast zit... de extra kernel-functionaliteit wordt door third-party developers geleverd, en iets anders dan i586 wordt niet gesupport.
Dus ja... vind het weer een beetje nutteloze post. Net zoals CycloneT zegt, kan een <40MB linux distro ook een ftp/webserver zijn? Of enig andere standaard windows functionaliteit bieden?
Voor <40MB weet ik het niet.

Maar bij 50MB heb ik een volledige xfce desktop environment met composite support draaien. Dus ik denk dat het antwoord ja is.

Een FTP en/of webserver?! Dat kan nog bij 24MB ram...
Vind 40MB prima klein, helemaal als je het vergelijkt met een min 4GB voor Vista (weet alleen niet hoeveel x procent hier kernel van is.
De 4GB van vista is buitensporig. Hier zou je geen enkel acceptabel OS mee mogen vergelijken.

Kort door de bocht, 40MB ram voor een 'kale' kernel is belachelijk veel. Als het daarentegen een compleet OS (kernel + essentiele tools) is dan is het inderdaad netjes.
Dit is ook waarom veel mensen Microsoft het advies geven om gewoon een Linux kernel te pakken en daaromheen een mooie Windows distro te bouwen...
@ thmz

Het probleem is dat als MS dat doet, ze de source moeten vrijgeven ivm de GPL voorwaarden etc...

Iets wat ze niet graag doen lijkt mij :P
Dat is gewoon niet waar. Zolang ze niet linken aan GPL-code (wel aan LGPL-code), mogen ze gewoon closed source software met de Linux-kernel combineren.
Ik denk dat Ballmer en Gates nog liever hun eigen voeten afknagen dan een Linux-distro te schrijven. Alleen al vanwege het feit dat ze dan toe moeten geven dat Linux wel degelijk voordelen heeft t.o.v. Windows...
Ik ken verder niet zo veel van linux, maar het zou me verbazen als er in een linux-kernel die gecompileerd is voor x86 ook MIPS/ARM/... ondersteuning zit.
Oftewel dit zit ook niet in de kernel, maar enkel als keuzes in de source code.
Bij het vergelijken van de grootte van de gecompileerde code is dit dus ook totaal irrelevant.
Daar moet ik je gelijk geven. Ik wilde enkel betwisten dat windows meer functionaliteit in de kernel heeft als linux.
Vergeet Windows CE niet ;)
Dat draait al op heel wat meer platformen :)
@therat10430,
De DSL hobbyisten hebben volgensmij een keer een image van 5 mb gemaakt met kernel, drivers, kleine userland, webserver en ftp server er in. Dat wilde ze nog verder gaan terugbrengen naar 3 mb ofzo.

DSL = Damn Small Linux, dezelfde mensen achter de gelijknamige 50mb-distro.
Kleiner is niet altijd beter. Er zijn tweakers genoeg die Win echt minimaal geheugen kunnen laten gebruiken met behoud van zeer veel functionaliteit maar of een minimaal gheugengebruik nu de bepalende factor is?. De vergelijking qua omvang met Linux is dan ook waardeloos zolang je geen functionaliteit gaat meetellen. En nogmaals, m.i. 'less is not always more (value) '.
Hmm, ik vind 40 MB ram nogal veel eigenlijk voor alleen een kale kernel zonder applicaties en grafische schil. Volgens mij kan ik een linux lice cd booten die veel minder gebruikt, als ik single user boot (init 2)
Volgens mij kan ik een linux live cd booten die veel minder gebruikt

Dat valt toch vies tegen. De huidige linux kernels hebben zeer veel moeite met systemen die 32MB of minder hebben. Non-grafisch werk kan nog net (als je geduld hebt) maar 64MB ram is toch voor een basis linux systeem (met 2.6 kernel) toch ook wel de ondergrens.

Soms komen er wel volledig gestripte kernels langs, maar dan is er weinig meer over van de ondersteuning van hardware.
hoho, niet de helft weglaten, ik had het over single user mode, dus idd niet grafisch (zoals het bovengenoemnde windows 7 voorbeeld), maar gewoon in een console, en dat kan prima met minder dan 40MB aan geheugen.
Je hoeft toch niet te strippen????
Daar heb je toch modules voor die on the fly geladen kunnen worden.
Zodat niet alles static in je kernel gebouwd is, en onnodig ruimte opvreet?

Of sla ik de plank mis?
Puppy linux (pre 1.02) gebruikt minimaal 64MB geheugen. Dit is een gui Os met tekstverwerker, browser, msn/irc/jabber chat. en een volledige kernel met alle modules included.

om eens weer te laten zien hoe klein linux kan zijn
Filmpje http://www.youtube.com/watch?v=nuzRsXKm_NQ linux op een 2mb bios flashje

[Reactie gewijzigd door daft_dutch op 22 oktober 2007 14:33]

Draait deze dan ook al direct 'n ftp/webserver?

Ik vermoed dat MS dit doet om naar het zgn. Online OS te gaan, overal ter wereld je eigen desktop.
Een ftp/webserver hoort uberhaupt niet in de kernel thuis! Dus lijkt me niet dat dat er in zit.
Voor een webserver is veel meer nodig dan alleen een kernel etc..
Dat zei die vent ook tijdens zijn presentatie als reactie op een vraag van iemand..
Voor een webserver is veel meer nodig dan alleen een kernel etc..
Hoezo? Een webserver is niet zo spannend hoor. Zeker niet bij alleen statische inhoud. Een beetje bestandjes lezen en een netwerkinterface is voldoende..
Daar ga je al, dan heb je ook al filesystem support nodig en een tcp/ip stack.
Voor een tcp-ip stack en/of een filesystem is helemaal niet veel nodig. Er zijn implementaties voor microcontrollers die slechts een paar honderd bytes tot enkele kilobytes geheugen hebben.

Mini-TCP/IP Stack
Kleine fat16 implementatie
Ubuntu gaat altijd out of the box het internet op hoor. In tegenstelling to Windows waar ik altijd weer doodleuk de drivertjes mag gaan zoeken... Tuurlijk is dat weer iets anders dan een TCP/IP stack maar je vergeet dan ook te vermelden dat de kernel opzet van Windows en Linux niet op elkaar lijkt. Linux heeft meer een Monolitische Kernel (onderdelen appart inladen) En windows heeft een Microkernel waar de meeste benodigheden al inzitten. En juist dat laatste kunnen ze bijvoorbeeld nu hebben aangepakt (al lijkt me dat sterk).

*En vergeet mij niet te verbeteren waar dat nodig is*

[Reactie gewijzigd door tuxdapinguin op 22 oktober 2007 13:48]

huh? Volgens mij heb je monolitisch en microkernel een beetje door elkaar gehaald: monolitisch is een blok, microkernel is in delen. En voor beide geld eigenlijk dat de drivers in de kernel draaien en niet in userspace, dus eigenlijk zijn beide gewoon monolitisch (in ieder geval op dat gebied). Verschil zit hem vooral in de drivers die meegeleverd staan op de CD (niet een kwestie van meer/minder maar gewoon een andere subset).
De gedachte dat Windows een microkernel zou zijn kun je iig sinds NT4 vergeten toen printerdrivers in de kernel gingen (waarom? Joost mag het weten).
Linux monolithisch? Volgens mij bedoel je modulair, het tegenovergestelde. :)
@PHiXioN:
Nee, de Linux kernel is weldegelijk monolitisch.
Bron: http://en.wikipedia.org/wiki/Linux


Bij beiden is dat waarschijnlijk gedaan om performanceredenen (een microkernel is inherent veiliger maar ook inherent langzamer)

[Reactie gewijzigd door Jeanpaul145 op 22 oktober 2007 16:31]

En even als aanvulling: aan die monolitische Linux kernel heeft Linus z'n levenswerk juist te danken. Linux is ontstaan als spin-off van Minix, voornamelijk omdat Linus juist een monolitische kernel wilde en Andy S. Tanenbaum (architect van Minix) juist niet ... die discussie (en belangrijker, het waarom) is uitgebreid op usenet na te lezen.

MS is al langere tijd bezig met Windows te strippen om de code footprint te verkleinen. Minder code betekent immers (meestal) minder kans op fouten ... Eigenlijk proberen ze het vanaf het NT4 tijdperk het tijd al "te keren".

Ten tijde van NT4 wilde de consument/hw. fabrikanten betere performance en meer "controle over de hw.". Dat betekende dus kernel-drivers ipv. usermode-drivers. Vanuit ontwerp-oogpunt niet erg wenselijk, maar dat was nu eenmaal wat de markt wilde ... waar wij/zij nu de rekening van krijgen.
*En vergeet mij niet te verbeteren waar dat nodig is*
Bij deze dan.

Zowel windows als linux gebruiken een monolithische kernel, waarmee het uitbreiden dmv modules niets te maken heeft.
Een voorbeeld van een echte microkernel is minix, en naar mijn beste weten ook GNU hurd.
Beide zijn kleine kernels waarbij bv. de tcp stack uitgevoerd is in een userspace component.
Keep in mind dat we het hier over linux hebben, niet over ubuntu. Linux zelf kan niet zomaar op internet...
Windows heeft geen microkernel.

[edit] excuus, eerst reacties lezen, voor posten... |:(

[Reactie gewijzigd door mingohag op 22 oktober 2007 17:02]

Kleine correctie:

Een monolitische kernel slaat niet op het feit dat het modules apart kan inladen , dat is een functie die een aantal monolitische kernels hebben. Een monolitische kernel draait helemaal in dezelfde adresruimte. Alles draait in kernelspace , ook de modules die geladen kunnen worden.

Een microkernel daarintegen bestaat slechts uit het minimale wat nodig is om de overige onderdelen te kunnen implementeren. De rest kan dan geimplementeerd worden als zogenaamde "servers" die de functionaliteit geven die je zoekt. De "servers" kunnen zowel in userspace als kernelspace draaien voor zover ik weet.

Volgens mij geven ze de huidige Windows NT kernel meer de naam Hybrid Kernel , welke weer net wat anders zou werken. Hoe en wat weet ik niet maar zal je vast hier kunnen nalezen:

http://en.wikipedia.org/wiki/Hybrid_kernel

//edit jemig spuit 11 geeft ook al bagger hier :(

[Reactie gewijzigd door Raku op 22 oktober 2007 17:13]

was als reactie bedoeld voor: tuxdapinguin
Geen appels met peren vergelijken he? Windows werkt ook prima out of the box om het internet op te gaan. Alleen moet je dan wel WinXP-SP3 of Vista-SP1 gebruiken op moderne hardware, zodat de driver bijgesloten zit (net zoals op jouw recente Ubuntu download).

Als je het nu volgende keer wat meer bij WHQL hardware houd, dan heb je veel minder problemen. Als jij volgende maand een AMD/ATi R790 chipset moederbord koopt, dan kom jij daar met je huidige Ubuntu installatie CD ook niet mee het internet op.

Wat mooi zou wezen is als er een standaard komt, waarbij alle moderne versies, een soort simpele-mode ondersteunen, zodat basis ondersteuning mogelijk is, waarmee dan de nieuwste versies verkregen kunnen worden. Dan kan dan zowel Windows als Linux tijdens de Setup verbinding maken met internet om de laatste drivers volledig automatisch te downloaden. Zou anders een samenwerking kunnen worden met de BIOS ontwikkelingen, waarbij er een mini-OS ingesloten zit, zoals waar ASUS mee bezig was.

[Reactie gewijzigd door Ron.IT op 22 oktober 2007 18:11]

Ik heb wel eens een webservertje geschreven die 53KB groot was. En dat was gewoon MFC code. Het had nog kleiner kunnen zijn als ik niet ons logo als 24-bits BMP had toegevoegd. Niks speciaals. Had CGI en FastCGI support ook. Multi threading, configureerbaar. Gebruikte een paar KB geheugen. Prima voor huis, tuin en keukengebruik.

Kijk, er zat geen VB/jscript support in, geen multiple instances (hoewel... start je het gewoon X keer op), geen virtual servers, geen dingen die je alleen maar nodig hebt als je professioneel aan de slag wilt.

Filesystem support en een tcp/ip stack horen onderdeel van een OS te zijn. En zoals gezegd hoeven die helemaal niet zo groot te zijn. In ms-dos zat dat allemaal al, en dat draaide in 640KB.
Dat vind ik een vreemde uitspraak. Daarvoor hoeft de kernel toch niet klein te zijn? En zodra dat "online OS" aanslaat heeft iedereen inmiddels wel een mobiel apparaat met wel meer dan 128 MB RAM. En zo klein is die kernel inderdaad niet... 40MB

[Reactie gewijzigd door Piraatje op 22 oktober 2007 12:43]

en waarom heb je een webserver nodig voor een online OS?
Ja, windows 98 heeft ook maar 12MB RAM in gebruik, en dat is met GUI, directX en alle drivermeuk meegerekend (okee was een beetje getweaked).

Maarja, m'n 486 kan misschien wel een nieuw OS gebruiken :P

[Reactie gewijzigd door Shakkara op 22 oktober 2007 13:34]

Het gaat hier ook om schijfruimte, niet het geheugenverbruik.
dat was ook geen OS, maar een grafische schil bovenop een disk manager.
MS DOS was geen disk manager maar een OS. Een heel gelimiteerd OS maar een OS.
En een ei is ook kleiner dan een meloen.

W3.1 heeft niet eens echt een kernel, in feite was DOS de kernel.
Een kleine kernel is leuk, maar ja wat is de functionaliteit daarvan? Als men vervolgens 1001 libraries er aan hangt om volledige functionaliteit te bieden ben je er nog niet. Ben dus erg benieuwd hoe ze de verkleining hebben gerealiseerd.

Verder zou het mooi zijn als Microsoft eens durft te breken met het verleden. De API kan een stuk worden opgeschoond, bepaalde devices lijken mij in 2010 niet meer relevant (parallelle poorten etc) enz. Een Windows gebaseerd op nieuwe technieken als WPF. Wie nog oude dingen moet doen kan oudere versie van Windows gebrukken (Vista, XP).
Misschien gaat Microsoft dat ook wel doen, aangezien met in toekomstige versies flink an de slag wil met virtual machines (a la VMWare en MSVPC).

Windows 7 kan zelf dan klein en compact zijn/blijven en in de VM kan dan Windows XP/V gaan draaien.

Verder zal het uiteindelijke OS zelf toch wel meer dan 40MiB aan RAM nodig gaan hebben, anders kun je geen mooie desktop neerzetten a la XP en Vista...
Verder zou het mooi zijn als Microsoft eens durft te breken met het verleden.
dat hebben ze bij vista voor een deel al gedaan en kijk eens naar de kritiek die ze te verduren krijgen.
Mee eens. Mensen klagen wat af over Windows Vista. Ok, toegegeven, ik draai ook weer Windows XP, maar dat doe ik meer omdat Windows XP beter presteert in games dan Windows Vista. Dit zal in de toekomst ook wel beter worden, wanneer de drivers meer geoptimaliseerd zijn. Maar buiten dat is Vista echt geen slecht OS. Het is, zeker vergeleken met de eerste final release van Windows XP, een stabiel OS dat zijn werk goed doet. Je kunt ook goed zien dat Microsoft heeft gebroken met het verleden op bepaalde vlakken, alleen al op het gebied van drivers. Deze hadden voorheen direct toegang tot de kernel, nu gaat dat via een "laagje" wat nog tussen de kernel en de driver zit.

Het gezeur over Vista is vaak niet direct bij Microsoft neer te leggen, maar bij fabrikanten die hun drivers niet aangepast krijgen. Bijvoorbeeld Creative Labs. Zelfs nVidia heeft hier een behoorlijk tijdje problemen mee gehad.
dat hebben ze bij vista voor een deel al gedaan en kijk eens naar de kritiek die ze te verduren krijgen.
Die kritiek zou een stuk minder zijn als de consument voor een bepaalde periode een keus zou krijgen tussen Vista en XP - nu wordt men gedwongen naar Vista.

Verder had het misschien wel slim geweest om een soort XP-compatibiliteits mode in te bouwen (al dan niet dmv virtualisatie), zodat men rond de problemen met drivers e.d. heen had kunnen werken.

Overigens is het natuurlijk wel degelijk mogelijk, kijk maar naar Apple - zij hebben diverse overgangen gehad (van 68000-series naar PPC, van Mac OS 9 -> Mac OS X, van PPC -> Intel) en iedere keer heeft men het maximale gedaan om de overgang zo gebruiksvriendelijk mogelijk te laten zijn. MS had iets vergelijkbaars kunnen doen t.o.v. XP->Vista...

@mieJas:
Wie verbied MS om op de Vista DVD een afgeslankte XP installatie (zonder alle extra poespas zoals browsers ed) mee te leveren?

[Reactie gewijzigd door Little Penguin op 22 oktober 2007 15:01]

Om OS X compatible te houden met OS 9 programma's, moet je OS 9 ernaast installeren. Goed, je moet niet herstarten in OS 9, maar het grootste deel wordt toch mooi geladen voor jij met je programma's kan werken.
LPT poorten lijken mij nogsteeds handig om te ondersteunen. Je kunt er qua hobby elektronica nog leuke dingen mee doen, paar transistortjes zijn in feite al genoeg.
helemaal gelijk, maar je hebt tegenwoordig ook hele simpele goedkope boards waarmee je makkelijk gebruik kunt maken van USB, en das vaker nog simpeler te gebruiken dan de LPT poort ivm drivers..
Ik vind de roadmap aankondiging nogal dubieus en kort na launch van Vista. XP geniet nog steeds de voorkeur boven Vista bij velen en zo een vroege opvolger zal Vista niet populairder maken, aangezien Vista niet goedkoop is.

Sinds het vertrek van Gates lijkt het erop dat MS zich steeds minder bezig houdt met zijn visie en lange termijn ontwikkeling uitblijft. Ze ontwikkelen wel maar je ziet er nog maar bar weinig van terug op de markt. Ik vraag me dan ook af hoe en waar ze allemaal mee bezig zijn, aangezien er steeds minder info over ontwikkeling naar buiten komt behalve een OS, terwijl Gates meerdere zaken op de markt wilde brengen.
XP geniet nog steeds de voorkeur boven Vista bij velen en zo een vroege opvolger zal Vista niet populairder maken, aangezien Vista niet goedkoop is.
Heb je op zich gelijk in. Maar het gaat nog zeker een aantal jaren duren voordat de opvolger van Vista op de markt is. Aangezien het eerste servicepack voor Vista inmiddels is aangekondigd krijgen veel bedrijven daardoor het idee dat Vista onderhand wel stabiel is. Ook komt er steeds meer software op de markt voor Vista. Dus als over een jaar of 3 de opvolger van Vista er is, zal die opvolger veel van dezelfde problemen hebben die Vista nu ook heeft: incompatibele software, weinig acceptatie door de markt...
Vista is stabiel.

Ik begrijp niet hoe in de wereld is gekomen dat Vista instabiel zou zijn. Ik heb een snelle desktop met twee vage raid-adapters die allebei gewoon snel en probleemloos werken, twee geluidskaarten, want daar speel ik graag mee en ook twee laptops op leeftijd voorzien van Vista business. Ik gebruik visual studio 2005, sql server-tools, Acronis, office 2003, office 2007, alcohol, Directiry Opus, BPM-studio 4, UltraEdit32, Kaspersky, Photoshop, Paintshop, Visual Web Developer, PowerDVD, etc, etc, etc, etc. Verzin zelf maar. De hele riedel. Alles tegelijk op 1 machine draaiend. Nooit gelazer. Al mijn hardware werkt perfect, elk spelletje wat ik probeer draait. Zelfs de wat oudere Sesamstraatspelletjes voor mijn zoontje draaien zonder problemen. Daar hoef ik niks bijzonders voor te doen. En ik kan je vertellen: op dezelfde hardware draaien mijn applicaties lekkerder/sneller/smoother op Vista dan op XP. Alle drie mijn machines zijn over gegaan. Alle hardware die ik erop aansluit werkt probleemloos. Wireless desktop, externe usb-hub, headset, telefoon, printer, wifi, bedraad netwerk, afstandbediening, memorysticks, het hele spul, nooit gedonder. Ook niet met de bluetooth apparaten.

Ik kan me echt niet voorstellen waarom het gerucht de rondte doet dat Vista instabiel zou zijn.

Ik wilde gisteren iets aan een vriend laten zien wat ik op mijn usb memstick had staan. Hij heeft een 1 jaar oude HP laptop met XP erop. Hartstikke snel ding. We zijn 45 minuten bezig geweest om die stick te kunnen gebruiken. (Allebei minstens 10 jaar ervaring met systeembeheer) Uiteindelijk lukte het, maar dan moesten we wel met de touch pad verder, want de usb-muis was XP kwijt. Ik heb een HP laptop die drie jaar ouder is en waar Vista op draait. Daar komen dat soort Win98-problemen echt niet meer op voor, kan ik je vertellen.

Ik vind dat MS de overgang van XP naar Vista vele malen beter heeft gedaan dan 98-2000-XP. (Kan iemand zich Millenium nog herinneren?) In de tijd van windows 98 kon je misschien nog wel een film opnemen met de video-recorder, maar dat betekende niet automatisch dat je je computer in een netwerk kon krijgen. Dat was toch echt meer iets voor een techneut. Als techneut begreep je al niet waarom windows zijn eigen install-directory niet kon vinden. Dat probleem had windows 2000 ook nog steeds. Laat staan dat je dat aan leken uit kon leggen. Tegenwoordig is het makkelijker om met je computer een netwerk op te gaan dan een video op te nemen, of niet soms?

En weet je niet meer dat windows 2000 op de markt kwam en dat iedereen massaal op windows 98 bleef hangen? Ik kan me dat nog goed herinneren. Ik had er win2k op staan en op LAN-parties was ik zo'n beetje de enige. En ik was de enige die zonder geruzie met een schroevendraaier meteen met gamen kon beginnen.

Zo gaat het altijd. Het maakt niet uit wat microsoft op de markt zet, we houden massaal niet van veranderingen en al helemaal niet van hun. Beetje lomp, want veranderingen gaan gewoon door en windows verandert dus mee. De goede richting op....
Hoe heb je dit voorelkaar gekregen???

XP SP0 en Vista SP3 pre-release???

Ik draai zelf XP op mn laptop en desktop, nooit problemen mee. En mn pa heeft 2 recente laptops (T7200, 2GB en T5250, 1GB) met op allebei Vista, en die dingen hebben de vreemdste problemen...
Gates is nog steeds hoofd ontwikkeling hoor, alleen geen CEO meer.

[Reactie gewijzigd door Wouter Tinus op 22 oktober 2007 12:45]

MS heeft altijd wel aangegeven wat men in de toekomst gaat doen. Om te beginnen alles wat in de vorige versie het net niet meer gehaald heeft.

Echter wat wel duidelijk wordt is dat virtualisatie in de toekomst veel belangrijker wordt. In feite geeft men aan een groot OS dat alles kan en met alles compatibele is niet meer haalbaar is, en dat windows meer en meer in kleine virtuele brokjes opgedeeld gaat worden.

Wellicht niet zo goed voor de aandelen vmware zou ik denken.
en zo een vroege opvolger zal Vista niet populairder maken
Hoezo vroege opvolger? Tot en met Windows XP kwam er ongeveer elke twee jaar een nieuwe Windows versie. Vista was juist bizar laat. Vista had in 2004 moeten komen, maar was ernstig vertraagd, om redenen die ik hier niet zal herhalen. Een opvolger van Vista in 2010 is zeker niet vroeg, maar meer in de oorspronkelijk lijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True