Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 193 reacties
Submitter: Loller1

Windows 10 gebruikt op sommige apparaten minder opslagruimte, doordat Microsoft systeembestanden comprimeert. Dat scheelt tot 2,6 gigabyte opslagruimte. Ook heeft Windows 10 geen recovery-image meer, wat 4 tot 12 gigabyte bespaart.

Windows 8Door systeembestanden te comprimeren kan op 32bit-apparaten 1,5 gigabyte worden bespaard en op 64bit-apparatuur kunnen gebruikers zelfs 2,6 gigabyte besparen. Dat meldt Microsoft op zijn eigen Windows-weblog. Niet alle apparaten met Windows 10 zullen gebruik kunnen maken van compressie: een computer moet over voldoende intern geheugen en een processor die snel genoeg is beschikken om bestanden snel genoeg te kunnen decomprimeren.

Apparaten die van een eerdere Windows-versie zijn voorzien, zullen de compressiefunctie automatisch krijgen wanneer ze updaten naar Windows 10, mits het apparaat aan de systeemeisen voldoet. Nieuwe apparaten die met Windows 10 worden geleverd, maken gebruik van de compressie als de fabrikant die inschakelt.

Daarnaast zal Windows 10 geen recovery-image meer meeleveren, wat ook 4 tot 12 gigabyte scheelt. Veel fabrikanten leveren die recovery-image nu mee, zodat gebruikers Windows opnieuw kunnen installeren. In plaats daarvan zal Windows 10 in staat zijn om zichzelf te herstellen, iets dat Windows 8 ook al kan. Gebruikers kunnen wel zelf een recovery-schijf maken, waarbij ook geïnstalleerde software zal worden gebackupt. Die schijf is voor momenten dat het systeem zo zwaar beschadigd is dat het herstelproces niet meer werkt. Dankzij die maatregelen is op systemen standaard meer opslagruimte beschikbaar voor gebruikers.

Moderatie-faq Wijzig weergave

Reacties (193)

Ben benieuwd hoeveel rekenkracht het kost om de systeembestanden te decomprimeren. Ergens snap ik de gedachtengang wel maar een ruimtebesparing tot 2.6GB lijkt me voor de meeste mensen geen enorme winst. Op een hele kleine SSD kan het handig zijn, maar ik kan me geen moment herinneren dat mijn schijven zo vol zaten dat 2.6GB besparing handig was geweest.

De 4 tot 12GB die de herstelconsole oplevert is veel nuttiger, hoewel het hebben van zo'n herstelpartitie niet onhandig is gebleken in het verleden.
Windows 8 kan zichzelf ook al uit behoorlijk benarde situaties redden. En je kan altijd nog een schone ISO van Microsoft downloaden als je een schone installatie wil doen. De extra compressie is inderdaad pas echt interresant voor goedkope tablets(<=32GB) en telefoons. Daar zal deze ook toegepast worden.
Nouja, dat is dus het vreemde; de compressie wordt alleen toegepast op systemen die rap genoeg zijn, vandaar ook dat ik me afvraag hoe snel je systeem moet zijn om hier gebruik van te kunnen maken. Als je een potente computer hebt staan is de kans dat je opslagruimte tekort komt niet zo groot; wie koopt er een rappe quadcore met 8GB of meer geheugen en gaat beknibbelen op de hardeschijfruimte?

Ik denk zelfs dat 8GB geheugen niet genoeg is, aangezien de bespaarde 2.6GB uitgepakt moet kunnen worden in het geheugen, dat zou betekenen dat je naast de standaard 1-1.5 GB die windows eet, nog eens 2.6GB ruimte uit je RAM weggeeft aan systeembestanden? Dan is (8GB-(1+2.6=4.4GB) ineens gewoon weer krap als je gaat photoshoppen of gamen.
Het wordt niet uitgepakt in RAM. De compressie/decompressie wordt uitgevoerd op het moment van het lezen/schrijven.
We spreken hier van een grootorde van enkele honderden kilobytes tot enkele megabytes voor zulk proces.
Het wordt niet uitgepakt in RAM
Natuurlijk wel, de data wordt ergens gelaten. Waar het om gaat is dat je niet op een willekeurig moment toegang nodig hebt tot álle systeembestanden tegelijk, en dan niet eens alle data per systeembestand (al is dat in de praktijk waarschijnlijk toch vaak wel zo - systeembestanden zijn over het algemeen binary images zoals DLLs die in de memory space van het proces worden gemapt). Je blijft dus beperkt tot die bestanden die daadwerkelijk worden ingeladen.

[Reactie gewijzigd door .oisyn op 17 maart 2015 09:53]

Als je kijkt naar de Microsoft geheugenarchitectuur, dan zie je dat DLL's ingeladen worden door page faults. Zo'n page fault betreft dus maar 4kB. Nu is het vaak verstandig om iets meer in te lezen (een HDD leest 16K vrijwel net zo snel als 4K random) maar het is zeker geen vanzelfsprekendheid dat je de hele DLL inlaadt.

Dit is ook een andere optimalisatie die je in Windows-64 ziet: de exception handling tables (voor foutafhandeling) staan apart zodat je die pas inlaadt als er iets ongebruikelijks gebeurt.
Als je kijkt naar de Microsoft geheugenarchitectuur, dan zie je dat DLL's ingeladen worden door page faults.
Maar worden relocations ook on demand toegepast? Dat lijkt me eerlijk gezegd stug. Er wordt volgens mij sowieso eerst een pass over gemaakt om alle referenties naar globals op te patchen. Maar fair enough, dit hoeft uiteraard (bij lange na) niet alle pages te touchen.

Maar eigenlijk is dit alles een moot point - wat je uiteindelijk nodig hebt is niet essentieel verschillend tussen gecomprimeerde en ongecomprimeerde bestanden.
Da's volgens mij het idee van de IAT, om al je relocaties op 1 plek te houden. Vergeet niet dat die truc stamt uit de Windows 95 tijd, wat op 4 MB moest draaien. Door de relocations in 1 page te houden kun je de andere pages van je DLL delen.
Niet alle apparaten met Windows 10 zullen gebruik kunnen maken van compressie: een computer moet over voldoende intern geheugen en een processor die snel genoeg is beschikken om bestanden snel genoeg te kunnen decomprimeren.
Ik dacht hieruit op te kunnen maken dat de bestanden naar het geheugen werden uitgepakt, lijkt mij ook de enige logische keuze aangezien het uitpakken op de schijf de ruimtebesparing langzaamaan te niet doet, toch?
Je hebt natuurlijk tijdelijk meer geheugen nodig omdat je zowel ingepakte als uitgepakte data tegelijk in je geheugen hebt, maar dat zal veelal in blokken gebeuren die on demand worden ingestreamd vanaf de hdd. Daarnaast moet je informatie bijhouden om de vertaalslag te kunnen maken van file offsets in uncompressed data naar file offsets in compressed data.

Het gaat er dus niet om dat al die systeembestanden worden uitgepakt naar het geheugen, maar het brengt simpelweg wat overhead met zich mee. Op een embedded platform waar memory requirements behoorlijk tight kunnen zijn kan het dus voorkomen dat compressie geen optie is, ookal is de hardware verder wellicht snel genoeg.
Misschien is het geen 1 op 1 vergelijking, maar vroeger bestond er ook zoiets als DoubleSpace en Drivespace waarmee je een virtuele gecomprimeerde schijf had. Dit programma draaide in DOS met minder dan 50Kbyte geheugen en ging nog redelijk in doorvoersnelheid op een 386.

NTFS heeft ook "gecomprimeerde mappen", en deze worden ook niet vooraf uitgepakt. Deze worden bij inlezen blok voor blok (of buffer voor buffer) gedecomprimeerd.

Het zou mij niet verwonderen moest dit weinig invloed hebben op de doorvoersnelheid. Deze compressiestap is op een beetje moderne processor reeds een stuk sneller dan het daadwerkelijk inlezen van de schijf.
Nouja, dat is dus het vreemde; de compressie wordt alleen toegepast op systemen die rap genoeg zijn, vandaar ook dat ik me afvraag hoe snel je systeem moet zijn om hier gebruik van te kunnen maken. Als je een potente computer hebt staan is de kans dat je opslagruimte tekort komt niet zo groot; wie koopt er een rappe quadcore met 8GB of meer geheugen en gaat beknibbelen op de hardeschijfruimte?

Ik denk zelfs dat 8GB geheugen niet genoeg is, aangezien de bespaarde 2.6GB uitgepakt moet kunnen worden in het geheugen, dat zou betekenen dat je naast de standaard 1-1.5 GB die windows eet, nog eens 2.6GB ruimte uit je RAM weggeeft aan systeembestanden? Dan is (8GB-(1+2.6=4.4GB) ineens gewoon weer krap als je gaat photoshoppen of gamen.
Is dit niet gewoon file packaging zoals in games al jaren voor komt?

Als je een game maakt kun je er voor kiezen om 35.000 losse mini bestandjes in een folder te dumpen (left 4 dead 2 bijvoorbeeld) OF om diezelfde bestanden te bundelen in een archive. Het laatste kost iets meer rekenkracht (niet significant tegenwoordig) maar het voordeel is dat de harde schijf deze grotere zip bestanden veel beter kan uitlezen. Immers zo lang je geen fragmentatie hebt is de kans dat er sequentieel wordt uitgelezen veel groter als alle bestanden uit dezelfde file komen dan dat er 10.000 losse files moeten worden gezocht. Doordat windows slordig met je filesystem om gaat is de kans dat deze files verspreid staan zeer groot, zeker als je gaat patchen. Defragmentatie bundelt deze files niet rondom dezelfde sectoren (dat kan alleen met software als O&O defrag). Als je die grote zip file defragmenteert dan staat het in ieder geval bij elkaar.

Die processoren zijn tegenwoordig veel sneller, ram is er voldoende maar die harde schijven blijven even traag op kleine random reads. Niet iedereen heeft natuurlijk een SSD en zelfs een SSD kan significant sneller sequentieel lezen.

[Reactie gewijzigd door sdk1985 op 17 maart 2015 15:36]

Juist niet, want als je maar 32GB aan opslag hebt dan heb je waarschijnlijk ook niet een voldoende krachtige processor om dit de hele tijd te doen. Dat is ook het rare.
Deze compressie gaat ook gelden voor telefoons. De eisen liggen echt niet bijzonder hoog.
Veel systeembestanden zullen tijdens het opstarten gedecomprimeerd worden en in RAM of de cache worden geplaatst. Ik denk dat het dus wel meevalt met de vertraging tijdens gebruik. Misschien dat Office wat trager is. Hoe dan ook, met budgetsystemen heb je altijd beperkingen.
Je hebt toch al 4-12 GB gewonnen met het weglaten van die recovery. Die compressie van van maximaal 2.6 GB is het toetje.
Maar Win8 redt zich niet uit alle benarde situaties, en daar zit je dan. Ook vraag ik me af hoe je aan aparte iso gaat downloaden en op USB/DVD gaat zetten. Ik zou dan bvb naar iemand toe moeten gaan, want ik heb slechts 1 computer, dus voor standaardgebruikers is dit niet handig. Handiger zou zijn een kleine recovery boot te bakken die op het moment dat jij een nieuwe install wil een image download van MS.
Als je de pc krijgt gewoon gelijk een rescue image op USB maken. Dat is nu ook al het geval. Heb de rescue partitie van mijn surface pro 2 op USB gezet en daarna van de ssd gewist.
Je kan nu ook al gewoon een nieuwe image downloaden van Win 8. Dit gaat aan de hand van een Wizard die even navraagt welke taal je wilt en welke versie. Vervolgens vraagt hij of een .iso moet opleveren of dat je via USB wilt gaan. In dat laatste geval maakt hij de USB ook bootable waar je vroeger nog even in de commando's moet duiken (toch als je geen 3th party tools gebruikt).

Dan download hij de versie die je wil en als je USB neemt is hij klaar voor gebruik als hij klaar is.

Handig hierbij is dat een heleboel patches er al inzitten terwijl je vroeger met een disk zat die soms jaren achterliep. Merk op dat alle install media vanaf Vista al een image is. Ook de DVD's zijn zijn niet meer dan de default OOBE image op het WIM formaat. Beter nog, je kan die standaard image ook gewoon aanpassen offline, bijvoorbeeld drivers injecteren of updates. Of features in/uitschakelen zonder het eerst te deployen. Maar dat is dan weer niet gericht voor de standaardgebruiker.
Je leest duidelijk niet wat er staat en zegt maar wat. Probeer het nog eens.
Ik vind het ook wel interessant op mijn Surface Pro met 128GB.

De RAM en processorkracht zijn er aanwezig (4GB, i5), maar ook 128 GB is erg weinig en wanneer je applicaties van Adobe en ook nog een game geïnstalleerd hebt, houd ik niet meer dan 10 GB over. Mijn 3 TB aan persoonlijke bestanden zijn dan allemaal online in OneDrive en niet lokaal aanwezig.

Die extra 2,6 GB is dus zeer welkom.
Zo'n herstelpartitie is dacht ik niets meer dan de windows install cd's plus leverancier bloatware.... Met een kale install vanaf dvd had je die sowieso al niet..... Herstellen kan dan met de originele install dvd...

Bij mij groeide mn 32gb ssd enige jaren geleden ook uit zn jasje ... Gewoon schijfcompressie toepassen en dat werkte ook al aardig... na een een paar rondes van updates was ook dat voordeel alweer geslonken. Die ellenlange gb verslindende updates vind ik meer een doorn in t oog.....
Ik erger me er ook steeds aan dat Windows 7 als een soort Rupsje Nooitgenoeg mijn vrije ruimte opvreet. En als je na het opruimen van alle rommel een keer met je ogen knippert is de helft van de gewonnen ruimte al weer weg.
Maar daar zal dit niet tegen helpen, hooguit begint Windows kleiner, groeien doet het toch wel weer.
Het kan op de Windows 8.1 tablets toch wel veel schelen. Een hoop van die tablets hebben maar 32GB flashopslag, waarvan er maar tussen de 11 en 16 GB vrij is.

Neem als voorbeeld de:
- Asus T100
- Asus T200
Van de beschikbare 20,8GB is na de installatie van Windows nog 16,8GB vrij. Wie vervolgens de herstelpartitie verwijdert, kan nog 8GB aan opslagruimte winnen.
- Acer Iconia Tab 8 W1-810
Na installatie is er zo'n 11 GB vrij op de C-schijf. Er is namelijk een herstelpartitie aanwezig die zo'n 8 GB in beslag neemt
- Archos 80 Cesium (heeft zelfs maar 16GB)
Er blijft krap 1Gb over om mee te werken.
- En ga zo maar door...

Als je dus geen herstelpartitie van 8 tot 16GB hebt en ook nog 2.6GB kan besparen kan dit dus leiden tot een tablet die stukken beter, nuttiger en werkbaarder is! Nou nog hopen dat de specificaties van deze (of toekomstige) tablets goed genoeg zijn zodat de compressie is in te schakelen.

[Reactie gewijzigd door rens-br op 17 maart 2015 09:06]

Klopt.

Ik heb een toshiba encore 2 liggen met 32Gb.
Hiervan is 14Gb vrij.

De vraag is nu of compressie gaat gebruikt worden op de Atom processors. Tweede vraag is of die herstelpartitie zal verdwijnen na een upgrade met windows 10, of er een 8.1 herstelpartitie zal blijven bestaan. Het grote probleem is immers dat zonder die herstelpartitie het toch niet zo gemakkelijk is om een versie windows installatie terug te zetten (oa drivers bij mekaar zoeken, dit ding kunnen opstarten e.d.)
First: decompressie naar het geheugen is éénmalig.
Second: on-the-fly decompression time is marginal.

De LZ compression van Windows is altijd al snel geweest. Misschien is de overhead 15-20% bij het inladen. Windows 64 pakt natuurlijk niet de gehele 2,6GB tegelijk in het geheugen, enkel de systeem bestanden die het nodig heeft. Persoonlijk heb ik nooit nadelige gevolgen gemerkt van het feit dat ik zo ongeveer alle systeemfiles van Windows op compression heb staan (werkt natuurlijk alleen op bestanden die bij opstart niet in gebruik zijn).
Als je processor snel was in vergelijking met je harde schijf dan had je zelfs een goede kans dat de CPU tijd voor het decomprimeren minder was dan de bespaarde I/O tijd - compressie kon zelfs sneller zijn.

Dat is met snelle SSD's tegenwordig vaak niet meer het geval, maar goedkope tablets hebben nogal eens langzaam eMMC.
maar een ruimtebesparing tot 2.6GB lijkt me voor de meeste mensen geen enorme winst
Windows 10 is voortaan ook een OS voor telefoons en goedkope tablets en dan is 2,6 GB wel veel.
ik kom heel vaak tegen ( in de bedrijfswereld) dat de C schijven meestal nog rond de 42 GB zijn.
reken daarbij dat er meestal 10% vrije plaats gevraagd word, dan wordt het redelijk krap na een paar jaar updaten.
2-3 GB is toch weer een extra jaar zonder meldingen.
Tenzij het bedoeld is om de doorvoersnelheid te verhogen. Vroegah, beetje XP tijd geloof ik(of iets daarvoor?), had ik een paar benchmarks gezien waar werd getest met gecomprimeerde en ongecomprimeerde schijven, en het kwam er een beetje op neer dat als de cpu toch te snel is en het comprimeren niet uitmaakt qua load op het systeem, kan er wat voordeel te behalen zijn met de doorvoersnelheid. Dit uiteraard wel met magnetische platters.

Vraag word dan of dit ook een meetbaar laat staan significant voordeel oplevert op ssd's, helemaal als het NVMe ssd's zijn. En zo nee, waarom doen ze het dan? Misschien dat het samen met het weglaten van de recovery image en wat andere veranderingen wel een behoorlijke ruimtebesparing oplevert?
Ergens snap ik de gedachtengang wel maar een ruimtebesparing tot 2.6GB lijkt me voor de meeste mensen geen enorme winst.

De doelgroep is dan ook tablets en andere aanverwante apparatuur. Daar zit soms maar 32GB totaal storage in.
Zwakke systemen met weinig geheugen zullen niet zijn gecomprimeerd, terwijl sterkere systemen ( waar meestal ook een grotere opslag in zit) wel worden gecomprimeerd. Is het comprimeren niet juist voor systemen met weinig opslag interessant?
Het gaat niet om de hoeveelheid opslag, maar om de processor en het RAM geheugen.
Dat kan wel kloppen, maar zoals rko4u zegt hebben de systemen met meer ram en een snellere processor meestal ook meer opslagcapaciteit, waardoor het comprimeren van OS bestanden niet echt een significant voordeel levert.
Als je tegenwoordig een systeem bouwt of koopt zit er geregeld een SSD in. Deze zijn dan ondersteund met grotere HDD's. Maar je W10 zit natuurlijk op die SSD. En die zijn klein. Daarom zullen die systemen best wel die mogelijkheid krijgen. Meer ruimte over op je SSD, iedereen blij.
Als ze toch al zo moeilijk doen dan lijkt het me ook wel dat ze minder kritieke systeembestanden op een andere partitie (op de harddisk) op hadden kunnen laten slaan om hetzelfde te bereiken. Het lijkt me dat een moderne harddisk nog steeds sneller is dan een bestand decomprimeren vanaf een SSD.

Op zo'n moment dat opslag steeds goedkoper wordt lijkt me dit geen hele nuttige toevoeging.
systeembestanden zijn vaak kleine bestandjes en daarbij komt een SSD volledig tot zijn recht (tot 100x sneller dan een HDD), een eenvoudige compressie zoals zip (geen idee wat ze gaan gebruiken) kan een hedendaags cpu gemakkelijk in real time (en je hebt toch meerdere cores)

beetje vreemd dat ze er nu pas mee beginnen aangezien ze dit vroeger ook al deden voor backup mappen
100x sneller dan een HDD is nog steeds heel veel langzamer dan geheugen. Geheugen is zo'n 5 ordegroottes sneller dan een HDD. Als een SSD 100x sneller is dan een HDD, dan is een SSD nog steeds 3 ordegrootes langzamer dan geheugen (=1000x). Minder laden en dan decomprimeren kan dan al snel uit.
Dan koop je toch ren grotete ssd, iedereen blij.
Ik denk dat dit geen probleem gaat opleveren. De systeem eisen zijn niet heel erg hoog gezien dat telefoons deze compressie ook zullen gebruiken. Ik denk dat het echt om hele oude systemen gaat die niet compatibel zullen zijn.
Ja maar sterkere systemen zullen natuurlijk meer ram en een snellere processor hebben, dat bedoelt rko4u.
Je moet snel genoeg kunnen decomprimeren anders ga je er alleen maar op achteruit.
Wat is de besparing ?
32 Gb @ 0,50/GB is ¤ 16,-- en een trager systeem.

of willen W10 ook voor een Raspberry geschikt maken ?

Waarschijnlijk willen ze hun cloud capaciteit vergroten, voor de meeste gebruikers neemt de windows map 30% van de schijf ruimte in. Windows zelf zit zowiezo vol met ballast

[Reactie gewijzigd door Jermak op 17 maart 2015 09:14]

Ik mis liever wat gigabytes dan een systeem wat flink hapert omdat die zijn systeembestanden niet snel genoeg bij de hand heeft.
Ik gebruik tegenwoordig een WIMBoot installatie van W8.1 en ik merk totaal geen snelheidsverschil. WIMBoot is een gecomprimeerde image die bijvoorbeeld op Windows tablets zoals de Asus T100 wordt meegeleverd.

Zelfs op trage processors is de SSD nog altijd de bottleneck omdat die bestanden real-time uitgepakt kunnen worden.

Nu is WIMBoot zelfs nog veel aggresiever qua compressie. In essentie installeer je windows niet, maar lees je de bestanden elke keer in vanuit de "install.wim" file. Vorrdeel: De basisinstallatie is maar 5GB
Of of kleiner..
Heb nu een installatie van Windows 10 beta in een 3.1GB hidden partitie met WimBoot. Dit op een Dell Venue pro 8 met 32GB. Na installatie, inclusief de swapfile en hibernate.sys blijft er bijna 23GB over.

Windows 8.1 laat zich zelfs in een 2.9GB partitie installeren op deze tablet.
"slechts" 5GB. 8)7
Beter dan 20....
Dit is trouwens wel een image met alle updates t/m 02-2015 erin geslipstreamed. vandaar dat het geheel iets groter is.
Inderdaad, W10 (de internet-of-things versie) komt ook voor de Raspberry Pi 2 beschikbaar: http://www.windowscentral...-pi-2-due-customer-demand
Ik zie het zo: Een systeem wat niet snel genoeg is zal ook door lichtere gebruikers gebruikt worden, dus met minder programmas geinstalleerd. Voor dit soort systemen is een 120-240gb schijf vaak meer dan genoeg. Voorbeeldje is bijv. de laptop van mijn ouders, die er enkel beetje op internetten en internet bankieren.

Compressie op dit soort systemen maken het geheel vaak ook wel trager, en aangezien ze vaak niet erg veel rekenkracht hebben (omdat ze 't voor het gebruik ook niet nodig hebben).

Zwaardere gebruikers, die veel programma's installeren, vaak op een SSD, hebben er weer meer baat bij dat er minder opslag gebruikt word, zodat er meer over blijft voor de programmas die ze gebruiken.
Het nieuws is hier eigenlijk dat er geen recovery image meer nodig is. Dat scheelt 4 tot 12 GB. De optie van comprimeren scheelt 1.5 tot 2.6 GB.
Een zwak systeem gaat er dus altijd minimaal 4 GB op vooruit.
mis. En een tablet met een sterke CPU/RAM verhouding, maar relatief weinig opslagruimte dan?
Of, zoals hieronder gesteld, een snel systeem met een 120GB SSD?
Dat geeft extra GB's voor software; goede ontwikkeling dus.
Komt er ook een mogelijkheid dat je ondanks de specs van je pc die data compressie kan in/uitschakelen?
Sterker nog, je hebt zometeen de mogelijkheid dat 2 exact dezelfde laptops in Pricewatch staan waarbij de ene fabrikant maar 9GB van je SSD in beslag heeft genomen met Windows & bloatware, terwijl de andere fabrikant 31GB van je SSD in beslag heeft genomen.

OEM-leveranciers kunnen zelf gaan bepalen of compressie moet worden toegepast op hun eigen inschatting (!!!) of een machine sterk/snel genoeg is om wel/geen compressie te gebruiken.

Dat vind ik een kwalijke zaak; voor een flink aantal devices heeft Microsoft al bijna 100% richtlijnen waar het device aan moet voldoen hardwarematig voordat er een Microsoft OS op mag (zoals een WindowsPhone) maar voor de komende generatie hardware (laptops, desktops, tablets), mag een OEM het zelf gaan bepalen.

Vraag me direct af hoe Tweakers dus zometeen de experience van een laptop gaat testen in de Reviews; een compressed laptop is mogelijk iets minder snel dan een uncompressed laptop.
Dit lijkt af te stevenen op een herhaling van het "certified for Windows Vista"-sticker verhaal waarbij crap hardware deze sticker kreeg en gebruikers vervolgens klaagden over de prestaties.

Er zullen ook systemen aangeboden worden tegen bodemprijzen waarbij de SSD vol zit met het OS, maar ene leek zal dit niet in de gaten hebben bij aankoop en achteraf zit je met de gebakken peren.

Dit soort zelfregulering van de markt zal als een boemerang in het gezicht van MS landen.
En dan zet die leek compressie aan (built-in, so easy to use, I suppose) en wint hij/zij 2,6GB aan ruimte. Meer gaat het ook niet zijn. Dat een systeem fabrikant een 60GB SSD levert, is voor de klant vrij transparant natuurlijk. En dat dat te weinig is, ook. Als de klant zich een beetje informeert, tenminste...

*edit: spelvaut

[Reactie gewijzigd door Timoo.vanEsch op 17 maart 2015 13:40]

Dat doen de meeste klanten nu net niet. Die kopen een machine die de verkoper voorzet.
Inderdaad, die leek zet vervolgens de compressie aan en merkt dan dat zijn bodemprijsmachine niet vooruit te branden is omdat het de decompressie niet aan kan in realtime. Dus hij is in ieder geval de pineut.
Het verschil kan hooguit 2.6 gig zijn voor Windows op een 64bits.
...maar tot 15GB als je de verwijderde recovery images meerekent. En dat is toch al best wat, hoor.
Ik reageer op max3400 die stelt dat er een verschil van 22gb tussen de zelfde laptop kan zitten.
Dit is namelijk niet zo want alle laptops (snel of niet zo snel) gaan 4 tot 12 GB vooruit.
Het enige verschil is Max 2.6 GB.
Het zal even afhangen wat het scheelt in performance denk ik. Als vooral budget-toestellen dit doen vind ik het vrij logisch. Van een duurder apparaat verwacht je toch wat meer.
Dat vind ik een kwalijke zaak

Kwestie van een afweging tusen snelheid en vrije ruimte. Waarom zou een fabrikant dat niet mogen bepalen? Ik denk dat een fabrikant dat beter kan dan de meeste gebruikers.

En als Tweaker kun je het simpelweg later aanzetten als jij hun keuze verkeerd vindt. Immers disk-compressie is geen nieuwe feature, maar zit al jaren in Windows en wordt ook al vandaag de dag automatisch gebruikt bij de opslag van bepaalde Windows Update bestanden.
OEM-leveranciers kunnen zelf gaan bepalen of compressie moet worden toegepast op hun eigen inschatting (!!!) of een machine sterk/snel genoeg is om wel/geen compressie te gebruiken.
Doet me denken aan "Vista Ready"....................
Misschien is het zelfs dan nog interessant om het toch enabled te laten. Vaak is het namelijk zo dat compressed data lezen van disk en uitpakken in ram, sneller is dan dezelfde data ongecomprimeerd te lezen van disk. Dit is puur omdat de snelheid van HD's nog altijd de traagste factor is.

Een opmerking hierbij is dat het omslagpunt hiervan misschien al bereikt is sinds de opkomst van SSD's, dat weet ik zo even niet, maar zou goed kunnen.
ik denk dat je hier wel een belangrijk punt hebt, alleen is er dan nog een factor, als de CPU al druk is kan het decompressen weer langer duren... Je kan er dus geen conclusies aanhangen, alleen indicaties dat het gemiddeld beter of slechter zal presteren bij een bepaalde hardware config EN gemiddeld gebruik
Ik hoop het wel. Ik merk nu al op mijn windows 8 laptop dat er soms vage achtergrond processen meedraaien die mijn schijf behoorlijk bezighouden.

Verder is een besparing van 2.6 GB niet zi interessant voor mij.
Dit heb ik ook inderdaad, ik doe vaak veel dingen tegelijk en als ik toevallig ook een game aan het doen bent merk je dat gelijk aan stotteren, en in taakbeheer is er een een of ander vaag windows proces hard bezig met de hdd. Erg irritant.
Ik weet dat het verdienmodel van de grote techgiganten steeds meer wordt om de mensen 'naar de cloud' aan te sturen, maar ik vraag me af nu opslagruimte zo goedkoop is, of gebruikers niet gewoon wat extra opslagcapaciteit willen in plaats van comprimeerde windows versies die minder presteren of extra ram gebruiken.

Verder vind ik het wel fijn dat voor windows de recovery partitie de deur uit gaat.
Verder vind ik het wel fijn dat voor windows de recovery partitie de deur uit gaat.
Weet niet of ik daar wel zo blij mee ben. Voor de handige tweaker die liever de schijfruimte heeft is die recovery zo verwijderd. Is 1 van de eerste dienen die ik doe bij een nieuwe laptop voor mezelf.

Maar ik heb bij menig ander (vooral die niet zo handig zijn) heb ik er dankbaar gebruik van gemaakt om de boel eenvoudig te herstellen na dat de boel compleet was vast gelopen, en de windows 7/8 herstel functie er ook niet meer uit kwam. Zeker tegenwoordig is die 14gb op een gewone HDD van 500 gb+ niet echt een belasting. op kleinere SSD's kan het wel fijn zijn, maar zou het zelf wel prettig vinden als aan mensen de keuze gelaten wordt. (Hoe vaak ik al niet heb gehad dat externe media zoals installatie CD's zoek zijn.... dan is zo'n on disk recovery erg handig :) )

Tuurlijk is het maken van een backup image een veel handigere optie (je kunt je eigen software dan ook mee nemen en bij herstel heb je dat dan gelijk terug), maar heel veel 'gewone' gebruikers doen dat ook niet en als ze het al doen, kunnen ze hem zelf niet terug zetten op het moment dat de pc vast zit. Nu is het nog zo van herstel eerst met de recovery en zet dan de backup terug) Maar wie weet is de herstel funcite van windows 10 zo veel beter dat die afdoende werkt...... we zullen zien.

[Reactie gewijzigd door VVV-007 op 17 maart 2015 08:49]

Die backup petitie kost 1/2/3GB meestal.
Een 4gb memory stick kost rond een euro of 3.
Wat mij handig en niet eens zo gek lijkt,
Is dat mensen zo'n extern sticky geleverd krijgen bij hun Windows apparaat. Zodat zij, of een ander makkelijk recovery dokter kunnen spelen. En doordat die petitie dan extern staat is die standaard ook nog eens minder kwetsbaar voor manipulatie.
voor een backup te maken van Windows 8 heb je een stick van 8 gig nodig ... (als je de software van microsoft zelf wil gebruiken toch)
Toch is de recover petitie vaak een gb of 2a3 bij windows 8
Klopt, maar toch heeft Windows een 8gb stick nodig voor de recovery. Dat zal ook met drivers en de bootloader te maken hebben.

P.s een petitie is iets wat je ondertekend. Je bedoelt partitie
Verder vind ik het wel fijn dat voor windows de recovery partitie de deur uit gaat.
ik ben er niet echt blij mee, geen recovery images betekent dat de leken niet langer zelf hun systeem (of een it'er snel een ander systeem) kan herstellen, zelfs onder W8 is het installatieprocess imho te langdradig
De cloud moet je gebruiken voor de goede toepassingen. Een recovery partitie bijvoorbeeld is nu juist iets waar een cloud-oplossing beter zou zijn. Dan hoef je alleen een minimale Windows kernel op je recovery partitie te hebben, die vervolgens de hele recovery vanuit de cloud doet. Vervelend als je't nodig hebt, maar het is zeldzaam genoeg. Breng je tablet desnoods naar je handige neefje als je zelf geen glasvezel hebt.
En wat als je geen netwerk hebt?
Dan breng je 'm desnoods naar je handige neefje. Zoals ik al zei.
Ik vraag me af of dit zorgt voor performance verlies. Of is de software zo slim dat alleen weinig gebruikte bestanden gecomprimeert worden zodat je er in de praktijk weinig van merkt.
Compressie en decompressie zorgt altijd voor performance verlies. Dat is inherent aan het systeem. Je kunt dit inderdaad optimaliseren door veel gebruikte bestanden niet te comprimeren maar echt helemaal tegengaan van het effect kun je niet. Ook zijn niet alle bestanden even goed te comprimeren waardoor het effect mogelijk minder groot is wanneer je enkele bestanden uitsluit van compressie.
Nu dat SSD's meer mainstream gaan worden is de I/O straks ook niet langer meer een probleem. Bij oude pc's met oudere harde schijven merkte je die performance impact nog wel.
De load is niet alleen disk i/o maar ook CPU en memory. Sterker nog, de aanwezigheid van voldoende vrij geheugen en een voldoende snelle processor zijn de vereisten om het genoemde systeem uit het nieuwsitem uberhaubt te kunnen gebruiken.
Maar in welke mate is deze performance verlies merkbaar?
Zou je dit als gebruiker daadwerkelijk gaan merken of zijn dit verschillen waar een benchmark voor nodig is om dit goed te meten?
Wanneer je een goede / zware compressie toepast (voor de meeste winst) zul je dit zeker gaan merken. Wanneer je een lichtere compressie toepast voor quick wins zal het verschil minder snel merkbaar zijn. Alles hangt daar af van de gekozen implementatie waar ik helaas weinig aanvullende informatie over kan vinden.
Welnee. Compressie ruilt I/O tijd in voor CPU tijd. Als ik in plaats van 4 MB maar 3 MB van disk moet lezen is dat sneller, en als m'n CPU snel genoeg is dan kan ik die 3 MB sneller uitpakken dan dat het lezen van 1 MB extra me had gekost.

Dat is bijvoorbeeld de reden dat tape backup systemen altijd comprimeren.
In dit geval ruilt men vooral diskspace voor CPU tijd. Dat is ook de meest voorkomende reden om te comprimeren. Zoals jij het nu stelt lijkt het alsof het doel snelheidswinst is wat niet het geval is in dit specifieke geval.
Het zorgt voor meer CPU load maar het opslaan en lezen van bestanden zal er niet trager door gaan, wellicht integendeel want de storage is de bottleneck.
Een goede stap van MS, die ook wel past in de trend van de laatste tijd om (met name mobiele) OS lichter te maken. De game industrie zou hier een voorbeeld aan kunnen nemen...
ik denk juist net andersom, een stapje achteruit, back to the 90's..
In oude windows hadden ze ook compress, maar toen waren de drives klein en over de hele drive.
Het OS wordt hier niet lichter door, alleen kleiner op de disk. Er zijn meer systeem resources nodig om deze te lezen, terwijl de capaciteit van deze disks steeds groter wordt.
Ultrabooks hebben tegenwoordig minimaal 128gig SSD, vaker 256Gig of meer komt steeds vaker voor.
Dus resources inleveren voor 1 tot 4Gig besparing op een OS. Ik heb het gevoel dat dit alleen leuk is voor de marketing, reclames etc is, van 'onze Windows 10 heeft 40% minder opslag nodig'.
Die tijd herinner ik mij ook nog, dat gebeurde vaak d.m.v. dubieuze compressie programma's. Zelf heb ik ook een keer die fout gemaakt door de HDD van mijn toenmalige 286 te verdubbelen van 40 naar 80 MB, waarna het systeem onwerkbaar langzaam was geworden. MS laat dat niet gebeuren, omdat rekening met de capaciteiten van het systeem wordt gehouden.
MS laat dat niet gebeuren? Ze zijn nota bene veroordeeld omdat hun compressie-software in MS-DOS een directe rip-off was.
Het MS-DOS tijdperk ligt (helaas!) ver achter ons. Het MS van nu wordt nu zo goed in de gaten gehouden, dat men echt geen geintjes kan flikken. De laatste tijd vind ik MS overigens wat sympathieker, minder arrogant overkomen. Dat is vast geen toeval en zal wel onderdeel zijn van de huidige strategie.
Het probleem met games is dat compressie maar zover gaat. Textures zijn plaatjes en cutscenes zijn MP4tjes oid, dus compressie = lagere kwaliteit. Dus meer compressie op dat gebied hoeft van mij niet zo.
compressie hoeft geen lagere kwaliteit te betekenen. Of zie je de kwaliteit van een tekstbestand dat je uit een ZIP hebt gehaald ook achteruit gaan misschien? Alles hangt af van het type informatie dat is opgeslagen en het type compressie dat men toepast.
Daarom noem ik specifiek de grootste bestanden van de games, namelijk de textures en cutscene filmpjes. Zo konden "vroeger" DL-DVD discs van bepaalde consoles gebrand worden op een normale DVD door het verwijderen of verkleinen van de cutscene filmpjes. De daadwerkelijke programmering van een game gaat de grootte niet zijn, muziek, plaatjes en filmpjes wel en deze kunnen alledrie niet met vele factors verkleind worden zonder kwaliteitsverlies.
Ik kom niet uit een Microsoft wereld, maar in de unix wereld is dit sinds de komst van ZFS en btrfs vrij normaal. En ruimtebesparing is niet de enige reden om voor compressie van het filesystem te kiezen...

Tegenwoordig zijn processoren zo ontzettend snel geworden en echt niet te vergelijken met de processoren uit de tijd van 'DoubleSpace'. Een beetje compressie bij schrijven van bestanden is een makkie. Decomprimeren bij lezen is zelfs nog minder zwaar. Tevens zijn de gekozen compressie algoritmen vrij licht, niet de beste compressie, wel een hoge snelheid.

Wat misschien wel belangrijker is dan ruimte besparing : een zware reductie van I/O naar disk! Ik weet niet of dit ook het geval is bij Windows 10, maar ook dit is bij bijvoorbeeld ZFS een reden om data te comprimeren. Overigens is er bij ZFS te kiezen voor performance of ruimte besparing door te kiezen iut verschillende compressie algoritmen: lzjb, gzip, zle of lz4.

Microsoft is de laatste tijd goede keuzes aan het maken, misschien wordt nu ook tijd om NTFS te ditchen voor een echt filesysteem ;-).
Ik ben het helemaal met je eens, met een modern FS zoals ZFS of BTRFS zou Microsoft deze patchmiddelen helemaal niet nodig hebben. Ten eerste omdat compressie gewoon door het FS afgehandeld wordt op dataset/file niveau, ten tweede omdat de herstelpartitie niet nodig zou zijn als je FS snapshots en copy-on-write ondersteunt. Sterker nog, hun zogenaamde system restore zou ook direct een stuk makkelijker gemaakt worden. Het is van de gekke dat ik met mijn 68GB partitie voor Windows 7 en applicaties elke week weer moet vechten om een paar GB extra vrij te maken.

Ik draai FreeBSD en Linux met ZFS en zou echt niet meer terug willen naar UFS of EXT. Zelfs met LZ4 haal ik een compressiefactor van rond de 10 voor bepaalde (numerieke) data. Voor libraries en executables is de factor dichter bij de 2. En door automatische snapshots voel ik me een stuk veiliger...

[Reactie gewijzigd door narotic op 17 maart 2015 11:07]

Patchmiddelen? NTFS heeft al lang compressiesupport.
En dat gebruiken ze nu blijkbaar ook hier voor. Goed bezig dus...
Zie ook https://support.microsoft.com/en-us/kb/251186?wa=wsignin1.0
Linux? Al vele jaren daarvoor had je op de Amiga had je een filehandler die compressie gebruikte. Je weet wel, midden jaren 80 waar geheugenruimte nog spaars was.
*zucht*
Misschien eerste eens zorgen waar je over praat, voor je begint te bashen? NTFS heeft ook gewoon een compressie in het filesysteem zitten. Kun je naar wens op files of folder instellen.
Standaard heeft Windows dat niet aan staan, maar dat gaat nu dus blijkbaar veranderen.
*zucht*
Begon ik mijn relaas niet met me te verontschuldigen dat ik wellicht niet weet waarover ik praat daar ik niet uit een Windows wereld kom?
Ik herinner me nog dat ik op een 486 onder Windows 95 Drivespace gebruikte om de hele C-schijf te comprimeren. Werkte prima. Kan me bijna niet voorstellen dat het op moderne systemen niet zou werken.
Of Stacker
Die goeie ouwe tijd. :)
't zit al jaren in NTFS, voor consumenten dus sinds Windows XP. En dan kan het op elke folder apart gekozen worden, desnoods elke file.
In plaats van onnodige zaken uit het systeem te halen kiezen ze voor compressie? Dat heb je toch niets aan op juist de beperkte systemen?
Dat zou ik ook denken.
Ik heb nog wel eens in de systeembestanden van Windows 7 of 8 zitten bladeren. Ik kwam daar nog 16-bit icoontjes tegen. Wellicht dat Microsoft eens met de bezem door Windows zou kunnen om te zorgen dat onnodige zaken weg zijn?

Daar zie je overigens ook gelijk de downside van een systeem als Windows (tov iOS/OS X). Je moet dus heel Windows op zo'n tablet laden. Je zou je kunnen bedenken dat daarop niet alles nodig is.
Je hoeft niet alles te laden hè ;)
Kan ook niet als je ziet hoe snel Windows 10 gestart is.
Er is dus helemaal geen downside. Behalve wat diskruimte.
En die is nu weer minder geworden. Doe je een 'signature' install, dan is er weinig verschil omdat de OSen die je noemt ook al flink wat mee krijgen.
En wat wil je er dan uithalen??? Genoeg mensen die functies gebruiken die jij misschien nooit gebruikt.
Voor een tablet? Windows 16 support misschien, zelfs uit de 32 bits builds. DirectX 1. Compatibility shims voor verouderde software die toch niet op tablets gaat werken.
Het is niet omdat jij het niet gebruikt, dat er geen andere mensen zijn die er wel iets aan kunnen hebben.
Voor een deel klopt dat, maar die paar mensen moeten dan maar een full-blown laptop kopen.

En sommige software is voor iedereen onbruikbaar. Windows zit vol met workarounds voor oude software. Maar een heleboel van die software is niet meer relevant. Je kunt geen IOmega zipdrive in een tablet inbouwen. Er zijn simpelweg geen "andere mensen die daar wel iets aan hebben".
Een heeel goeie zet. Vooral als de gebruiker dit zelf kan aan of afzetten.

90% van de bestanden van Windows gebruikt je toch niet. Compressie is daarvoor goed.

Nog iets beter zou zijn: compressie op de minst gebruikte. Dan heb je winst (plaats) zonder extra CPU last (wat nefast voor batterij kan zijn).

Tweede ding zou ook mogen zijn: opkuis van Microsoft! Er is veel rommel aanwezig. Misschien gaan ze dit dan ook doen als ze dan toch rondkijken om compressie toe te passen.
Ik zou juist graag de meestgebruikte bestanden in één archive willen hebben. Dat laadt en extract je standaard bij het booten.
Waarom zou je überhaupt de meestgebruikte bestanden archiveren, je hebt toch niet zo veel aan extra ruimte tijdens dat de computer uit staat, terwijl het wel gebruikt wordt als het systeem geboot is?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True