Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

×

Help jij Tweakers Website van het Jaar te worden?

Tweakers is genomineerd voor beste website 2014 in de categorieŽn Nieuws & Informatie, Community en Vergelijking. Stem nu en maak kans op mooie prijzen!

Door , , reacties: 56, views: 24.427 •

Linus Torvalds heeft Linux-kernel 3.10 vrijgegeven na een ontwikkeltraject van negen weken. De nieuwe kernel ondersteunt nu de unified video decoder op AMD Radeon-gpu's. Daarnaast kan met Bcache een ssd gebruikt worden als cache voor tragere harde schijven.

TuxDe Bcache, die op block layer-niveau in kernel 3.10 werkt, zou met name nuttig zijn om veelgebruikte data tijdelijk op de ssd te parkeren, waarna deze op een rustiger moment naar een harde schijf kan worden weggeschreven. Desondanks is nog niet duidelijk of Bcache gemiddeld beter presteert dan dm-cache, een cachingmethode die in kernel 3.9 werd opgenomen.

Kernel 3.10 biedt bij de Radeon-drivers voor AMD-gpu's nu ondersteuning voor de unified video decoder. Deze kan vanaf de Radeon HD 4000-serie worden benut om h.264- en vc1-videomateriaal met hardwarematige versnelling af te spelen. Ook worden de videomogelijkheden van een aantal recente AMD-apu's ondersteund. Enkele Intel-gpu's kunnen worden overgeklokt met de opensource-driver, terwijl Nvidia code voor de grafische kernen in Tegra-socs heeft afgeleverd.

Btrfs, een bestandssysteem dat nog steeds het stempel 'experimenteel' heeft, kan nu metadata efficiënter opslaan met een kleine snelheidswinst tot gevolg, terwijl xfs-bestandssystemen de mogelijkheid hebben om checksums voor de metadata aan te maken. Realtek heeft code geleverd om de 802.11n-chip RTL8188EE en usb 2.0-chip RTL8152 te kunnen gebruiken, terwijl ook een infrarood-sensor die in veel Apple-hardware is te vinden, herkend wordt.

Op netwerkniveau is ondersteuning voor het bij Google ontwikkelde tail loss probe-algoritme opgenomen in de tcp-stack. Het algoritme zou zogeheten retransmission timeouts met 15 procent kunnen verkorten, terwijl ook de responstijden van http-verzoeken met 6 procent zouden kunnen dalen. Ook ondersteunt de kernel de IEEE 802.1ad-specificatie, waarmee meerdere vlan-tags in een ethernetframe verpakt kunnen worden. Op virtualisatievlak wordt het big.little-concept van ARM-processors door de cpufreq-tool benut. Verder is een bug op Samsung-laptops met een uefi geplet.

Reacties (56)

Opvallend de versie nummering naar 3.10. Ik had na 3.9 eigenlijk wel 4.0 verwacht. Nu krijgen we straks alsnog kernel 3.78?
Vrij normaal deze nummering, na 9 komt 10.
Tot voor een paar jaar terug was het altijd 3.9 -> 4.0 .. Iets normaler zou zijn 3.09 -> 3.10
Helaas is een versienummer geen floating point en het is eigenlijk dan ook 3.10.0, want 3.10.1 zal binnenkort wel uitkomen. Elke punt in het versienummer is een branche in de broncode repository.
Not really.

De kernel wordt door Linus niet gebrancht. Er worden gewoon tags gezet op releases. Voor de rest is het gewoon 1 grote branch waar telkens andere changes worden ingemerged or rechtstreeks gepatched.

Voor stable kernels, zal de stable maintainer dan op die tag een branch aanmaken waar dan stable patches op gecommit worden.
Nou is dat ook niet eens zo interessant.

Ze zijn na de 2.6 branch ook direct doorgegaan met 3.0, dus daar kijk ik niet zo van op..
Veel interessanter zijn de verbeteringen, die zijn doorgevoerd :)
Een versienummer is imho nu niet bepaald iets om naar te kijken bij software.

De Linux kernel zit na 22 jaar nog maar aan 3.10 terwijl google chrome na 5 jaar al aan versie 28.0.1500.70 zit.
Is niet vrij normaal, je hebt minor updates en je hebt major updates. In versiebeheermanagement zou je ALS je het opeenvolgend updatesysteem gebruikt van 3.9 gewoon 4.0 komen, tenzij expliciet is aangegeven dat de eerstvolgende update gaat om een minor update in plaats van een major update. In vrijwel alle gevallen geeft het cijfer voor de punt of komma een indicatie in hoever de major release gepubliceerd is, achter de komma zijn de minor of overige updates.

[Reactie gewijzigd door Netrunner op 1 juli 2013 22:12]

Simpelweg nee. De ontwikkelaar mag helemaal zelf bepalen hoe zijn versienummering eruit ziet, zonder enige restricties. Alleen worden getalletjes of kalenderdata vaak gebruikt omdat het intuitief werkt, zoals bij de Linux kernel.

In de praktijk komt er voor bedrijven ook marketing bij kijken (een major update hoort nieuwswaardig te zijn voor *alle* gebruikers), en de Linux kernel hoeft daar gelukkig niet aan te doen, dus is het logischer om gewoon het minor versienummer (in dit geval dus net 10 geworden) te blijven updaten.
De linux-kernel begon vanaf 2.6.39 volgens Linus wat hoog te worden ... Het getal 3 zou hier niet alleen een volgende major versie aantonen maar ook symbolisch zijn. De kernel bestaat later dit jaar namelijk twintig jaar en gaat dan dus haar derde decennium in.
Bron : http://webwereld.nl/open-...x-kernel-wordt-versie-3-0
Ik snap na al die jaren nog altijd niet waar mensen deze logica vandaan halen. het is niet versie 39, het is 3.9, dat punt staat daar met een reden en na een 9 komt een 10 dus 3.10 .Wanneer je kijkt naar de betekenis van de nummers major.minor.revision dan zie ik ook niet in hoe een minor revision een verhoging kan betekenen van het major nummer.
Ik had na 3.9 eigenlijk wel 4.0 verwacht.
Oh, ik had persoonlijk 3.A verwacht.
Lekker boeiend.
Er wordt steeds meer naar mijn gevoel hybrid-systemen gebruikt (zowel soft als hardware) i.p.v. dat er voor 'eenvoudiger' oplossingen worden gekozen.

Waarom is er nu bijvoorbeeld een cache-systeem bijgekomen? Is het echt zo erg om (veel) data te schrijven naar een (enkele) SSD? Van alle blogs die ik zo heb ik gelezen, zijn de meningen erg verdeeld. De een maak een som dat een SSD naar een paar pas op is. Andere vertellen je weer dat je zo weinig mogelijk moet schrijven: elk stukje geschreven naar een SSD is doodzonde en (erg) schadelijk (overdreven gezegd). Wat moeten we nu geloven? Ik zie/'hoopte' dat SSD's de toekomst zou zijn, zodat de 'normale' HDD's niet meer nodig zouden zijn. Maar nu worden ze toch in levengehouden. Misschien zie ik het wel verkeerd. ;)

Eindelijk is er ondersteuning bijgekomen voor hardware decoding van videobeelden voor ATI-gebruikers. De nVidia en Intel gebruikers hadden deze al wat langer tot hun beschikking. Ook mooi zijn de bijdragen die Google levert aan de Linux Kernel. Het valt mij op dat zij erg veel bijdragen aan veel netwerkdelen binnen de kernel.

Voor Samsung-laptops is deze kernel een must btw. (als deze UEFI-mode draaien). Ik kan me vergissen, maar volgensmij was het zo dat er Samsung laptops zijn gesneuveld bij het installeren van Linux in UEFI-mode. Ik weet hierbij even niet of het dus een firmware issue was of toch de 'fout' bij Linux lag.
Ik zie zelf vooral toegevoegde waarde in het caching principe. Zeker in een desktop waar je normaliter veel schijfruimte wilt hebben, is het niet te betalen om dit met een SSD te doen. Verschillende partities/schijven hebben als nadeel dat je de ruimte niet optimaal kunt benutten. Hybride oplossingen vind ik dus wel een goede middenweg om tegen acceptabele kosten toch een responsief systeem te hebben.
Ja, daar heb je op dit moment ook gelijk in. Alleen is voor mij de vraag: stel de SSD's worden de nieuwe standaard, dat betekend (hopelijk) dat van deze schijven de prijs omlaag gaat omdat ze nu ook weer op een grotere schaal worden geproduceerd dan voorheen. Wat is dan nog de toegevoegde waarde van de caching-systemen?

Je hebt voor op dit moment zeker gelijk. Ik vraag me alleen af of dit een tussenstap is voordat SSD's de markt domineren? Of misschien komt er wel weer een beter alternatief. ;)

Aaargh.. kon je maar in de toekomst kijken, niet? ;)
Hoe is een ssd nu dan niet de standaard?
Voor je OS-disk is het inderdaad een oplossing. Voor het opslaan van grote hoeveelheden data is het dat niet. Daarvoor zijn ze veel te klein en duur. Ga jij maar eens 2TB aan ssd's in je computer steken...
Maar dŠŠr, op een schijf waar grote hoeveelheden data komen te staan, is ook de caching functionaliteit vaak helemaal geen wens.
We zouden een poll moeten houden met wie een SSD heeft daarbij ook een HDD.
Ik denk dat je dan op een bedriegelijk groot aantal komt.

Heb zelf 3TB en wil straks nog wat HDD bij kopen. Maar mijn SSD is verder prima groot genoeg voor mijn C schijf. Waarom zou ik een SSD willen voor long term memory.
Dit caching maakt de boel nog eens sneller.

Wie weet zal de code er later wel weer uit gehaald worden wanneer de 'tijden' anders zijn.
SSDs zijn niet eens de toekomst. Er staan al nieuwe technologieŽn voor de deur die NAND flash gaan verdringen.
NAND flash zal over een tijdje tegen de fysische grenzen aanbotsen en dan is het gewoon gedaan met schaalverkleining.
Dat gebeurt voornamelijk omdat de 'eenvoudiger' oplossing nog redelijk onbetaalbaar is en veelal ook nog niet nodig is.

Als iemand 10TB wil opslaan dan is dit redelijk kostbaar op SSD, en het is zeer onwaarschijnlijk dat de hele 10TB de SSD-snelheid nodig heeft. Dus de quick-fix is om het gebruikte op de SSD te zetten totdat het compleet betaalbaar is.
Levensduur is bij SSDs niet iets waar je echt bang voor moet zijn, het grootste probleem van de meeste SSDs is op dit moment de betrouwbaarheid. Tweaker CiPHER heeft daar een tijdje een erg interessante tweakblog over geschreven.

Het schrijven van data naar een SSD is het probleem niet zo, hardware.info heeft dit een paar maanden terug getest, met erg goede resultaten. Een 250GB Samsung SSD kreeg pas na 2945 program/erase cycles zijn eerste re-allocated sector. En bij een re-allocated sector is er in feite nog niets aan de hand, want die data is niet verloren. De eerste uncorrectable error was pas na 3187 cycles, wat overeenkomt met 764TiB data!
Die SSD was dus al 3000 keer overschreven voordat deze het op gaf, en dat is niet iets wat je als consument binnen een paar jaar haalt. Hardware.info heeft 2 maanden die SSD 24/7 laten schrijven om die 3000 keer te halen :)

Ik heb zelf al een stuk of 10 maanden een Samsung SSD(128GB) met zowel Windows als Linux er op staan. Ik heb nu slechts 2,17TiB naar mijn SSD geschreven, er zijn (gemiddeld) dus nog niet eens 20 cycles verspilt. Samsung geeft aan dat dat er minimaal 1000 zijn, en bij hardware.info waren het er rond de 3000.

Maar zoals gezegd, het grootste probleem bij de meeste SSDs is betrouwbaarheid, mocht je dat interessant vinden, lees zeker even die tweakblog waar ik naar linkte ;)
Als aanvulling op fifarunnerr kan ik ook nog zeggen dat er verschillende soorten geheugen zijn. De 1 is betrouwbaarder dan de ander. Het ging er met name om dat de Logfuncties die veel distro's vaak deels al uit hebben staan. Beter niet aangezet kunnen worden als je een server hebt die veel gebruikt wordt! Met name bij het BTrfs bestandsysteem kon het problemen geven. Al werd er al door iemand gezegd dat je dan 10 jaar in de meeste gevallen moet gaan schrijven met data. Mits je een super grote server hebt die ook nog eens alle debug kernel functies aan heeft staan en alle log functie op bijvoorbeeld een Distro als Arch. (en je hebt de kernel zelf van Vannila af gecompileerd) hoef je je daar in de meeste gevallen dus absoluut geen zorgen over te maken.

De meeste kernels zijn vaak al gepatched en hebben die functies zowiezo dan vaak al uit staan. (gelukkig want anders werd je doodgegooid met foutmeldingen)
Vergeet niet dat Linux wordt toegepast op verschillende vlakken. Bijvoorbeeld als storage node in een OpenStack infrastructuur. Dan is dit ideaal, je vult je storage server gewoon met 12 SAS disks en 2 SSD drives (high end, betrouwbaarder dan wat je thuis gebruikt).
Daarmee komt zulke functionaliteit beschikbaar voor generieke hardware ipv duurdere propriety oplossingen (bijvoorbeeld NetApp).
inmiddels zijn er SSD die voor cache doeleinden worden gebruikt ( EMC fastcache bijv) en die dus moeiteloos die 3000 cycles halen in een paar maanden. Levensduur SSD is m.i. dus wel degelijk een terechte bron van zorg.
Denk het niet. We praten hier niet over huis-tuin en keuken SSDs. Dit is high-end (en zeer duur spul). Kijk bijvoorbeeld even naar NetApp met hun flashcache: "When NetApp decided to take on SSD, we knew that our customers wouldn’t tolerate products that were prone to failure, and we also knew that just like our HDDs, we’d need to back our SSDs with a 5 year warranty." Dus 5 jaar, ongeacht het aantal cycles.
dan moeten dat ssd zijn die geen last hebben van 3000 cycles.
Hier wat meer info: http://www.storagesearch.com/ssdmyths-endurance.html

SSD hebben niet het eeuwige leven, zeker niet vergeleken met traditionele HDD
SSD hebben niet het eeuwige leven, zeker niet vergeleken met traditionele HDD
Wat wil je nu zeggen dat SSD nog "onbetrouwbaarder" is dan een mechanische hd ?

[Reactie gewijzigd door goarilla op 2 juli 2013 10:47]

Misschien moet je het gelinkte artikel eerst eens lezen voor je dat soort reeds beantwoorde vragen stelt.
Ja, SSD is onbetrouwbaarder dan de goeie ouwe HDD.
Is dat met externe HD"s meegerekend ?
3000 cycles is enkel voor MLC spul. SLC en eMLC doen het beter.
Eindelijk is er ondersteuning bijgekomen voor hardware decoding van videobeelden voor ATI-gebruikers.
Die is er niet "bijgekomen", die was er lange tijd als je de Catalyst drivers gebruikte, namelijk in de vorm van XvBA. Wat nu het geval is is dat de UVD ook door de open source drivers gebruikt kan worden. De implementatie is dus nu in de kernel beschikbaar, voor de open source Radeon drivers, en dat is stap voorwaarts die hier is gezet.
Ook heeft AMD veel patches voor Power Management met de open source Radeon drivers vrijgegeven. Die zitten hier echter nog niet in volgens mij en kunnen we met 3.11 verwachten. Met name voor laptops met Radeon Mobility kaarten gaat dat flink wat hitte schelen, en ook de moderne desktop kaarten met re-clocking zullen er profijt van hebben.
De nVidia en Intel gebruikers hadden deze al wat langer tot hun beschikking.
Intel, ja klopt, die hebben al jaren een fatsoenlijke open source driver.
nVidia? Nee, de open source driver voor nVidia kaarten (nouveau) kan dit niet, enkel met de propriŽtaire driver. nVidia werkt niet mee aan de open source driver en het is een reverse engineering project. Ze boeken wel vooruitgang, want bruikbaar is de open source driver al zeker wel.
Op nVidia hardware heb je enkel video decoding offloading als je de propriŽtaire driver van nVidia gebruikt. Die werkt verder ook prima en wordt regelmatig bijgewerkt, daar niet van. Maar het zou beter kunnen zijn als ook zij aan de open source driver gaan werken.

[Reactie gewijzigd door Ultraman op 1 juli 2013 20:25]

Bij monolitische kernels (en dat is Linux) zitten alle drivers in de kernel (er zijn natuurlijk ook user-space drivers, maar dat is eerder uitzondering dan regel).
Dat wilt natuurlijk niet zeggen dat al die drivers ook effectief geladen worden. De meeste drivers zitten in modules die pas geladen worden op het moment dat ze nodig zijn.
In de kernel: daarmee wordt bedoelt dat ze deel uitmaken van de source code van de Linux kernel en ook onderhouden worden door kernel ontwikkelaars. Positieve punten :)

Het houd niet in dat alles geladen wat ook maar in de kernel zit. Al zou je dat bij een monolitische kernel wel als eerste denken. Veel delen van de kernel zijn gelukkig modulair. Er is een vaste kern en daar kunnen modules bijgeladen worden voor bepaalde apparaten. Waaronder ook de "radeon" driver.
Tik op een willekeurige Linux machine maar eens "lsmod" in de terminal en je krijgt een lijst met alle modules die op dat moment ingeladen zijn. Die lijst is vaak een schermlengte lang, of langer, wanneer je een stock kernel gebruikt.
Wie zelf compileert kan er voor kiezen om veel van de door hem/haar benodigde modules direct in te bakken. Maar echt voordeel levert dat niet zo op op een gemiddelde PC.
Er zitten subsystemen in de kernel. Voorts drivers zijn echt niet groot, die driver "packs" die je krijgt van HP dat is voornamelijk crappy software.

Ik meen mij nog te herrineren dat er drivers voor Japanse vibrators in de kernel zitten.

[Reactie gewijzigd door goarilla op 2 juli 2013 12:00]

Behalve wat hierboven al gezegd is: printerdrivers zijn sowieso geen echte drivers (op de traditionele manier). Meestal komen deze als ppd bestand voor Cups, en zit het allemaal in userspace En als je Cups uit zet is er helemaal niets voor printers in je geheugen aanwezig.
De ssd caching mechaniek zie je ook terug bij de grote storage vendors zoals emc, IBM en hitachi, repectievelijk: fast tiering, easy tiering en dynamic tiering. Hierbij wordt 3-10% van de data op ssd sets opgeslagen, en de rest naar fiberdisks of SAS/sata disks (al naar gelang de setup). Bij veel configuraties blijkt namelijk dat ca. 10% van de data 90% van de tijd aangesproken wordt (zoals indexes, logvolumes etc.).
Mooi! Nu nog 3.11, want dan heb ik het 'kachel-probleem' met mijn laptop ook niet meer.
In 3.11 zit een driver voor AMD kaarten voor APM (advanced Power Manangement)
Haha ik heb hetzelfde, die proprietary drivers geven erg veel problemen met multi-monitor support. Dus ik gebruik ook de kachel-drivers. Wat in het winter wel lekkere warme handen geeft inderdaad.
"Verder is een bug op Samsung-laptops met een uefi geplet."

LOL, een bug pletten :Y)

Wel heel erg letterlijk
Dat was nu eenmaal de vroegere betekenis.
Mmm, ik snap de versienummering heus wel, maar ipv het voormalige 2.6.xx probleem, dat het patchnummer te hoog opliep, krijgen ze nu toch gewoon hetzelfde probleem met het minor nummer? Verder vraag ik mij altijd af waarom dat de titel altijd is "Linus Torvalds brengt Linux x.x uit". Linus is toch niet de enige die er aan werkt?

[Reactie gewijzigd door Loller1 op 1 juli 2013 19:59]

Het was niet echt een probleem, maar meer dat sommige mensen er zich aan stoorden. Wellicht dat als het versienummer oploopt tot laat zeggen 3.20, 3.30 of 3.40 ze weer iets anders gaan doen, maar 10 vind ik op zich nog niet zo hoog om het een probleem te noemen.

Er wordt natuurlijk wel door veel mensen aan de kernel gewerkt, maar zover ik weet is Linus degene die uiteindelijke alle patches/branches samenvoegd tot een "releasebaar" geheel en dat vervolgens publiceert. Dus op die manier is hij degene die het uitbrengt.
Jij snapt er echt niets van. Er is niets veranderd. Er is echt enkel van 2.6.x overgegaan op 3.x. Aan de releasecyclus is dus niets veranderd. Vroeger waren er ook al verschillende versies in omloop, net als nu.
Ik vind zowel Linux als Firefox een logische nummering hebben, het enige punt waar iets onlogisch was was toen Linux van 2.6.x naar 3.x ging, niks anders.
Met de 2.6.x kernel was dat ook. Je had 2.6.38 als stable, 2.6.20 als longterm, 2,6.999999 als release en weet ik veel hoeveel meer.
Als dit Linux-kernel versie 3.10 is, hoe kan het dan dat ik versie 3.4.37 op mijn Android telefoon heb? Of is dat een hele andere soort Linux-kernel?
3.10 is (drie punt tien) is een veel nieuwere versie dan 3.4 (drie punt vier), de .37 geeft aan dat het waarschijnlijk nog een bugfix versie is van de 3.4 serie. Let dus op 3.10 is niet 3.1!
Wat ik (Als Linux n00b) erover lees is dat er nu ook meer support is voor Hyper-V: dynamic memory en host initiated backup. Dat is mooi, want ik moet op korte termijn een Linux vm aanmaken voor onze R&D afdeling.
Als je dat echt wilt weten, kijk de code na, het is immers open source.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Assassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013