Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: C|Net

Microsoft heeft bekendgemaakt dat het de lancering van zijn supercomputer- besturingssysteem zal uitstellen tot waarschijnlijk de eerste helft van volgend jaar. Een maand geleden zei een van de programmeurs nog dat het besturingssysteem gelanceerd zou worden op de SC2005 supercomputingconferentie in november, terwijl de bètaversie deze zomer beschikbaar zou moeten komen. Naar aanleiding van klantreacties is de testversie uitgesteld tot de tweede helft van 2005, terwijl de final moet wachten tot de eerste helft van 2006. Ook heeft Microsoft aangegeven zich met het nieuwe besturingssysteem niet te richten op de grotere supercomputers, maar eerder op de clusters die in het bedrijfsleven bijvoorbeeld door een enkele afdeling gebruikt worden.

Windows logo / vlag (medium)Op dit moment lijkt het systeem wat features betreft op de Linux-varianten die nu veelal worden gebruikt om supercomputers aan te sturen. In de toekomst wil Microsoft met het OS .Net-ondersteuning bieden en cycle harvesting toestaan, wat betekent dat een cluster gebruik kan maken van de CPU-kracht van ongebruikte computers in een netwerk. De prijs voor het OS is nog niet vrijgegeven, wel heeft de softwaregigant gezegd dat er een korting wordt gegeven wanneer er voor extra nodes wordt bijbesteld.

Moderatie-faq Wijzig weergave

Reacties (50)

In de toekomst wil Microsoft met het OS .Net-ondersteuning bieden en cycle harvesting toestaan, wat betekent dat een cluster gebruik kan maken van de CPU-kracht van ongebruikte computers in een netwerk.
oke das leuk maar hoe ziet dat eruit? de proccessen woorden via het netwerk gestuurd naar de pc´s en terug? ligt dat aan mij of zou dit niet een enorm veelheid van de netwerksnelheid wegvreeten!
lijkt me trouwens ook niet al te veilig als het netwerk plat is ben je ook je proces kweit

:'(
Ik vind het wel vreemd dat zo'n bulky OS als windows gebruikt gaat worden voor Rekenclusters..
Zal er op iedere node nog een grafische schil draaien? Anders heeft het eigenlijk niet meer recht om Windows te heten..

Verder lijkt me .NET ook best zwaar, als iedere CPU cycle moet tellen ivm. zwaar rekenwerk. Maar kan me vergissen...
1. We leven in 2005, de performance impact van een idle grafische schil is redelijk nihil.
2. Windows is een merk geworden, daarvoor hoeft niet perse een grafische schil te worden gebruikt.
3.
Verder lijkt me .NET ook best zwaar
ik zou ook geen zware dingen draaien op een Cluster geloof ik :?
@loodgieter:

en wie had dat onderzoek betaald?
met de eerste 2 ben ik het mee eens, maar waarom geen zware dingen op een cluster draaien denk juist dat deze soort machines (ongeacht OS) bedoeld zijn om flink wat reken werk te verzetten.
Volgens mij bedoelde PolarBear dat nogal ironisch.
Er is laatst een onderzoek geweest dat er in een geupdate linux server meer security lekjes zitten dan in een W2K3srv.
Het bleek volgens mij ook dat dit onderzoek weer redelijk niets-zeggend was...
Trap nou toch niet in die domme studies!!!

-Die Luizen hebben de Games geinstalleerd! Dus bugs in Tetris worden meegeteld!
-Red Hat moet er voor boeten dat met Microsoft geen minimale install mogelijk is, dus eigenlijk zijn ze op dat punt beter.
-In MS zitten veel meer 'ongevonden' bugs
-Beiden (MS / Red Hat) werken met een ander rating-systeem van de 'severity'. Bij Microsoft is iets pas ernstig als jij en ik met de bugs op een afstand met onze computer atoombommen zouden kunnen stelen en besturen.

Let verder maar eens op het volgende:

MS vergelijkt zijn producten altijd met Red Hat.
MS is beter dan Red Hat, hoewel in het verleden in onderzoeken van Yankee groep de WinServers geoptimalizeerd waren en die van Red Hat niet.
Conclusie: MS is beter dan Linux!

Beste mensen, Red Hat <> Linux! Hadden ze het met Suse of Gentoo vergeleken, waren er andere dingen uitgekomen.
met de eerste 2 ben ik het mee eens, maar waarom geen zware dingen op een cluster draaien denk juist dat deze soort machines (ongeacht OS) bedoeld zijn om flink wat reken werk te verzetten.

[offtopic]

Waarom moeten mensen bij het woord windows en nieuw product altijd meteen aan BSOD`s of beveliging denken. Er is laatst een onderzoek geweest dat er in een geupdate linux server meer security lekjes zitten dan in een W2K3srv.
zal even linkje zoek weet hem zo snel niet meer

[edit]
gevonden:
link

@ erikdenv, Goofy666 en Meneer Dik
ik bedoel hier een beetje mee te zeggen is dat er altijd zo negatief word gedaan over windows producten dat er van alles mis mee is slechte beveliging maar dat iedereen het wel braaf gebruikt (uitzonderingen daar gelaten). Want als Windows een slecht OS zou zijn geweest zou het niet zo veel verkocht worden. maar ik begrijp wat jullie bedoelen :)
Het bleek ook weer dat tweakers niet objectief naar dat soort onderzoeken kunnen kijken.

Uiteindelijk is gewoon niet te ontkennen dat MS grote vorderingen aan het maken is wat betreft security en dat 2003 veel en veeeeeeeel minder patches nodig heeft dan 2000.

Geen enkel onderzoek is ooit volledig neutraal, maar je kunt niet meer op basis van je ervaringen met NT of 2000 vs bv linux er van uitgaan dat het met 2003 ook zo zal zijn.
De conclusie hier op tweakers was dat omdat het onderzoek door MS gesponserd werd het wel onjuist zou zijn. Maar voor die stelling werd zoals gebruikelijk geen enkel bewijs geleverd.
Zou het dan ook de Avalon interface meekrijgen?
Ik vind het wel vreemd dat zo'n bulky OS als windows gebruikt gaat worden voor Rekenclusters..
Uit het feit dat het vertraging oploopt kun je mijns inziens afleiden dat je niet zomaar kunt spreken van een Win2003Server waar ze even een paar parameters in de registry hebben opgehoogd. Kennelijk wordt er fors verbouwd.

Er zal een hoop worden verwijderd uit de originele codebase (ik denk bijvoorbeeld aan de hele multimedia hoek) en een hoop worden toegevoegd wat schaalbaarheid en clustering betreft. Ik denk dat er fors in de Kernel verbouwd wordt.

Je zult dus op voorhand geen echte uitspraken kunnen doen over het bulky zijn van dit nog uit te brengen OS.
Yep, ik zie de toegevoegde waarde van Windows op dit segment ook niet. Linux is populair op zulke platformen, en ik zou ook niet inzien waarom mensen opeens Windows willen nemen. Dat brengt alleen maar extra kosten met zich mee (denk aan anti-virus kosten, licentie kosten voor Windows enz). Ik zou het toch ook niet prettig vinden als m'n peperdure cluser onderuit gaat door een virus of een lek in Windows. Jaja, dat kan met Linux allemaal ook maar laten wel wezen, een Windows omgeving is toch een populairder doel dan een Linux omgeving.

Maar goed, er zullen vast wel mensen zijn die er wel interesse in hebben.
Je zult het wel kunnen vergelijken met zoals in linux distributed compilen. Zo kun je op deze manier meer computers een zwaar process laten uitvoeren.
FYI: Ongebruikte computers is niet gelijk aan ongebruikte pc's. Dat kunnen ook ongebruikte cluster nodes zijn. Dat zijn namelijk ook computers.
In de strikte zin van het woord is zelfs een telraam nog een computer :>
Toch maar eens op zoek naar een 20.000 telraampjes en dan eens kijken hoeveel koetjes ik daarmee in een dag verstou! :P
afhankelijk van wat er gedaan moet worden. als men praat om bv enkel wat sleuteltjes te kraken is het kwestie van een klein pakketje sturen en het draait tevens voor bv het berekenen van dna structuren zal het ook niet zo'n dillemma zijn maar ik denk voor complexere taken dat dit inderdaad niet functioneerd
lijkt me trouwens ook niet al te veilig als het netwerk plat is ben je ook je proces kweit
Klopt niet helemaal, anders zou de megaflush van DPC ook niet kunnen werken. Zodra een computer een taak ontvangt van de server om dan aan de slag te gaan en de netwerkverbinding is daarna voor onbekende tijd onderbroken, dan kan de computer gewoon doorgaan met het uitvoeren van de berekeningen en die terugsturen naar de server zodra de verbinding terug is. Als de server dan op een gegeven moment de uitkomst nodig heeft en er achter komt dat de computer die dat moest doen niet meer kan worden gevonden, dan kan simpelweg de berekening opnieuw gedaan worden. Zelfde principe waarop TCP/IP pakketjes over internet gaan, als er één verloren gaat, dan wordt ie opnieuw verstuurt via een andere route.

Of het veilig is of niet, dat hangt natuurlijk af van de implementatie. Dat is hetzelfde verhaal of SSL communicatie over internet veilig genoeg is. Maar aan de andere kant, ook al zou je die info kunnen bekijken, het is een miniscuul gedeelte van een groot geheel, het heeft vaak ook weinig nut om één woord uit een boek te lezen en dan te beweren dat je het hele boek kent.

En qua extra netwerkverkeer zal het ook wel meevallen, je ziet dat met DPC ook, een 10KB opdracht van de server naar de DPC-Client is zo verstuurt, echter de computer kan daar uren/dagen mee zoek zijn om het uit te rekenen afhankelijk van de complexiteit. En we hebben het hier niet over een 1-6Mbps internet verbinding, maar over een 100-1000Mbps intranet.
Niet gemeen bedoeld; maar waarom vertragen bijna alle windows producten ? Windows Longhorn nu weer Windows Compute Cluster Edition die verlaat komt.

is dat een trend?
Heel simpel. Bijna alle software producten worden niet opgeleverd op het moment dat als eerste genoemd wordt. Software ontwikkeling staat volgens mij synoniem aan vertraging in de planning.
Waarom? Mensen hebben de eigenschap zichzelf te overschatten in wat ze in een bepaalde tijd kunnen doen. Niet alleen voor wat betreft software ontwikkeling maar ook allerlei andere projecten lopen meestal vertraging op.

Voor de Microsoft bashers: Jammer maar helaas, het is niet alleen bij Microsoft het geval. ;)
Ikzelf ben web-programmeur, en altijd als mn baas vraagt hoelang ik ergens voor nodig heb schat ik het aantal uren, vermenigvuldig dat met 2, en tel er nog een beetje bij op. En eigenlijk ga ik alsno gbest vaak over dat aantal uren heen.
Heeft niet zozeer te maken met het slecht inschatten van mijzelf, maar omdat je gaande weg altijd nieuwe features verzint, en onverwachte problemen tegenkomt. In een programmeursteam is dat natuurlijk nog veel erger.
Moet je toch maar eens goed de requirements op papier zetten. Misschien dat je het dan wel haalt, zonder al die extra features...
Een technisch betere oplossing geniet vaak toch de voorkeur waardoor er vaak ook weer extra uren in iets gaan zitten. Ik heb voor mijzelf op een gegeven moment de keus gemaakt om bij een website voor de mooiste technische oplossing te kiezen. Deze keuze heeft uiteindelijk geleid tot gigantische vertragingen, maar heeft wel een mooi product opgeleverd. En dat is toch wel iets waar je dan later erg veel gemak van hebt.
Het probleem is meestal dat de requirements door de klanten worden bepaald en dat die zelden volledig zijn.
Voordat er ook maar een letter geprogrammeerd wordt, moeten de requirements vastliggen.
Daarbij komt er nog eens concurrentie om de hoek kijken. Klanten weten zelf niet dat ze hun eigen bedrijfsprocessen nauwelijks snappen en kiezen mede daardoor altijd voor de ontwikkelaar dat de goedkoopste oplossing biedt.
Dus moet je er een verkoper opzetten die kan uitleggen waarom de concurrentie zo goedkoop is, waar ze allemaal geen rekening mee houden, en waarom jij duurder maar beter bent.
Ik voel me als systeemontwikkelaar maar zelden serieus genomen door mijn klanten. Stuk voor stuk is hun ego te groot om normaal met ze te kunnen praten, stuk voor stuk vertellen ze mij dat ik problemen zie waar ze niet zijn...
Als systeemontwikkelaar heb je niets met klanten te maken, maar met je specifiacties die door jouw contactpersoon en contactpersoon van ander bedrijf zijn opgesteld.
En als technicus denk je vaak in problemen, terwijl je in oplossingen moet denken :+
Voordat er ook maar een letter geprogrammeerd wordt, moeten de requirements vastliggen.
In theorie misschien, maar in de praktijk? Ik ben misschien nog een 'groentje' op dit gebied, maar ik heb op de universiteit al aantal malen dat ontwikkeltraject doorlopen (requirements --> analysis --> design --> implementation), en uit ervaring blijkt dat die requirements gedurende het project nooit helemaal hetzelfde blijven en die cycle meerdere keren doorlopen wordt. Hoogleraren zeggen ook dat dat heel normaal is.

(software is trouwens nooit echt af ivm. bugs/onderhoud, maar dat even daargelaten)
als ik dat op mn facturen deed hield ik niet veel klanten over.
Schatting x2 + een beetje.tsss.
...Heeft niet zozeer te maken met het slecht inschatten van mijzelf,...... en onverwachte problemen tegenkomt
problemen voorzien is natuurlijk een deel van een goede planning. |:(
In een programmeursteam is dat natuurlijk nog veel erger.
hoezo? de een schat wat te kort, en de ander doet x2+beetje...heft elkaar wel op :+
Het probleem is meestal dat de requirements door de klanten worden bepaald en dat die zelden volledig zijn.

De meeste klanten hebben veel minder inzicht in hun eigen bedrijfsprocessen dan ze denken. De meeste klanten denken dat ze alles onder controle hebben, terwijl dat niet zo is (de eerste de beste calamiteit bewijst dat meestal gewoon, maar een calamiteit heeft altijd een 'externe oorzaak').

En dus liggen de requirements nooit vast. Terwijl er wel een tijdsplanning wordt gevraagd en je daar aan wordt gehouden, desnoods tot in de rechtszaal.

Daarbij komt er nog eens concurrentie om de hoek kijken. Klanten weten zelf niet dat ze hun eigen bedrijfsprocessen nauwelijks snappen en kiezen mede daardoor altijd voor de ontwikkelaar dat de goedkoopste oplossing biedt.

Later blijkt dan vrijwel altijd dat die oplossing voornamelijk zo goedkoop was omdat de ontwikkelaar net zo goed de bedrijfsprocessen van de klant niet snapt.

Of erger: ze snappen het wel, maar praten de klant naar de mond met het idee dat er later wel meer geld op tafel komt wanneer de software vordert en de requirements 'getuned' worden.

Zo ontstaat er vaak veel wantrouwen tussen klanten en ontwikkelaars.

En dan komt er ook nog eens om de hoek kijken dat het bij de meeste klanten de bedrijfseigenaren zelf zijn die de opdracht geven en het project aansturen. Bedrijfseigenaren zijn doorgaans 'haantjes' die trots zijn dat ze eigenhandig hun bedrijf groot hebben gemaakt (en terecht). Maar hoe trotser ze zijn, des te minder ze naar je luisteren, ze 'weten' alles al.

Dan kun je wel het hele bedrijfsproces aan hen uit gaan leggen, maar het komt toch niet aan: allemaal verloren moeite.

Dus meestal wordt vanuit de commercieele hoek gewoon willens en wetens een project begroot op grond van onvolledige specificaties. Van te voren is al lang bekend dat het project uit gaat lopen. En tegen die tijd wordt er wel weer verder gezien hoe de rest van het geld binnengehaald wordt. Ik durf wel te zeggen dat in de IT massaal van deze taktiek gebruik gemaakt wordt.

Geen gezonde basis om een bedrijfstak op te bouwen, mensen concurreren elkaar onderling dood, veel projecten mislukken en iedereen verliest veel geld. En je ziet dus ook dat er in mindere tijden heel veel bedrijven failliet gaan (zoals nu).

Maar zo lang bedrijven die willen automatiseren hun eigen bedrijfsprocessen niet kennen zal het niet veranderen.

En het IS ook een kip-ei probleem... Veel bedrijven willen JUIST automatiseren om hun bedrijfsprocessen te formaliseren. Terwijl je eigenlijk alleen goed kan automatiseren wanneer de bedrijfsprocessen bekend ZIJN.

Ik weet geen oplossing, anders dan dat mensen moeten leren hun ego te negeren, naar elkaar moeten leren luisteren en elkaar serieus moeten nemen.

Ik voel me als systeemontwikkelaar maar zelden serieus genomen door mijn klanten. Stuk voor stuk is hun ego te groot om normaal met ze te kunnen praten, stuk voor stuk vertellen ze mij dat ik problemen zie waar ze niet zijn...

Tja, wie is er nou de professional? De dikke deur of de magere bolleboos?

Het zal ook wel een beetje te maken hebben met dat de meeste directeuren snelle jongens zijn die eigenlijk neerkijken op nerds.
Waarschijnlijk heeft het te maken met de switch naar .NET. Men moet nu andere programmeertalen gebruiken enz.

Tevens heeft MS bijna geen ervaring op dit gebied, dus hoe zouden ze de benodigde tijd juist moeten kunnen inschatten?

Verder kan het ook een truc zijn, als je zegt dat het twaalf maanden duurt willen mensen er misschien niet op wachten en nemen Linux. Zeg je dat het zes maanden duurt, hoewel je al weet dat je dat niet haalt, dan wachten ze misschien wel zes maanden, en daarna hoeven ze nog weer maar zes maanden te wachten voordat je het af hebt.
Misschien omdat ze zélf dat framework gemaakt hebben?
onzin als je't mij vraagt.

niet alle programma's die microsoft nu maakt worden mbv .NET geschreven.
Ervaring opdoen met .NET gaat HEEL snel. als je eenmaal de basis snapt, en de MSDN bij de hand hebt, kun je heel snel bijleren. programmeer je daarbij dagelijks mbv het platform, dan kun je het in no-time 'vanbinnen en vanbuiten' kennen.

En daarbij: dit gaat over een OS, dat schrijf je niet in C# of VB.NET of zo... dat schrijf je in talen zoals C/C++ omdat .NET afaik nog altijd een laag bovenOP het OS is.

en wat die truc betreft: bedrijven stappen niet 'zomaar' over op linux omdat microsoft weer eens te laat komt met een programma.
Nee het omgekeerde is een trend. Bij verkooporganisaties geven de marktiers vaak een onmogelijke planning af. Om de druk dan nog wat op te voeren, wordt ook vaak de release datum vrijgegeven aan de pers. Dit alles in de (ijdele) hoop dat de programmeurs nog hardder gaan werken. Gevolg: vertraging en bugs.
Werken (lees programmeren) onder een deadline is inderdaad niet echt leuk. Soms is het wel motiverend maar als je dingen moet afraffelen waar je liever wat meer tijd zou besteden komt het nooit goed. En dus veel patches e.d. of uitstel.
Ik zou het geen trend noemen. Het gebeurd inderdaad niet alleen bij Microsoft, maar aangezien Microsoft zo groot en bekend is en ze hun nieuwe producten ver op voorhand aankondigen, valt het des te meer op al er een vertraging optreedt.

Maar denk hier eens over na: zijn de begrippen 'vooropgestelde deadline' en 'informatica' dingen die samengaan?
think not :)
??? Is geen jaren 70 meer hoor, is gewoon een product geworden die software. Geen relatie tussen vertraging en ICT.
Waarschijnlijk omdat Bill zelf terug aan het programmeren is geslagen. Alleen is hij niet meer zo snel :)

Effe serieus. Ik denk dat MS van het slechte imago af wilt ivm security. Dus ze zullen meer tijd steken in beta-testen en het oplossen van de problemen. Ipv 400 service packs te release het eerste jaar.
Misschien komt het met de NS mee?
een cluster heeft geen GUI. en linux heeft ik weet niet hoe veel tools om het leven makkerlijker te maken.

een oud klasgenoot van mij heeft bij sara(nederlands rekencentrum) stage gelopen en als ergens veel anti ms aanhangers zijn is het wel op een reken centrum.

Het enige voordeel wat ik zie voor ms cluster is dat cycle harvesting. dat desktop pc's mee kunnen werken aan de cluster.

Maar eigenlijk klinkt dat niet echt profesioneel.
en is de mogelijkheid tot vertraging. (PC loopt vast terwijl de cluster iets terug verwacht) toch wel aanwezig.

Daarbij is het ook wel een kost plaatje. per node een windows licentie. kan je met linux mischien wel 5% - 10% meer nodes kwijt = 5% - 10% meer performence.
Had IBM hier niet ook al software voor om SQL clusters beter te laten functioneren in combinatie met aanwezige proxies, load balancers e.d.?

http://www-1.ibm.com/servers/eserver/clusters/

Ik heb rare geruchten gehoord dat MS de makers van Citrix en Novell hebben overgekocht, misschien dat met deze expertise in networking een evolutie in de productlijn van MS gemaakt kan worden in een goede richting.

MS probeerd ondertussen wanhopig dmv whitepapers aan te tonen hoe veel duurder Linux/Opensource wel niet is, misschien dat ze het ooit kunnen waarmaken. Alleen maar beter voor welke branche dan ook.

http://www.microsoft.com/windowsserversystem/facts/analyses/opencost.m spx
Op dit moment lijkt het systeem wat features betreft op de Linux-varianten die nu veelal worden gebruikt om supercomputers aan te sturen.
Betekent dit dat:

* Deze windows versie eindelijk een bruikbare commandline interface heeft?

* Deze windows versie source-compatible is met andere UNIX systemen, zodat je niet al je software hoeft te herschijven?

* Er een echt, goed, netwerk-transparant bestandssysteem in zit?

* Er een goed job-management systeem bij geleverd wordt?

* Alle onzin die je niet wilt hebben op een cluster node hebt uit het OS gestript zijn, zoals Internet Explorer, Notepad :) , de hele grafische shell, alle drivers (behalve voor moederbord en netwerk kaart) en DirectX?

* Het dus eigenlijk geen Windows meer mag heten maar MS Unix (TM)?

* Deze MS UNIX versie, net als de meeste andere UNIX versies, door Linux weggeconcurreerd worden, en je dus beter Linux kan blijven draaien?

Zo niet, wat betekent dit dan wel?
Nee, dit betekent hoogstwaarschijnlijk dat Microsoft er nog geen user-interface omheen gebrouwen heeft, dat alles nog text-gebaseerd is en dat de configuratie met scripts gaat.

Je dacht toch niet dat Microsoft bij een vergelijking met Linux zou refereren aan de positieve kanten van Linux?
Wil je daarmee zeggen dat het ontbreken van een grafische schil op (server-)linux een negatief kenmerk is?
Een positief kenmerk is het in ieder geval niet.
Jawel. Iedereen weet dat Linux veilig is TOTDAT je X gaat draaien.
Een positief kenmerk is het in ieder geval niet.
Vertel mij nou eens wat er dan zo handig is aan een grafische Interface op je server? Ik zie niet in waarom je een grafische interface op een server nodig zal hebben en al helemaal niet waarom het ontbreken ervan een nadeel zou zijn...
Tja. elk stukje coding neemt bugs met zich mee.

de X interface op een UNIX server is vaak taboe omdat:
X coding bugs met zich mee brengt/kan brengen
X ook poortjes open zet

Een grafische schil op een server is ook taboe voor:
Remote management

Een Unix like server waaronder ook de *BSD's, Solarissen en Gnu/Linuxen kunnen prima vanaf de commandline beheert worden:
1 De last op het netwerk is minder waarvoor meer ruimte is voor clustering (iets wat je NIET wil in een cluster is latency vanwege netwerk issues veroorzaakt door packages die nutteloos zijn)
2 Goede infrastructuren liggen eigenlijk alleen in een LAN.
in WAN is het vaak kachelen op kleine dunnere lijnen.

Maar ach...ik hoorde vandaag een mooi statement
je kan niet verder kijken dan je slim bent

Wat Microsoft gaat toevoegen in het segment wat al gedomineerd wordt door goede Unix cluster software (o.a. Beowulf) is mij een raadsel.

Ik weet ook niet of er überhaupt behoefte voor is. (zie eerdere reacties, I agree)
Ik stel voor dat het alleen nieuws is als microsoft wel eens een keer zijn deadline haalt. Volgens mij komt dat namelijk nooit voor....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True