Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties

De groei in prestaties van de 500 snelste computers ter wereld is aan het afnemen. Dat blijkt uit de top 500-lijst van dit halve jaar. De Chinese supercomputer Tianhe-2 is met zijn 33,9 petaflops voor de derde maal op rij de snelste supercomputer ter wereld.

Volgens de organisatie achter de lijst, is de totale gecombineerde groei van de pieksnelheden voor het eerst sinds de introductie ervan in 1993 zo laag. De organisatie noemt de krachtige computers bovenaan de lijst als de belangrijkste reden voor het afnemen van de totale groei. Het neerzetten van deze grote supercomputers zou de groei aan de bovenkant van de lijst vooral doen afnemen. Aan de onderkant van de lijst, waar over het algemeen supercomputers van klein- en middelgroot formaat staan, vond juist wel een grotere groei plaats.

Vergeleken met de vorige lijst, die in november 2013 uitkwam, is binnen de top 10 alleen de laatste plaats gewijzigd. De Duitse SuperMUC verloor met zijn pieksnelheid van 2,9 petaflops de tiende plaats aan de Amerikaanse Cray XC30 met pieksnelheden van 3,1 petaflops. De totale gecombineerde snelheid van de lijst steeg in vergelijking met een half jaar geleden van 250 naar 274 petaflops. Snelheden van de supercomputers voor de top 500 worden gemeten via de Linpack-benchmark.

Top500 prestaties

Afbeelding afkomstig van HPCWire

Intel blijft ook nog steeds hofleverancier van processors voor de computers van de top 500; 85,4 procent van alle computers beschikt over een processor van de Amerikaanse fabrikant. Het aandeel aan AMD-processors nam af: dat zakte van negen procent naar zes procent. Het aantal computers op de lijst dat beschikt over een processor van IBM bleef met acht procent gelijk.

IBM is wel terrein aan het winnen op de lijst aangezien 176 systemen op de lijst afkomstig zijn van de fabrikant. Het aandeel in computers van HP daalde in vergelijking met zes maanden terug van 196 systemen naar 182 maar bleef desondanks wel hoofdleverancier.

Tianhe-2

Moderatie-faq Wijzig weergave

Reacties (56)

Als je weet dat de prijs van Tianhe-2 390 miljoen dollar bedraagt lijkt het me logisch dat die lijst bovenaan trager groeit dan de onderkant met kleine- en middelgrote computers.
En gezien de wereld nog steeds in de crisis zit zal inversteren daarin ook wel achterblijven. Dan kun je idd beter in het onder/midden segement zitten, daar is dan vaak prijs prestatie intressanter. Om net die extra petaflops eruit te krijgen moet je gewoon onevenredig zwaar investeren. En soms kan het financieel net ff intressanter zijn om even iets langer te moeten wachten op de uitkomst ;)
Ik weet niet wat jij als "kleine computer" ziet, maar de hekkesluiter #500 heeft nog altijd 728 Xeon E5's....
Met een adviesprijs van $1552 per CPU zal de totale prijs van deze machine ook in de milioenen hebben gelopen, en het hele apparaat zal een leuk appartementje kunnen vullen :P
Er is een groot verschil tussen 390 miljoen en 1552 * 728 + kosten = 3 miljoen ofzo?
Dat zijn alleen de CPU's nog maar. Reken daar alle hardware omheen bij, zo'n 364 servers, 10 racks, fiber interconnects, en wat al nog niet meer. Bovendien is deze machine al meer dan een jaar oud, en zel deze hardware destijds nog wel duurder geweest zijn.

Dit is niet een kwestie van een zooi desktopjes bij elkaar gooien, aansluiten en voila! Cluster !
Ik gok op een prijskaartje van $40M.
En ja dat is "slechts" 10% van wat de #1 kostte. Alles is relatief, maar dit is gewoon nog steeds de top 0,01% en ikzelf zou dit in geen geval een "kleine computer" noemen.
Ik hoop dat ik duidelijk(er) heb gemaakt wat ik bedoelde; dit zijn gewoon kick-ass machines _/-\o_
Het zijn supercomputers maar met wat eigenlijk?
Kan men behalve rekenen het ook gebruiken voor 3d animatie? Ik heb ooit gelezen dat films van pixar gigantisch veel tijd nodig hebben voor het renderen van het eindproduct.

Ik weet heus wel dat het met ruimtevaart en space wel belangrijk is om tot 100000000 (ik noem maar wat) cijfers achter de komma nauwkeurig te zijn maar wat kunnen wij als mensen er commercieel mee? (waardoor het interessanter wordt en uiteindelijk goedkoper om te groeien)
Als dat minder interessant is dan is het (ook) logisch dat de groei van de snelheid minder hard gaat.
Pixar heeft ook supercomputers ja, voor dingen als ray tracing, renderen VREET computerkracht, en kan lekker parallel. Bij Weta hebben ze destijds voor LotR de halve zolder verbouwd om er meer computers neer te prakken voor hun massa-veldslagen waar CGI in zit.

Verder heb je de olie (als je het lijstje afgaat zie je Total er snel tussen zitten, Shell heeft er ook wel wat, etc), omdat je dan grond-echos moet analyseren voordat je een 3D-plaatje hebt met dichtheden. Daarnaast doen ze nog wel eens nucleaire sims (even een stadje opblazen is digitaal makkelijker dan in real life), en verder soms een potje schaken ofzo.

Oh en vergeet het weer niet, KNMI heeft een mooi systeem staan (dat deze lijst niet haalt), de NOAA is al jaren kind aan huis bij supercomputer-leveranciers, etc. Hoe meer rekenkracht je ze geeft, hoe nauwkeuriger het aard-systeem gemodelleerd kan worden, en hoe betrouwbaarder je voorspellingen. Ze doen het nu al redelijk tot een weekje of 2 vooruit, dat was 20 jaar geleden totaal onmogelijk.

[Reactie gewijzigd door FreezeXJ op 23 juni 2014 15:22]

Het zijn supercomputers maar met wat eigenlijk?
Vooral simulaties. Bijvoorbeeld van botsproeven of de chemische reacties in een motor in de automobielindustrie. Of het simuleren van het gedrag van moleculen in medicijnonderzoek. Of het simuleren van de atmosfeer om het weer te voorspellen.
Kan men behalve rekenen het ook gebruiken voor 3d animatie? Ik heb ooit gelezen dat films van pixar gigantisch veel tijd nodig hebben voor het renderen van het eindproduct.
Dat kan. Animatie is uiteindelijk rekenwerk. Meestal spreekt men bij animatie over een renderfarm, maar het onderscheid tussen renderfarm en supercomputer is erg klein. Bij renderfarms legt men in de regel iets minder nadruk op een snel netwerk tussen de processoren dan bij de gemiddelde supercomputer.

[Reactie gewijzigd door dmantione op 24 juni 2014 08:17]

Voor zover ik weet doet men er complexe grid-berekeningen mee voor weersvoorspellingen. het simuleren van kernsplijtingen, het gedrag van zwaartekracht in sterrenstelsels e.d. Allemaal zaken waarbij een groot aantal punten een relatie hebben met veel of alle andere punten.
Overigens vraag ik me af hoe belangrijk dat echt is en of er niet meer of goedkoper rekenkracht getrokken kan worden uit een distributed netwerk. Het lijkt me niet nodig dergelijke berekeningen in real-time te moeten kunnen doen. Wat een supercomputer supercomputer maakt is vooral kwantiteit in processors en geheugen, oftewel geld. Ik denk dat het vaak meer prestige is dan echt nut.
Het is denk ik ook een factor van 'tijd' en 'zekerheid' cq 'te benutten'.

Distributed heb je dat allemaal niet onder controle. Je weet niet hoeveel rekenkracht je op moment X tot je beschikking hebt, je weet niet wanneer universiteit Y met een groot of zwaar project gaat starten en je weet vrijwel zeker dat je niet meer de eerste kunt zijn met een ontdekking die op rekenkracht is gebaseerd: feitelijk sta je allemaal altijd een klein beetje in de rij.

Ik weet in ieder geval dat het gebruik van deze supercomputers vrij efficient wordt ingepland, dat wil zeggen je moet tijd aanvragen en toegewezen krijgen om je project erop te draaien. Op die manier is zo'n apparaat ook een soort cash cow, met distributed verdien je helemaal niks.

[Reactie gewijzigd door Vayra op 23 juni 2014 15:35]

Distributed hoeft niet per se via het internet te zijn, er zijn zat rekenaars die gewoon 100 machines parallel in een meterkast proppen, en daarop rekenen. Goedkoop, maar je bandbreedte tussen nodes is rampzalig, en een heleboel rekenkundige vraagstukken verwachten toch wel dat er communicatie is tussen verschillende processen.

Supercomputers zijn meestal niet echt een cash cow, ofwel ze worden door stichtingen (SARA) beheerd die vlot al het verdiende geld in een nieuwe computer steken, of ze zijn gewoon nuttig bedrijfsmiddel (nodig voor interne doeleinden). Sowieso verouderen ze hard, wat 5 jaar geleden de absolute top was (1 Pflop) is nu amper een 40e plaats... de top is nu 33 Pflop. Destijds was de 100e plaats te halen met 40 Tflop, tegenwoordig moet je al 10x zoveel rekenkracht meebrengen. De afschrijving is gewoon enorm op die dingen, zeg maar net zo snel als op gewone servers. Voor investeringen van tig miljoenen komt dat best hard aan.
Ik weet heus wel dat het met ruimtevaart en space wel belangrijk is om tot 100000000 (ik noem maar wat) cijfers achter de komma nauwkeurig te zijn maar wat kunnen wij als mensen er commercieel mee?
Ook in de ruimtevaart is zulke precisie niet hard nodig (wel handig), we zijn naar de Maan gevlogen om het vermogen van 'een simpele calculator'. (ok, overdreven), maar het gaat er om dat je vluchtgegevens blijft invoeren in je algoritmen (iteraties of successieve substitutie), en dan komen er vanzelf koerscorrecties uit.

Het gaat dan vaak ook niet om precisie, maar om de vele iteraties, proteïne folding (eiwitvouwing), weer modellen etc... "veel in korte tijd".

[Reactie gewijzigd door airell op 23 juni 2014 15:28]

De maan was dan ook relatief eenvoudig. Verre planeten bereiken vereist slingshots via andere planeten, de afstand maakt dat krachten die op een relatief korte afstand weinig effect hebben, juist heel veel effect hebben etc etc.
Maanreis was al praktisch uitgerekend door Jules Verne.
één van de meest gebruikte toepassing van de supercomputers is weerberekeningen. Deze zijn extreem complex, doordat de reynoldswaarde gigantisch is.
Voor het renderen van animatie films is dit niet meer nodig. Hoewel het zeker lange tijd waar is geweest dat computers maanden lang aan het renderen waren, is die tijd sterk afgenomen. Ze hebben bij clubs als pixar zeer krachtige systemen staan, maar die zijn niet te vergelijken met monsters als de Tianhe-2.
Daarnaast heb ik me laten vertellen dat ze animatie films opdelen in meerdere stukken en iedere computer een deel laten uitrekenen zodat meerdere delen tegelijk gerendered worden en dus sneller klaar is.
Supercomputers worden voornamelijk gebruikt om complexe (wetenschappelijke) modellen door te rekenen. Denk hierbij aan weermodellen, nucleaire processen (bijv. een kernreactor of atoombom), simulaties van hersenen, (bio-)chemische interacties, simulaties van hemellichamen, etc. etc. Afgezien van het wetenschappelijk nut, kun je je voorstellen hun bijdrage aan betere weervoorspellingen, nieuwe medicijnen, of betrouwbaardere kerncentrales commercieel zin heeft.

Veel mensen hier op Tweakers lijken te denken dat 3d animatie (en Crysis...) het ultimum is onder de zware rekentaken, maar dat valt reuze mee. Wetenschappers hebben nooit teveel rekenkracht: extra rekenkracht betekent simpelweg dat ze meer/grotere/preciesere modellen door kunnen rekenen.
Iedere discipline die gebruik maakt van grote, parallelizeerbare modellen (zoals finite element modellen http://en.wikipedia.org/wiki/Finite_element_method) heeft supercomputers nodig om die dingen door te rekenen. Een typisch voorbeeld is het doorrekenen van weer- en klimaatmodellen. Klein voorbeeldje hier http://earth.nullschool.net/ (weet niet of dit nou per se door een supercomputer gedaan is, maar 't zijn iig dit type simulaties).

Andere toepassingen zijn simulaties van bijv. botsende fundamentele deeltjes. Denk aan het CERN, daar simuleerden ze bijv. hun verwachtte metingen met een model mét en een model zónder Higgsdeeltje en op basis daarvan worden de metingen geinterpreteerd. Maar ook reconstructie van dit soort botsingen in de CERN detectoren vereist een flinke partij rekenkracht.

De meeste applicaties die met distributed computing (zoals BOINC) gedraaid worden, zouden typisch ook op supercomputers kunnen, maar hebben daar niet altijd het budget voor (en kiezen daarom voor iets als BOINC).
Volgens mij zitten we ook wel tegen de limieten van de huidige computer architectuur. Kleiner kan nog maar amper, en steeds meer is geen goede oplossing voor in de toekomst. Het wordt wachten op nieuwe technieken, die afrekenen met de eentjes en nulletjes. Pas dan gaan we weer een grote stap zien verwacht ik.
Of alles programmeren in assembly?
Dat wil je niet, en behalve voor de echt rekenintensieve stukken levert het je ook weinig op ook. Debuggen is lastiger, en meestal is nog geen procent van je C-code verantwoordelijk voor 99% van het rekenwerk. Als je daar handmatig gaat tunen ben je al ver genoeg (en dat doen ze dus ook).

De problemen zitten vooral in het laten communiceren van de nodes, je probleem moet heel erg goed parallel zijn (embarassingly parallel), anders ga je nat. Tussen de verschillende kasten mag je blij zijn als je 10 GB/s haalt (in theorie) en daar moet dus AL je data over... van duizenden processoren. Als je dat goed bouwt ben je binnen, en is je probleem supercomputer-geschikt. GPUs hebben dit zo mogelijk nog erger, die hebben nog meer cores (die onderling een beetje kunnen babbelen), maar heel dom zijn, en dus heel efficient aangestuurd moeten worden, anders heb je vooral theoretische capaciteit, en krijg je niks uitgerekend.
Tussen de verschillende kasten mag je blij zijn als je 10 GB/s haalt (in theorie) en daar moet dus AL je data over... van duizenden processoren.
Dat is onzin: Een infinibandnetwerk heeft, bij het huidige FDR, een snelheid van 56 gigabps per kabel. Het mooie van infiniband is dat je zoveel kabels tussen je switchen kunt leggen als je wilt en het verkeer zich automatisch over meerdere paden verdeelt (in tegenstelling tot bijvoorbeeld ethernet).

Voor veel applicaties gaat het niet om de bandbreedte, maar om de latentie. Embarassingly parallele applicaties bestaan, maar het overgrote merendeel communiceert als een gek gedurende de berekening. Linpack is wat dat betreft nog een lievertje.

[Reactie gewijzigd door dmantione op 23 juni 2014 16:14]

Niet helemaal mee eens. Veel van het spul dat op dit soort HPC rekent is en moet inderdaad embarassingly parallel zijn, maar is dat ook wel. Technisch gezien is dat voor pakweg klimaatmodellen ook niet heel moeilijk (ik doe mijn eigen berekeningen normaal op een paar 100 cores; mijn PR ligt zo rond de 10 000).
Waar tegenwoordig de bottleneck zit, is niet het transport tussen de nodes, maar het transport van main memory de cache op. Vaak wordt de rauwe rekenkracht van de HPC maar voor minder dan 10% benut (behalve dan met LINPACK). Als je een code kan bouwen die al zijn data op de cache kan houden, en bijvoorbeeld op het bloedsnelle GPU geheugen, dan ben je pas spekkoper.
Er wordt natuurlijk veel mankracht ingezet om de LINPACK die op deze machines draait te optimaliseren, daar kun het met handgeschreven assembly niet tegenop (en waar nodig wordt ook assembly toegepast). Sommige systemen halen meer dan 90% efficientie (dus effective rekenkracht Rmax t.o.v. theoretische rekenkracht Rpeak). Daar valt dus nauwelijks winst te halen.
Kleiner kan nog maar amper, en steeds meer is geen goede oplossing voor in de toekomst.
Op lithografisch niveau raken we aan de grens van wat mogelijk is. Maar als je kijkt naar het volume van een CPU t.o.v. de hele server valt er nog enorm veel winst te halen. Om die ruimte beter te benutten zal echter de energieopname (en dus warmteproductie) omlaag moeten.
De eentjes en nulletjes zijn het probleem niet. Mn wiskunde docent heeft ooit eens uitgelegd dat je het meest efficient kan rekenen in een e tallig stelsel. Alleen om 2.71.... getallen te hebben is vrij lastig dus een 2 of 3 tallig stelsel ligt hier het dichts bij in de buurt. Het binaire systeem is (in ieder geval wiskundig, maar ook zeker elektrotechnisch) helemaal zo gek nog niet.
De bottleneck zit hem eerder in de single threaded performance uitgezet tegen de beperkte bandbreedte voor inter-processor communicatie (er moet relatief veel data worden uitgewisseld ten opzichte van de processorkracht).
Dat zeiden ze in '95 ook al. Ik denk dat de consument al jaren in de maling wordt genomen door een CPU als centraal deel van een computer te zien en deze vervolgens intern weer op te delen in redundante kernen, Dat is volgens mij niet echt logisch maar wel commercieel aantrekkelijk omdat je dan een computer nog steeds alleen maar als 'exclusief' en relatief duur eindprodukt kan verkopen en gebruiken.
Zeker weten doe ik het niet maar ik vermoed dat een computer veel eenvoudiger van architectuur kan blijven dan de huidige produkten. Rekenkracht kan modulair gemaakt worden en bijgestoken worden afhankelijk van de vraag.
Een vervelende bijkomstigheid hiervan is dat dan vrijwel alle standaard computers in een keer precies zoveel waard worden als wat het kost om ze te maken + een beetje winst. De duurste Intel oid maakt niemand dan nog warm of koud. Gewoon een beetje extra van hetzelfde erbij drukken en je bent qua snelheid op hetzelfde peil.

[Reactie gewijzigd door blorf op 23 juni 2014 15:45]

Zouden we eindelijk het einde van de wet van Moore tegenkomen?
De wet van Moore gaat over het aantal transistors per oppervlakte op een enkele chip. Supercomputers van voortaan is gewoon meer processors aan elkaar knopen en gigantische hoeveelheden ram ertegenaan gooien. Wat supercomputers tegenhoud is de communicatie tussen de grote hoeveelheden processoren. Doordat ze er zo veel aan elkaar knopen gaat een groot deel van de snelheid verloren aan communiceren met elkaar.
Dit merk je ook al als je grafische kaarten in SLI of crossfire met elkaar verbind. 2 kaarten zijn samen niet 2 x zo snel als 1 kaart.
Aangezien het zelden voorkomt dat 1 job de hele machine in beslag neemt is de schaling van de communicatie niet het enige dat van belang is.
Uiteindelijk heeft dit wel met een paar varianten op de wet van Moore te maken:
1) Het aantal transistoren per m3 bedrijfsoppervlak
2) Het aantal transistoren per W (de koeling is een groot probleem met deze dingen)
3) Het aantal transistoren per $TCO (de relatieve investering voor een nieuwe HPC blijft immers ruwweg gelijk)

Uiteindelijk is de curve de laatste jaren vooral gered door de GP-GPU revolutie. Nu de hele top 10 vrijwel uit GPUs bestaat, wordt die slag niet meer gemaakt. Je kan je overigens een beetje afvragen hoe nuttig die GPU's op het moment gebruikt worden, aangezien nog relatief weinig code goed op die dingen draait. Maar dat terzijde, de scores zijn er wel :)
Dit heeft totaal niks te maken met de wet van Moore. Het kan zijn dat bedrijven/overheden minder investeren dus er minder super computers gemaakt worden en dat 1 van de redenen is. De wet van Moore ispuur gericht op aantal transistors op een bepaalde oppervlakte. Dit kan nog steeds van toepassing zijn zelfs als er geen supercomputers meer gemaakt worden
Sowieso schalen supercomputers grotendeels met extra CPU's er zitten er meestal honderden in due Moore staat er redelijk los van.
Grappig dat iedereen zegt dat de wet van Moore hier niets mee te maken heeft.

Ok de wet van Moore gaat niet over de performance maar over het aantal transistors per oppervlakte. Maar het is toch echt die groeiende transistor dichtheid geweest die de motor was van de almaar groeiende performance van supercomputers.
Kleinere transistors betekent kortere communicatielijnen tussen transistors onderling, wat zich direct vertaald naar een hogere cpu snelheid. En het betekent efficienter energieverbruik, waardoor je bij gelijkblijvende koeling ook meer rekenkracht kan leveren.

Er zijn nog wel meer manieren om snellere supercomputers te maken, bijvoorbeeld door steeds meer cpu's in een machine te integreren. Maar je loopt daar uiteindelijk toch tegen een plafond aan want niet alles is onbeperkt paralleliseerbaar.
Precies: Doordat er meer transistoren op een chip kunnen, kan die chip meer rekenen en wordt rekenkracht steeds goedkoper. De grenzen van de Wet van Moore komen in zicht.

Belangrijker echter, is dat de Wet van Moore niets zegt over het energieverbruik van een chip. En daar wringt hem vooral de schoen, dat is in de loop der tijd alleen maar meer geworden. De Tian-He 2 heeft 18 megawatt aan elektriciteit nodig. Daarmee is 'ie per flop nog redelijk efficiënt dankzij het gebruik van Xeon Phi-acceleratoren. De kerncentrale van Borssele produceert 480 megawatt. Als de lijn in het grafiekje bij dit artikel de rechte lijn zou volhouden, dan zou binnen 5-10 jaar het punt bereikt worden dat er naast de supercomputer zelf een kerncentrale gebouwd moet worden om hem van energie te voorzien.

Het bouwen van steeds snellere computers is daarmee zo ongelooflijk duur geworden, dat men het geld daarvoor niet meer bij elkaar krijgt.
Ik vermoed dat dit meer met economische wetten te maken heeft. Ik bedoel een reden zoals: de kosten van elke volgende generatie gaan steeds omhoog terwijl de verwachte opbrengsten niet evenredig toenemen.
Supercomputers zijn dus gewoon te duur voor wat wij er mee kunnen. Het bedenken van zinvolle toepassingen voor al die rekenkracht zo ook wel eens een obstakel kunnen zijn.
mis ik iets ?
Het aantal computers op de lijst dat beschikt over een processor van IBM bleef met acht procent gelijk.

IBM is wel terrein aan het winnen op de lijst aangezien 176 systemen op de lijst afkomstig zijn van de fabrikant.
iets zegt mij dat gelijk blijven en terrein winnen niet het zelfde is.
Of je meet met verschillende maten.

hmmm en zakken van 6% naar 9% heb ik dan wel gemist. :?

[Reactie gewijzigd door bigbadbull op 23 juni 2014 15:03]

IBM heeft systemen met Intel processors en systemen met zijn eigen Power processor.
Ze verliezen terrein op het gebied van processors die door hun geleverd worden.
IBM bouw echter zelf ook dit soort systemen, waarbij ze soms ook bouwen op basis van andere processors. Op dat gebied winnen ze juist terrein.
De ruimtes waar die dingen staan spreken wel altijd tot de verbeelding vind ik. Net of t uit een scifi film set komt :)
Op foto's zie ik altijd monteurs op bij die supercomputers staan. Maar wat heb je daar nou aan onderhoud aan? T lijkt soms wel of ze elke dag al die kasten openschroeven.
Dat is de wet van de grote getallen. In jouw desktop heb je zegmaar gemiddeld eens per 10 jaar een harde schijf die stuk gaat. Maar als je 10000 harde schijven hebt draaien, dan heb je bij dezelfde betrouwbaarheid ongeveer 3 defecten per dag. De zelfde logica gaat op voor de overige componenten. Supercomputers hebben daarmee regelmatig onderhoud nodig. Gelukkig kun je defecte nodes gewoon uitzetten, dan reken 't vrolijk verder met een paar processoren minder.
Hoe snel zou het duren om daar Windows op te starten:))?
Ik zou denken dat een Windows HPC node weinig verschilt van een standaard Windows server. Boot tijden zullen dus vergelijkbaar zijn. Maar dat is puur aanname, ik heb nooit de moeite genomen om naar HPC server te kijken, zou ook niet weten wat ik er mee moet. Ik zou zeggen, download een kopietje en probeer 't uit.
Een eeuwigheid :) Het doorlopen van de BIOS/UEFI duurt op servers erg lang: zelfs een eventuele fast-boot duurt vele minuten. Dit omdat je bij dergelijke servers er zeker van wilt zijn dat alles perfect werkt. Je zet ze daarna ook eigenlijk nooit uit.

Daarna gaat het booten van Windows betrekkelijk snel ja ;) Alleen draait er dan meestal de server editie op.
Dat is vooral een kwaal bij Dell-servers. De gemiddelde server heeft hele normale boottijden.
Dit ligt helemaal in lijn met de steeds geringere verbetering per nieuwe generatie microprocessors. De exponentiëel stijgende lijn van de kracht van supercomputers moest daardoor op den duur eveneens afzwakken. Ray Kurzweil's technologische singulariteit is dan ook niet zo'n vanzelfsprekendheid als dat hij heeft verkondigd, al zullen er zullen ongetwijfeld nieuwe doorbraken komen, die een sprong(etje) voorwaarts in de kracht van supercomputers op zullen leveren.
Een afvlakking van een trend is vaak een teken van een op hande staande radicale verandering.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True