Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 133, views: 59.045 •

In de top 500 van 's werelds snelste supercomputers heeft de IBM Sequoia in het Lawrence Livermore-laboratorium de koppositie gepakt. Het rekenmonster, dat gebruikt zal worden voor nucleaire simulaties, weet 16,32 petaflops te behalen.

De Sequoia, die in 2010 voor het eerst werd gepresenteerd door IBM, bestaat uit 96 racks. In de racks zijn in totaal 98.304 nodes te vinden, die in totaal goed zijn voor 1,6 miljoen op 1,6GHz geklokte hpc-cores. De nodes communiceren via 5D Torus, een propriëtaire glasvezeltechnologie van IBM, met een bandbreedte van 40Gbps.

Bij het bepalen van de rekenkracht van de Sequoia-supercomputer wordt traditioneel de Linpack-benchmark gedraaid. Na een testrun van 23 uur kwam de rekenkracht uit op 16,32 petaflops. In theorie kan het systeem zelfs pieken op 20 petaflops, maar de Sequoia draaide tijdens de benchmarkronde met een efficiency van circa 81 procent. Met een score van 16 petaflops passeert de Sequoia de Japanse K Computer van Fujitsu in de halfjaarlijkse top 500-lijst. Deze supercomputer telt 705.024 cores en weet 10,5 petaflops te behalen.

Configuratie van de Sequoia

Met een stroomverbruik van 7890kW is het systeem aanzienlijk efficiënter dan de K Computer, die 12.659kW verbruikt. Volgens IBM is dit mogelijk door een innovatief waterkoelingssysteem; langs en over elke node lopen dunne koperen buisjes waarin water wordt rondgepompt. Traditionele luchtkoeling zou veel meer energie verbruiken dan de door IBM ingezette waterkoeling.

De Sequoia, die is aangekocht door het ministerie van energie en 200 miljoen dollar zou hebben gekost, zal voornamelijk worden ingezet voor het draaien van nucleaire simulaties. Via deze simulaties wil de Amerikaanse overheid onder andere kunnen bepalen hoe lang het bestaande nucleaire arsenaal nog inzetbaar is.

Sequoia-supercomputer Sequoia-supercomputer

In de vernieuwde top 500-lijst weten de Europese supercomputers hun positie te verbeteren. De krachtigste is de SuperMUC, een IBM iDataplex-systeem dat in Duitsland is gestationeerd en 2,8 petaflops weet te behalen. Het Italiaanse Cineca-systeem bekleedt de zevende plaats, met 1,7 petaflops, terwijl het eveneens Duitse rekenmonster JuQUEEN BlueGene/Q, met 1,4 petaflops, goed is voor de achtste plaats. Verder vinden we binnen de top 10 het Franse CEA/TGCC-Genci-rekenmonster, met eveneens 1,4 petaflops.

Reacties (133)

Reactiefilter:-11330126+167+211+31
Dat is een beste besparing qua energie vergeleken met de nummer 2. Well done!
Wat betreft energie kosten, als ik kijk naar hoeveel het kost om 1 projecte te laten draaien bij de sara als onderzoeker dan wil ik niet eens erover denken hoeveel die benchmark moet hebben gekost puur aan energiekosten al :+ Ach jah, indruk wekkend ding none the less, hoop dat ie daarna aan de wetenschappelijke wereld zal worden 'gedoneerd' zoals met een paar andere super computers van de overheid is gebeurt in het verleden (en naja, ze betalen er nog steeds flink voor, maar niks in vergelijking met de echte kosten).
Tja maar benchmarken is toch altijd handiger dan er later achter komen dat er ergens iets scheef zit :P Nu weten ze dat ie niet snel oververhit, dat ie redelijke resultaten aflevert, en dat de communicatie goed loopt met alle nodes.

Ik verwacht dat straks het ding wel ergens bij een instituut geloosd wordt, als men bij de defensie weer een nieuw speeltje heeft. Sowieso zit LLNL soms al aardig tegen publiek-wetenschappelijk aan, hoewel er uiteraard het nodige 'classified' is daar :)
Kom ik misschien een beetje lomp door de bocht, maar ik vraag me toch iets af n.a.v. jou bericht: Wat is dan het verschil tussen een stress test en een bechmark? Ik dacht namelijk dat een benchmark je score laat zien, maar niet je computer opfokt. In tegenstelling tot een stress test, daar gebeurt dat wel.
Zoals een benchmark dat gaat over het algemeen niet harder en harder, een stress test kan je zolang laten gaan als je wilt, totdat je pc poef zegt of uitvalt. Ik noem het dus ook wel een stabiliteit test.

In ieder geval is dit een uber systeempje!

Edit: toevoeging stress / bench verhaal

[Reactie gewijzigd door JeroenC op 18 juni 2012 17:09]

Een benchmark probeert je computer ook te stressen, maar op een manier die ook een indicatie geeft van de prestaties. Furmark bijvoorbeeld is een stresstest, die geeft namelijk alleen tussendoor wat FPS, terwijl een goede benchmark een getalletje oplevert dat aangeeft hoe 'snel' die computer eigenlijk is. Daarvoor pest ie je computer wel maximaal, maar op een voorgeschreven manier. (vandaar ook dat Linpack hier maar 80% efficientie haalt, de voorgeschreven manier is niet de manier om het maximale uit de computer te halen, maar geeft wel aan wat je er onder normale omstandigheden van mag verwachten.

Daarnaast wordt er in beide wel getest op fouten, zodra er valse resultaten terugkomen zou je een mooie foutmelding (of vastloper!) moeten krijgen. Iets waar overigens de meeste standaardbenchmarks voor GPUs niet op testen, kan ik je vertellen :P (artefacts betekent dat je een foutje had)

Daarbij moet wel worden aangetekend dat ze aan de hand van de temperaturen en de prestaties van losse stukken wel kunnen inschatten hoeveel foutmarge ze nog over hebben, en of het ding wel 100% kan draaien (gebeurt maar zelden, is nogal lastig om alles maximaal aan te sturen).

[Reactie gewijzigd door FreezeXJ op 18 juni 2012 20:04]

Precies. Nu zijn de chips die ik ontwerp voornamelijk analoog, en slechts half digitaal. Maar wanneer we onze chips door een stress test halen, proberen we inderdaad alle onderdelen maximaal te belasten, onder maximale omgevings temperatuur. En wanneer het chips voor de automobiel industrie zijn, of militair, doen we dat zelfs bij hoge luchtvochtigheid. Het gaat niet alleen om ontwerpfouten, maar ook om te zien of de chip stabiel is. Meestal gaat dat gelijktijdig met de tests die kunstmatige versnelde veroudering simuleren. Lekstroom, snelheid, marges e.d. mogen na afloop niet of nauwelijks veranderd zijn.

FYI: Voor automobiel, medisch en industrie moet minimaal 10 jaar gegarandeerd zijn. Voor consumenten producten is dat tegenwoordig slechts 5 jaar.... Tot de jaren 90, waren die ook 10 jaar gegarandeerd. Wie herinnert zich niet die oude PC en dat oude mobieltje dat maar niet kapot wilde gaan...
Even om het wat tastbaarder te maken:

Puur en alleen de draaiende machines (inclusief de genoemde waterkoeling als die meegenomen zijn in het genoemde wattage) kosten tijdens een test van 23 uur, op basis van de genoemde kWh ťn de prijzen van Nuon (http://www.nuon.nl/energie/energieprijzen/actieprijzen.jsp) zijn dan ongeveer:

§ 0,2125 x 7890 = § 1.676 / uur
23 uur x § 1.676 = § 38.548

Dus bijna 40.000 Euro verstoken alleen de machines al voor deze benchmark. Wellicht eerder 35.000 Euro ivm eventuele kortingen voor grootverbruikers die ze krijgen. Maar ik denk dat dat wel aardig in de richting komt.

(Zou je een jaar benchmarken, kost dat dus zo'n 14.5 a 15M Euro)
Als dat klopt in deze situatie, dan is dat echt niet zoveel geld voor een dergelijk project. Dat is nog niet eens een schijntje van de winst van veel bedrijven. Je zou zo voor de kosten van een low-budget Nasa missie, 10 jaar kunnen draaien. Maar dan vergeten we wel alle kosten die om het systeem heen "hangen" natuurlijk, ik denk dat dat een veelvoud is.

[Reactie gewijzigd door vgroenewold op 18 juni 2012 17:15]

Je berekening maakt niet zoveel sense, want voor grootverbruikers gelden hele andere tarieven. Die zijn voor een groot gedeelte vast (op basis van gecontracteerde afname van kWh bijvoorbeeld), de ordegrootte van prijs per verbruikte kWh is 1 eurocent. Dit is dus los van de vaste aansluit- en vastrecht kosten en allerlei ingewikkelde constructies rondom gecontracteerde maximum belasting, gemiddelde belasting etc.

De energiebelasting voor grootverbruikers is erg laag, waar dat voor kleinverbruik bijna 2/3 van de kWh prijs bepaalt.

En het LLNL heeft vast haar eigen energie-voorziening en valt dus onder een heel ander regime dan grootverbruik in Nederland.
Nuon had die tarieven paar jaar geleden keer op internet gepost. Zit je rond de factor 20 goedkoper dan wat jij en ik thuis betalen. Een en ander hangt er wel vanaf of ze ook in tijden van oorlog zeker willen zijn van stroom en zowel deze machine als de stroomgenerators in aparte bunkers onderbrengen.

Dat zou de prijs weer opdrijven, want ik kan me niet herinneren of hun vorige machines wel zo enorm veel stroom vreetten.

Jaren geleden spraken sommigen al schande van de 7.5 megawatt die Earth Supercomputer vrat, maar om dus de GPU's te verslaan en weer 's werelds snelste supercomputer te hebben, is er weinig keuze anders dan gewoon factor 10 stroom ertegen aan te smijten.

De vraag is welke prijs deze voor gebouwd is. Heb geen budgetten gehoord. Zal wel rond de 200 miljoen dollar gekost hebben.

Een prijs van tegen de miljoen dollar aan stroomkosten per jaar is dan echt het probleem niet.
Bedrijven die worden bestempeld als grootverbruikers zullen meer rond de 40 ŗ 50§/MWh betalen, kan variŽren naargelang de marktprijs en tijdstip van verbruik
Hahahahaha machine staat gelukkig niet in NL met al onze accijnsen, voor Amerikanen kost het waarschijnlijk niet eens 1/4.

Die zitten niet met van die belachelijke accijnsen die bij ons alle prijzen opdrijven. Kwartje van Kok 20 jaar geleden heeft ook niemand terug gezien.

Amerikanen doen niet aan Kwartjes van Kok.
Wat ik me wel afvraag is hoe ze dat doen. Want de verklaring zegt.

" Volgens IBM is dit mogelijk door een innovatief waterkoelingssysteem; langs en over elke node lopen dunne koperen buisjes waarin water wordt rondgepompd."

Gaat er dan echt zoveel van die energie in de koeling zitten?
Daarnaast zal een waterkoelingssysteem die goed ingezet is veel beter koelen dan een luchtsysteem. Daardoor krijg je koelere chips waardoor de chips zelf ook efficienter gaan werken. Daar zal waarschijnlijk, icm de energiebesparing van water tov lucht, de grootste besparing in gaan zitten. De rest zal dan het verschil zijn van efficientere samenwerking, betere chips met betere energiebeheer en nog meer kleinere dingen.
Ja, om 100 Watt warmte af te voeren heb je meer dan 100 Watt energie nodig.
Dat is niet waar, de hoeveelheid af te voeren warmte heeft geen strikte relatie met de energie die het kost om die warmte af te voeren. Wat hier denk ik bedoeld wordt, is dat het afvoeren van warmte (in dit geval 7,8MW) met lucht relatief inefficient is (vanwege de grote hoeveelheid ventilatoren die lucht over de processorborden moeten persen), in vergelijking met waterkoeling, waar je in principe met een water-water warmtewisselaar de onstane warmte aan een rivier zou kunnen afstaan met als enig energieverbruikend element de waterpomp.
Helemaal niet, Ik denk dat je hier enkele dingen door elkaar slaat:
  • Om 100W af te voeren heb je niet meer nodig dan een temperatuurverschil. Is een 'element' (bvb een CPU) 60įC, en de omgeving 20įC. Dan zal die CPU warmte afvoeren aan de omgeving. Hoe groter het temperatuursverschil hoe sneller dit gaat. Echter, omdat de CPU zou verbranden door de te hoge temperatuur zetten we er heatsinks + fans op. Wilde gok: 5 watt. Het hoef helemaal niet gelijk te zijn aan het vermogen van de CPU.
  • Wat je bedoeld is (afhankelijk van het rendement) geldig in gekoelde ruimtes: Stel: Een goed afgeloten ruimte wordt op 20įC gehouden (omdat het buiten 35įC). De Airco heeft hier 500W voor nodig. Als je hier nu een laptop in zet die pakweg 50W continu verbuikt, dus 50W die zo goed als integraal in warmte wordt omgezet, moet je die 50W ook nog eens koelen. Stel dat dit me een rendement van 200% gebeurt (eigenlijk een COP van 2) Dan zal de airco hier dus 25W extra door verbruiken. Dus kost het apparaat 75W aan energie.
Dus als ze de warmte gebruiken om een gebouw/zwembad te verwarmen is er helemaal geen sprake van zulke verliezen, enkel het feit dat 'elektrisch' wordt verwarmd ipv efficienter rechtstreeks op gas, stookolie te verwarmen. Als ze de warmte proberen in de lucht te 'dumpen', dan zijn ze enkel het opgenomen vermogen kwijt + het vermogen van de ventilatoren nodig om de warmte af te voeren. Hiervoor moet de buitenlucht natuurlijk wel (liefst zoveel mogelijk) kouder zijn dan de CPU's.

[Reactie gewijzigd door iMispel op 18 juni 2012 16:59]

De systemen genereren zelf natuurlijk behoorlijk wat warmte. Een rack, node of chip heeft naast zijn eigen warmte ook nog last van warmte van zijn buurman. zo kan dat snel oplopen. als je dat allemaal met luchtkoeling doet kost het behoorlijk wat stroom. Met waterkoeling heb je ťťn punt waar je het water koelt. Als je een goede installatie hebt, kan er behoorlijk wat warmte worden afgegeven voor je bij dat punt komt. dat scheelt weer energie die nodig is voor het koelen. de afgegeven warmte kan weer worden gebruikt om energie op te weken of voor verwarming e.d.
Ik denk tot dat allemaal wel mee valt in een datacenter anno 2012, Racks worden van alle kanten gekoeld, ze staan niet voor niks op roosters waaronder grote koelingen staan. Natuurlijk zal dat niet alles wegtrekken wanneer (kleine) servers dicht op elkaar staan, ik denk ook niet dat een super computer als dit last heeft van de buurman -.-
plaatje van de register, constructie Sequoia:

http://regmedia.co.uk/2012/06/17/ibm_sequoia_llnl.jpg

Van die racks met duizenden processors dicht op elkaar gepropt erin lijkt me dat je weinig keuze hebt anders dan vloeistofkoeling.
Kwa energieverbruik wel, maar kwa performance vind ik het meevallen...

Oud: 705.024 cores, 10,5 petaflops
Nieuw: 1.6M cores en 16,32 petaflops

Dus 2,2 keer zoveel cores en "maar" 1,55 keer zoveel flops. Als het puur om de rekenkracht zou gaan hadden ze beter dat oude beestje kunnen opwaarderen :)
Wat is een core? Maakt toch niks uit hoe snel elke afzonderlijke core is bij dit soort simulaties. Die nieuwe cores zijn een pak zuiniger en waarschijnlijk een stuk kleiner/goedkoper per stuk.
Zoveel rekenkracht voor eigenlijk iets behoorlijk onnuttig: het beantwoorden van ŤŤn vraag. Jammer hoor.
het beantwoorden van ŤŤn vraag
return 42;
Haha, je was me voor, maar daar lijkt het hier wel sterk op inderdaad. Hopen dat deze machine er geen 10.000 jaar over doet :)

Wat ik heel opvallend vind is het verschil tussen de nr 1 van de wereld en de nr 1 van Europa: 16.3 vs 2.8 petaflops. Hier is vanuit de overheid geen budget om superPOWER!!!!! te bouwen, of is hiervoor een andere reden?
Misschien is er hier geen behoefte aan zo vreselijk veel rekenkracht?
Jawel hoor, alleen de organisaties hier zijn superknullig.

Voorbeeld: hier moet je door 9 commissies en een jaar wachten ofzo voor je fiks wat rekenen mag.

In USA op zo'n computer als dit een Amerikaanse collega, die stuurde 1 emailtje naar de secretaresse destijds met vraag of hij kon rekenen op supercomputer. Per retournerende email kreeg hij antwoord: "I allocated 2 million CPU node hours for you, is that enough to test? If you need more, give me another email"

Wie rekent hier nu duurder en met meer rompslomp?

Ze kopen die supercomputers factor 3 goedkoper in in USA en geen 9 commissies daar die bepalen wie aan het einde der tijden een keertje erop mag rekenen, bovendien rekenen ze alleen enorm grote jobs uit op die supercomputers in USA. Niet wetenschappers die paar uurtjes krijgen en dan op 4 cores gaan rekenen met een job hoor, dat doe je maar thuis!

Dat is waarom ze daar zoveel meer rekenkracht KUNNEN hebben.
Volgens mij is het simpelweg zo dat we in Europa niet zo belachelijk veel rekenkracht nodig hebben, in ieder geval niet in grote mate, ook kan ik me heel goed voorstellen dat je tegenwoordig als onderzoeker "gewoon" zo'n supercomputer kan inhuren, en er dus niet zo nodig een eigen gebouwd/gekocht hoeft te worden.
Precies, met name onderzoeksinstellingen stellen vaak capaciteit ter beschikking aan elkaar, tegen betaling uiteraard. Wel vraag ik me af of Zwitserland is meegenomen (valt niet binnen de EU, maar ligt wel centraal in de EU) want die hebben bij de CERN volgens mij ook flink wat rekencapaciteit staan.
@Casper de Boer: in de begintijd van de LHC hadden ze zelfs een project op BOINC: LHC@Home.

[Reactie gewijzigd door Rick2910 op 18 juni 2012 16:54]

En de VS zal natuurlijk niet snel berekeningen aan zijn kernwapen arsenaal draaien op een gehuurde supercomputer in (ik noem maar wat) China, om kosten te besparen :+
Europa heeft in aantal (in vergelijk met VS en Azie) grotere aantallen kleinere clusters staan, vooral op universiteiten is het in Europa beter gesteld qua rekenkracht per gebruiker. Daarentegen staan inderdaad de 2 snelste niet hier. Verder is de top 5~10 in de lijst ook wel errrrrrug hard verwijderd van de rest van de lijst, dat zijn echt wel de creme de la creampie.

maargoed, die Sequoia slaat echt alles en zoals te verwachten komt ie van het blauwe merk.

maarr..het is weer ISC en Linpack500 tijd dus. Jammer dat die kaartjes zo ff 400,- kosten, da's me iets teveel helaas. Zo te zien is een project van ons nog wel in de top100 gekomen *O*
Integendeel. De meeste universiteiten hier hebben bijzonder weinig rekencapaciteit. De clusters zijn ook lachwekkend klein op de paar uni's die er wel 1 hebben.

In USA heeft elke uni wel een enorme supercomputer die factor 1000 ongeveer groter is dan op de meeste uni's hier.

Enige uitzondering is Groningen meestal, maar lopen die ook al niet enorm achter met de blue gene daar?

Die levert wat is het een Teraflop of 30?

Voor 30 Tflop komen ze in USA niet eens uit bed hoor.

Verder is het ook zo dat bedrijven die hier rekenen, en dat zijn er best wat, toch vrij kleine clustertjes hebben in vergelijking met bedrijven in USA.

De eerste de beste hedgefund in USA heeft al clustertjes van rond de 3000 nodes, daar komt niet 1 hedgefund in Europa aan, laat staan Nederland.
Nu heb je het wel specifiek over Nederland en niet over Europa. Als je onze oosterburen bekijkt en al die projecten bij CERN dan stelt NL nu niet echt heel veel meer voor. Ik had het dus ook over heel EU.

De Blugene/P (37Tflop rMax) is ook inmiddels wel verouderd maar dat is absoluut niet het enige knupbakkie wat ze daar hebben staan.

in 2010 hebben ze dit in gebruik genomen:
http://www.brightcomputin...right-Cluster-Manager.php

Da's zo'n 3200 AMD cores (waarschijnljik 6100 of 6200 serie), dus grof geschat moet die wel een +/- 60Tflop aan kunnen tikken. Da's dan weer een 100Tflop in totaal en vermoedelijk niet het enige wat ze hebben staan aan rekenmachines.
De Sequoia, die is aangekocht door het ministerie van energie en 200 miljoen dollar zou hebben gekost, zal voornamelijk worden ingezet voor het draaien van nucleaire simulaties
Als die ene berekening klaar is wordt er heus wel ander spul op gedraaid. Jammer dat hij niet bij een uni hoort, daar worden ze volgens mij wel een stukje beter/leuker gebruikt dan bij de overheid
yup

shall we play a game?

Tic-Tac-Toe
Black Jack
Gin Rummy
Hearts
Bridge
Checkers
Chess
Poker
Fighter Combat
Guerrilla Engagement
Desert Warfare
Air-To-Ground Actions
Theaterwide Tactical Warfare
Theaterwide Biotoxic and Chemical Warfare
Global Thermonuclear War

zonder dollen... het is natuurlijk een belachelijke hoeveelheid aan rekenkracht puur voor calculaties hoelang je een kerkop kan bewaren. zowieso is de hele claim al belachelijk om mee te beginnen. Ding zal ook gebruikt worden voor hetgene wat erboven staat.... wargames en dan niet alleen nucleair maar ook gewone scenarios zoals bv Desert Storm. Ik zie ook rustigwel gebeuren dat het tijdens in productie zijn bij defensie dat er heus wel andere projecten gedraaid worde, maar defensie zal toch wel de absolute prioriteit zijn.

[Reactie gewijzigd door Hakker op 18 juni 2012 17:00]

Ik denk dat je niet beseft hoe complex nucleaire wapens zijn en wat een ramp het kan veroorzaken als er iets mee mis gaat. Daarnaast, het speelt zich af in Amerika, het kost ons geen geld.
In de huidige instabiele wereld worden die wapens no-way vernietigd. En ben blij dat de VS het op deze manier regelt; in Rusland liggen vele van deze wapens gewoon onder afdakjes (vanaf 10:10) op half verlaten bases in the middle of nowhere.
En wat betreft dat geld heb je gelijk, maar ik ga ook niet lopen pochen dat ik de Nederlandse inflate met een duizendste promile heb laten dalen wanneer ik mijn sigaar heb aangestoken met een briefje van 20...
@.ScorpionSquad: dat komt ook terug in de gelinkte TED presentatie: in de moderne wereld weet je soms niet wie je vijand is; die kan jou aanvallen zonder dat je weet wie je als retaliation terug moet bombarderen. DŠt is het grote gevaar tov een wereldwijde balans met slechts enkele grote kernmachten (VS, RU, IN, PK, UK, FR, IR).

[Reactie gewijzigd door Rick2910 op 18 juni 2012 16:59]

Die worden echt niet vernietigd... Ze zijn te bang dat de andere partijen dat niet doen. Rusland past bijvoorbeeld zeer waarschijnlijk de tactiek toe de raketten te vernietigen, maar de koppen worden gewoon in een andere raket gestopt. Volgens mij hebben ze echt wel 16-koppige raketten.

Daarnaast bestaan er geruchten van een Russisch Death-Hand systeem, waarbij alle opgestelde kernwapens met een druk op de knop door de president gelanceerd worden, om zo veel mogelijk van de wereld te vernietigen. Als je bekijkt dat hun Tsar Bomba van 57 megaton in 1961 al serieus afgezwakt was (ze hadden een kracht van 100 megaton berekend), zullen ze in 1980 echt monsters hebben kunnen maken. Die kennis is niet verdwenen maar ligt ergens opgeslagen (dat zou jij ook niet weggooien). Geruchten, maar zeer beangstigend.

Amerika is daarom zeer zeker geÔnteresseerd in het radioactieve verval, net zoals Rusland en China dat ook wel zullen zijn.

Het perfecte van 2 kernmachten in de wereld is dat ze elkaar nooit kunnen aanvallen zonder dat de ander nog net genoeg tijd heeft om jou ook te vernietigen.

@Homer. J.Simpson
Een 100 MT raket is dan wel weer handig. Dat ze een bommenwerper gebruikten was eerder uitzondering dan regel, de Russische luchtmacht stelde weinig voor.

Nu zie ik ze inderdaad niet zomaar weer 5 kernbommen produceren, maar mocht het tot oorlog komen halen ze alles uit de kast, net zoals ze tijdens 70 jaar communisme deden.

[Reactie gewijzigd door .ScorpionSquad op 18 juni 2012 18:45]

Tsar Bomba was een demonstratie van de "kracht van de USSR" en vooral voor binnenlands gebruik. Een 100 MT bom is totaal onpractisch (te zwaar, te groot, kan niet met een ICBM vervoerd worden) om in te zetten. Grote bommen maken is de kunst niet, bruikbare wel. Het onderhoud van een kernwapen arsenaal is erg ingewikkeld en duur (alleen het gevechtsklaar houden van ICBM's al moet een godsvermogen kosten), ik geloof niet dat de ondertussen versplinterde USSR dit zou kunnen opbrengen.
Ja blaffende honden (vs) bijten niet, maar die wat stil zijn( rusland ) die bijten het hardst.. Wanneer komt ook Rusland in het nieuws over wat voor ongein dan ook? Gewoon never, we zullen het zien. Kijken of deze supercomputer ons kan redden tegen die tijd mocht het zover komen :P
Qua stabiliteit van wapens kan je het niet veel beter dan een kernwapen krijgen, vooral als je kijkt naar hun maximale output. Zolang dat ding niet daadwerkelijk getriggered wordt kan hij niet veel doen. Oh als er door een fout iets gebeurd kan je een irritante vuile bom hebben, maar dat is een schijntje van wat hij doet als hij wel getriggered is. Wat je dan overhoudt is de kans dat trigger circuit perongeluk zijn signaaltje verstuurd, maar lijkt me niet dat je daarvoor zon supercomputer nodig hebt.

Vooral aangezien ze het hebben over hoe lang het huidige arsenaal nog inzetbaar is, denk ik dat ze de effecten van zowel decay + opgeslagen liggen in een mogelijk niet ideale omgeving willen simuleren op de explosie die je krijgt. Je staat toch mooi lullig te kijken als je een land van de aardbodem wil wegvegen en je nukes werken niet meer. En dan is het weer goedkoper om zon leuke computer te kopen, dan om voor de zekerheid maar nieuwe nukes te maken.

En @Xilvero. Nucleaire wapens hebben de unieke mogelijkheid om schade te veroorzaken dat geen ander wapen kan doen op een wereldwijde schaal, en dat is inderdaad beangstigend. Maar bedenk tegelijk wel dat dankzij nucleaire wapens er nooit serieuse gevechten tussen het Westen de SU zijn geweest. En bedenk eens het resultaat als dat wel was gebeurd, ook met enkel conventionele wapens was een full scale war tussen de SU en het westen waarschijnlijk voldoende geweest om WW2 naar een voetnoot in de geschiedenis te verhuizen.

En zie ook India en Pakistan. Ja ze hebben vaak genoeg wat op elkaar geschoten vanwege Kashmir, maar dankzij nukes heeft geen van beide de illusie gehad dat het een goed idee was dat tot een full scale war te laten groeien.
Het budget voor kernwapens is dan ook niet afgenomen sinds ze niet meer gebouwd/getest worden. En i.p.v. af en toe een "simpele" test is er nu gigantisch veel rekenkracht nodig om hetzelfde te weten te komen, namelijk of de bom nog ploft als-ie nodig is.
En stel dat uit de simulaties blijkt dat de kernkoppen vervangen moeten worden, dan begint de hele wapenwedloop weer opnieuw.
Je hebt helemaal geen snelle computer nodig, het duurt dan alleen wat langer.
Het alternatief voor die rekenkracht, is om de de test niet in-silico te doen, maar in de realiteit. Dan komen we dus terug in de jaren 50, waarin er talloze kernproeven per jaar werden gedaan.

Misschien is een super-computer dan toch een beter alternatief? 8-)
De pharmaceuticals zullen wel wat rekenen, maar kernprobleem in de farmaceutische industrie is toch de knullige manier hoe medicijnen worden toegelaten en de knullige manier waarop classificaties plaatsvinden.

Een US team van onderzoekers had classificatie verandert en was STOMVERBAASD dat ineens 30% meer kinderen ADHD hadden, wegens de manier waarop ze nu classificeren. DUS krijgt ook bijna 30% meer ineens medicijnen.

Die ADHD medicijnen, om verder te gaan in dit voorbeeld, die worden op KORTE TERMIJN getest voor de gefaseerde toelating (die jaren kost). De test zelf om toegelaten te worden die bewijst dat die medicijnen werken, dat zijn dus precies 200 proefpersonen waarop het 'moet werken' op de KORTE TERMIJN.

Kortom aantal fabrikanten hebben nu nieuwe medicijnen uitgebracht die allemaal verdacht veel lijken op chemische cocaine. Met dezelfde eigenschappen als cocaine.

Dat krijgen je kindertjes dus.

Met zo'n 1946 type manier van redeneren is het heel wat als je voldoet aan 95% zekerheid op de korte termijn dat iets helpt. Echter in de statistiek betekent dit dat je maar 200 gevallen nodig hebt om te bewijzen dat het werkt.

Met andere woorden - de farmaceutische industrie rekent wel wat, maar dat is echt hoegenaamd niet nodig. Van publieke supercomputers maken ze dan gealloceerde budgetten ook niet op en dat was al maar 0.5% van de rekenkracht.

Als je goed hierover nadenkt hoe knullig het toelatingsbewijs is dat de overheid vereist voor medicijnen die toch miljarden per jaar gaan binnenhalen per medicijn, dan snappen we snel dat 200 gevallen snel geregeld zijn. Er is dus geen rekenkracht nodig eigenlijk wegens de knullige eisen van de overheid zelf.

De meeste tijd bij toelating van medicijnen gaat overigens op aan lobbywerk, met name politiek lobbywerk, maar dat is ander verhaal wat hier niet relevant is. Een nicht van mij doet dit fulltime.

Dat doet ze niet in Nederland overigens, want Nederland als klein land kan niet zoveel. Nederland neemt altijd iets wat toegelaten is in een groot land (met name USA) gewoon over. Ze lobbiet dus in Londen of Washington.

Vrijwel al het rekengeweld wordt gebruikt voor matrixcalculaties op die supercomputers. An sich is er niet zoveel verschil tussen een matrix die gebruikt wordt voor nuke explosies versus een matrix die berekent waar de electronen zitten in een materiaal. Het zijn allemaal gevoelige berekeningen.
Ik dacht dat de Amerikaanse overheid van hun nucleaire arsenaal af wilde?

Off-topic: Ik wil er ook wel zo eentje voor thuis :)
Bij welke energiemaatschappij zit jij, dat je een dergelijk verbruik kunt betalen? :+
nou dat betalen is nog niet zo'n probleem. meer de duurzaamheid van het stroomnet hier. denk niet dat de bekabeling het heel lang volhoud als er 7890kWh doorheen gaat.

ik ga voor het gemak uit van kWh. de aangeduide kW in het bericht slaat natuurlijk nergens op. zonder tijdsaanduiding kunnen we daar helemaal niets mee.
Zonder tijdsaanduiding is wel degelijk logischer.

Als je wilt weten hoeveel energie een apparaat verbruikt geef je dit aan in watt, waarin al een tijdaanduiding verwerkt zit.

Watt=joule per seconde

kilowatt/uur is dus eigenlijk: energie (joule) / tijd (seconden) x tijd (uren)
streep de tijd en tijd tegen elkaar weg en je houdt enkel energie maal een constante over, waardoor je dus geen idee hebt wat het verbruik per tijdseenheid is.

[Reactie gewijzigd door Arjan v. Giesse op 18 juni 2012 15:40]

Ehm, die supercomputer verbruikt gewoon bijna 8MW wanneer die belast wordt...
oftewel 7890 kWh/h.
Dat is peanuts ten opzichte van de prijs van die supercomputer.

Misschien een miljoen dollar aan stroomkosten per jaar voor een supercomputer die maar paar jaar meegaat en honderden miljoenen dollars gekost heeft.
de aangeduide kW in het bericht slaat natuurlijk nergens op. zonder tijdsaanduiding kunnen we daar helemaal niets mee.
Wat nou, geen tijdsaanduiding? Een watt is een joule per seconde, dus aan kW heb je wel degelijk genoeg om het energieverbruik aan tegeven.

Daarentegen slaat jouw opmerking over "denk niet dat de bekabeling het heel lang volhoud als er 7890kWh doorheen gaat" juist weer nergens op, aangezien jij juist weer de tijdsaanduiding opheft door J/s met tijd te vermenigvuldigen.

De dunste draad kan 7890kWh transporteren, als je maar genoeg tijd hebt.

Kijk anders even op een willekeurige gloeilamp... Staat daarop 60W of 60Wh?

[Reactie gewijzigd door RefriedNoodle op 18 juni 2012 15:49]

Hoezo kan je meer met kWh dan met kW?
"als er 7890kWh doorheen gaat" slaat nergens op, want als hij daar een week over zou doen (hij doet er dus maar 1 uur over) zou het niet zoveel uitmaken op de totale geleverde energie. Ik weet niet hoeveel het elektriciteitsnet aankan, maar hier staat (aan het einde) dat er op dit moment gemiddeld zo'n 30MW door de Nederlandse hoogspanningsmasten loopt. Het is dus best haalbaar om met een kleine aanpassing aan je lokale elektriciteitsnet zo'n computer thuis te runnen.

Wat achtergrondinformatie over kWh vs kW:
kWh = maat voor verbruikte energie (dus waar je voor betaalt bij je energieleverancier)
kW = maat voor vermogen (een consumenten PC verbruikt bijvoorbeeld +/- 500W)
Stel deze machine draait 24/7 (wat de meeste supercomputers doen) dan verbruikt hij dus 7890kW * 24 uur * 365 dagen = 69116400 kWh per jaar. Bij een energietarief van §0,07/kWh kost het runnen van zo'n computer dus ongeveer §4.838.148 per jaar. Uiteraard zal hij bij thuisgebruik minder aanstaan, maar thuisgebruik is sowieso niet echt realistisch.

[Reactie gewijzigd door wjvds op 18 juni 2012 15:46]

Nu zal hij niet 24/7 365 dagen per jaar op piekvermogen functioneren. Ik denk dat half vermogen zelfs veel is. Hij heeft natuurlijk een paar dagen onderhoud per jaar nodig, en als je zeer veel stroom vraagt zal dat misschien ook goedkoper worden.

neemt niet weg dat het verhaaltje wel gewoon klopt.
jawel hoor. Dit is 8 megawatt continue. Deze machines zetten ze NOOIT uit.

Bovendien de jobs die ze erop schedulen zijn enorm dus de cpu's branden voluit.

Vergis je niet erin dat rekenjobs op machines als dit wel weken zo niet maanden kunnen rekenen nonstop.

Als je 7890 kWh inslaat betaal je de hoofdprijs, want ze weten dan niet of ze een nieuwe centrale moeten bouwen als je die 7890 kWh binnen 1 uurtje even opstookt.

Als je 7890 kilowatt inslaat met enorme boeteclausule als je maar 1 watt meer verbruikt dan 7890 kilowatt, maar dan is het 20x goedkoper.

[Reactie gewijzigd door hardwareaddict op 18 juni 2012 20:41]

Of je zet 3 van die grote windmolens in je tuin, dan heb je voldoende energie en kun je lekker gamen op 1000000 fps (als het waait).
En dan een zonnepaneel op je dak voor als het niet waait!
heb je wel een dak van 20.000 vierkante meter nodig. ;)
FF zien. 12 vierkante meter per kilowattuur. Bovendien heb je 24 uur per dag stroom nodig en die zonnepanelen leveren in de woestijn waar dit staat rond de 1000 uur per jaar stroom van de bijna 9000 uur dat een jaar telt.

Dus moet je enorm veel meer met die zonnepanelen produceren en opslaan in batterijen.

Batterijopslag is vrij prijzig. Al snel 300 dollar per kilowattuur (lithium ion : 700 dollar per kilowattuur).

Zeg we slaan een week of 2 op voor die supercomputer. Dat is
14 dagen * 24 uur * 7890 kilowatt * $300 = 795 miljoen dollar aan batterijen voor deze supercomputer nodig in geval van zonnepanelen.

Dan moet je verder dat ook binnen 1 dag kunnen opladen natuurlijk en wel in de winter als er weinig licht is en het te hard waait. Dus je zit eerder op een paar miljoen vierkante meter aan zonnepanelen dan :)
Ook daarom: Borsele 2!
Nee, ze willen er zeker niet vanaf.
Ze willen het inkrimpen en efficienter maken. De oude technieken eruit en de nieuwen erin.
Reac opt off topic:
Als je de stroom gratis krijgt word het met zo un apparaat ineens leuk weer Bit-Coins te minen :9 8)7
Ik denk dat als je gratis stroom krijgt en bitcoins mag minen dat het lang gaat duren voordat je deze investering van de ontwikkelkosten en bouwkosten terug hebt verdiend...
Nu is er niks snellers maar over 50 jaar zijn deze ongeveer even snel als een Pentium II nu...
In 1993 beschikte de snelste computer in de top 500 over 60 gflop/s in linpack. Een Q9550 @ 4.25 GHz uit 2008 kan ongeveer dezelfde score halen. Met andere woorden, als de huidige trend zich doorzet, dan is het mogelijk dat je over slechts 15 jaar dezelfde rekenkracht in je thuis pc kunt vinden.

@pknl: Uiteraard is het niet zeker dat dat gebeurt, alhoewel de exponentiele trend vooralsnog redelijk stabiel is gebleken gedurende de afgelopen 20 jaar:
http://i.top500.org/perfdevel

[Reactie gewijzigd door narotic op 18 juni 2012 15:47]

Wel met een behoorlijke nadruk op ALS...
Edit:
Om te reageren op de link:
Clusters kunnen blijven groeien zolang de economie dit ondersteunt :)
Die groei zal idd door gaan.
Maar, om al die kracht op 1 chip te krijgen word een ander verhaal...
(lees mijn uitleg(/theorie:P) hieronder )

[Reactie gewijzigd door pknl op 18 juni 2012 16:36]

De wet van Moore is anders al 47 jaar van kracht. dus het is niet echt ondenkbaar dat dit de komende jaren zo blijft.

@ hieronder,

ik denk dat het de rekenkracht van CPU's ook minder snel toeneemt door een toenemende focus op energieverbruik.

wat betreft de wet van moore, Point taken

[Reactie gewijzigd door Arjan v. Giesse op 18 juni 2012 16:44]

De een aanpassing op de wet van Moore geeft aan dat niet de prestaties elke 2 jaar verdubbelen, maar het aantal transistors binnen 1 chip verdubbelt...
De laatste tijd komen we steeds dichter bij fysieke grenzen (CPU's hangen al jaren rond de 3GHz...) en het zal niet lang meer duren voor het procedee niet meer kleiner kan... De groei zou dus nog wel leens kunnen vertragen.
Ik hou niet van doemdenken... (tweakers houden namelijk WEL van vordering:))
Maar voor de particuliere markt vind ik de vorderingen de laatste 4 jaar behoorlijk tegenvallen...
Om terug te komen op die Q9550, die zou nu dus volgens die oude wet van Moore vervangen moeten kunnen worden door un CPU die 2x2= 4 maal meer rekenkracht heeft... Ik geloof niet dat dit gelukt is met een particuliere chip ;(
Sandy Bridge was anders een fikse verbetering. Ik denk dat jou 4◊ Q9550 wel gehaald wordt door een i7 3960X hoor, of anders zit het er niet ver vandaan.
Huidige consumer modellen zullen qua top ongeveer 3 keer sneller zijn, waarvan een factor 2 dankzij AVX en een factor anderhalf vanwege quad-core naar hexa-core. Zodra Intel dus een octo-core Ivy Bridge uitbrengt die op dezelfde frequentie kan draaien haal je dus die factor 4 (gezien octo- en deca-core Xeons heeft Intel de technologie allang in huis).

[Reactie gewijzigd door narotic op 18 juni 2012 23:26]

Wet van Moore is niet een verdubbeling van snelheid. Maar de verdubbeling van transistors. Maar een verdubbeling in transistors wil niet zeggen dat de snelheid ook verdubbeld, helaas.

Helaas komen we nu tegen een plank omhoog waar de transistors gewoon niet kleiner kunnen worden gemaakt. 1nm Is ongeveer 5 atomen groot, maar om een transistor op die grootte te maken is vrij lastig en kan last krijgen van quantum tunneling. En na die 1 nanometer is het zo goed als voorbij met conventionele chips.
Zo'n director NCSA toen hij hier presentatie gaf, heeft een heel simpel grafiekje.
En die is 'log 2'. Elke 18 maanden wil hij gewoon verdubbeling in snelheid van de nieuw te bouwen supercomputer :)
Met (super)computers is het makkelijker om het dubbele te winnen, alhoewel je daar ruimte en energie verbruik voor gaat in leveren.
Hm, dan is HECToR, het krachtigste HPC systeem in de UK van de University of Edinburgh waar ik mee mag spelen ineens niet zo indrukwekkend meer met zijn 90.000 cores...
Ga aan je werk man, met je spelcomputer. ;)
7890kW, staat in de tekst.
Met een stroomverbruik van 7890kW is het systeem aanzienlijk efficiŽnter dan de K Computer, die 12.659kW verbruikt.

Dat kon je in het artikel lezen.

[Reactie gewijzigd door wolkewietje op 18 juni 2012 15:12]

Een nietszeggende mededeling. De Japanse K computer gebruikt Japanse processoren en Sequoia gebruikt IBM processoren.

Dus voor 0.5 miljoen dollar meer aan stroomverbruik per jaar, en nog iets minder als die reactors weer zijn opgestart van wat nucleaire energiecentrales in japan, houdt Japan die honderden mijoenen die K-Computer kost, binnen Japan.

Makes sense.
7890kW.... bijna 8 megawatt aan warmte!? 't is maar wat je efficiŽnt noemt ;)
Hoevel ze in de rest van het gebouw niet meer te stoken, scheelt ze weer kosten;)
1 MW is doorgaans genoeg om 1000 huishoudens van energie te voorzien. (bron) Dus deze computer verbruikt even veel energie als 8000 huishoudens, of circa 30.000 mensen.... Een kleine stad dus.

Dus hopelijk verwarmen ze niet alleen hun eigen gebouw, maar ook de stad er omheen ;)

[Reactie gewijzigd door LeonM op 18 juni 2012 15:15]

Belachelijk eigenlijk, als je je indenkt dat de wereld tegenwoordig zijn focus heeft liggen op "groen", duurzaam en energiezuinig. Dat deze belachelijke hoeveelheid aan energie vervolgens ook nog 's wordt ingezet om nucleaire simulaties mee te doen is nog kwalijker.
Dan vergeet je wel even dat die 8MW aan warmte veel minder bruikbaar is dan 8MW aan elektriciteit. Maar inderdaad ik hoop dat ze daar toch een deel van kunnen recupereren dmv turbines ed.
Klein plastic fabriekje hier die bordjes en lepeltjes produceert, die verbruikt ook 7 megawatt.

Huishoudens gebruiken als maat voor energie wordt continue gedaan maar is echt te lachwekkend voor woorden.
hoezo lachwekkend? het is wel iets waardoor mensen enig idee krijgen over de hoeveelheid energie die verstookt wordt.

en een fabriek die plastic onderdelen maakt gebruikt sowieso enorme hoeveelheden omdat de stalen mallen, die vaak enkele tonnen wegen, warm gemaakt en gehouden moeten worden.
De energierekening zal rond de 1 miljoen dollar per jaar liggen voor deze machine, terwijl hij nieuwprijs enige honderden miljoenen kost.

Afgeschreven over 3 jaar, waarop je dit soort machines moet afschrijven praten we dus over rond de 1.5% van de machinekosten zijn energiekosten.

Personeelskosten hebben we 't dan nog niet over gehad - dit voor een supercomputer die voor het kernwapenarsenaal gaat rekenen, iets wat de US overheid biljoenen dollars gekost heeft.

p.s. daarbij opgemerkt dat verbruik per huishouden niemand ene bal zegt. Gemiddeld huishouden in NL is ongeveer 2.0 personen. Gemiddeld verbruik per huishouden (2011) voor 2 personen is aan electriciteit: 3533 kilowattuur.

Deze supercomputer vreet 7890 kilowatt * 24 uur * 365 dagen = 69116400

Dus correcter is te zeggen dat deze machine evenveel electriciteit verbruikt als:

69116400 / 3533 = 19563 huishoudens

Het feit dat ze er factor 20 naastzitten en dat niemand dat opmerkt zegt wel hoe knullige de maat 'huishouden' is.

Een huishouden betaalt per kilowattuur overigens, met nog eens 80% belasting erbovenop. Dat is waarom je factor 20 keer meer betaalt dan dat je voor continueverbruik betaalt.

http://www.gaslicht.com/e...ring/energieverbruik.aspx

[Reactie gewijzigd door hardwareaddict op 18 juni 2012 20:13]

Het aantal PetfaFLOPS zegt me niks, maar het is schijnbaar nogal snel:
As of June 2011, the 500 fastest supercomputers in the world combine for 58.9 petaFLOPS of computing power.
http://en.wikipedia.org/wiki/FLOPS

[Reactie gewijzigd door pim op 18 juni 2012 15:07]

Een grafische kaart om te rekenen zijn iets lager geklokt dan de GPU's die je koopt om te gamen.

Het zit zo rond de 600 gflop wat een Nvidia Tesla haalt nu.
Dat is dus 0.6 Tflop

Dit is rond de 10 Pflop continue of te wel: 10000 / .6 = 16666 grafische kaarten.
Nu ligt de prijs van de Tesla iets hoger dan van een normale grafische kaart.
Als je er echter 16k van inkoopt dan krijg je vast korting.

Laten we zeggen 1000 dollar per kaart. Keer 16k = 16 miljoen dollar aan rekenkracht.

Deze computer kost edoch een paar honderd miljoen. Schaalvergroting kost gewoon geld en betrouwbaarheid ook. Bovendien zijn dit geen gpu's maar echte lightweight cpu's waar je hele bende threads per core op draait.

Maar als je dus thuis knutselt en het voor elkaar krijgt met gpu's ben je wel factoren goedkoper uit hoor.
"Anyone can build a fast CPU. The trick is to build a fast system."
Seymour Cray

Een heel verhaal over het Hoe en Waarom
141 pagina's met informatie!

Sequoia: ADVANCED SIMULATION AND COMPUTING (ASC)
May 21, 2008, Draft Statement of of Work


"Simulation is key to eliminating the technical requirement for nuclear testing"

ASC Roadmap
Past Program Goals:
Develop capability to certify aging weapons with codes calibrated to past UGT's (Nuclear Weapon Underground Testing)

Enables

2008-2018 Certify existing Stock Pile
Transition to quantified 3D predictive capabilibility

Enables

2018 and Future -> Transformed Complex

Access & certify without requiring reliance on UGT's..... (Past or future)

Past & Future Super Computer Developments
2004: Redstorm 123/Purple 100
2008: Roadrunner
2012: Sequoia 20 PF
2016: ? 150 PF
2020: ? 1 EF

[Reactie gewijzigd door Zanac-ex op 18 juni 2012 15:41]

"If you were plowing a field, which would you rather use: Two strong oxen or 1024 chickens?" Seymour Cray

Het lijkt er sterk op dat de 1024 chickens het systematisch winnen van de 2 strong Oxens, zelfs bij Cray zelf :)
Ziet er goed uit, ook de technologie van de glasvezel biedt nog genoeg toekomst dus.
Veel mensen die ik tegenkom geven aan dat de toekomst van Glasvezel na 10GB toch wel ophoudt, dit bewijst het tegendeel dus!
Vraag me wel af of meneer op foto2 niet even een polsbandje om zou doen met een machine van 200Miljoen $ :)

[Reactie gewijzigd door GeeMoney op 18 juni 2012 15:10]

Mij zul je niet horen zeggen dat polsbandjes overrated zijn, maar als je weet wat je doet heb je ze niet nodig. (eerst de kast vastpakken zodat je hetzelfde potentiaal hebt als de GND van de machine, dan kan je zonder ESD risico de componenten vastpakken).

Niettemin raar idd dat deze promo foto niet even netjes met ESD voorzorgsmaatregelen is genomen ;)
Zeker maatregel, zijn linker arm rust op het metalen (geaarde) frame :P
Bent al snel geaard :)
Niettemin raar idd dat deze promo foto niet even netjes met ESD voorzorgsmaatregelen is genomen ;)
Ik denk dat zijn (aldanniet) geaardheid niemand iets aangaat ;)
In dat soort centra loop je vaak op een ESD veilige vloer met een metalen strip om je been/schoen
Haha scherp opgemerkt, daar gaan de eerste cores, lekker dan.
Wel apart dat die mensen zeggen dat het bij 10GB ophoudt. Ik kan me toch echt herinneren dat Alcatel 15,5 Tbps over 7000 kilometer heeft gepompt. En dat was al in 2009.
Hoe dikker de glasvezelkabel is hoe meer bandbreedte je hebt, mits je het aan het begin van de kabel kunt verzenden en aan het einde ontvangen. ;)

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Tablets Luchtvaart Samsung Crash Smartphones Microsoft Apple Games Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013