Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties

De Amerikaanse regering heeft zich ten doel gesteld om binnen tien jaar exaflops-clusters te bouwen. Het doel is onderdeel van het National Strategic Computing Intiative, dat de VS een leidende rol moet geven op supercomputergebied.

De supercomputers moeten in staat zijn enorme hoeveelheden data te verwerken. "In de komende tien jaar moeten de systemen datasets van meer dan een exabyte, 1018 bytes, kunnen afhandelen en analyseren", aldus het Witte Huis. Volgens de overheid van de VS heeft de afhandeling van big data nu al 'revolutionaire impact' op de commerciële en wetenschappelijke sectoren. De regering verwijst naar claims van NASA dat exaflops-computing het volledig modelleren van turbulentie bij simulaties mogelijk maakt, wat van belang is voor het ontwerpen van vliegtuigen.

Concrete financiële toezeggingen of andere praktische stappen zijn nog niet vastgelegd in het besluit voor het in gang zetten van het National Strategic Computing Initiative. Het gaat voorlopig om een 'gecoördineerde strategie' op gebied van onderzoek, ontwikkeling en uitrol. De systemen gaan onder andere gebruikt worden om sterrenstelsels, het weer, elektriciteitsnetwerken en vliegtuigen te simuleren.

De krachtigste supercomputer van dit moment is de Tianhe-2 van de Chinese National University of Defense Technology. Het systeem levert 33,86 petaflops, gemeten met de Linpack-benchmarks. Het Amerikaanse Department of Energy bouwt momenteel twee systemen die elk 100 petaflops moeten kunnen leveren als ze in 2017 gereed zijn. Petaflops staat voor 1015, oftewel een biljard floating point operations per second; bij exaflops is dat 1018 flops, oftewel een miljard miljard.

Moderatie-faq Wijzig weergave

Reacties (105)

Gaan die dingen lang mee? Hoe lang duurt het voor een huis tuin en keuken pc het zelfde kan? Is dat jaren tientallen jaren?
Het duurt ongeveer een jaar of 20 voordat je desktop hetzelfde kan. Zie bijvoorbeeld dit artikel voor een vergelijking van de Cray 2 (1985) met een pc uit 2007: http://www.techrepublic.c...hats-sitting-in-your-lap/
Ik denk dat het iets langer duurt, de vooruitgang is nu behoorlijk wat trager aan het gaan omdat we tegen allerlei fyisieke grenzen aanlopen. De wet van Moore is tussentijds bijgesteld, in plaats van een jaarlijkse verdubbeling van het aantal transistoren in een IC is dat nu 2 jaar. Ook harddisks gaat wat langzamer.

Volgensmij liggen een aantal belangrijke keerpunten niet zo gek ver van het jaartal 2007 vandaan. Ik dacht dat rond 2004 de MHz-race afgelopen was. Ook de harddisk datadichtheid is rond dat jaartal minder snel gaan toenemen.
Het klopt dat Moore's law is bijgesteld, maar dat gebeurde al in 1975. https://en.wikipedia.org/wiki/Moore%27s_law

Verder gaat Moore's law niet over kloksnelheid maar over het aantal transistors per vierkante inch. Dat is ook na 2004 gewoon blijven toenemen, alleen vertaalt dat zich de laatste tijd niet meer in een hogere kloksnelheid, maar in meerdere core's per cpu en een geintegreerde gpu.

Dat allemaal gezegd hebbende, zou het inderdaad zomaar kunnen dat Moore's law de komende 20 jaar niet meer opgaat. En dan zal het wat langer gaan duren voordat we een exaflop pc-tje in de huiskamer hebben staan :)
Gegeven dat Moores Law specifiek over transistors gaat is het goed in te denken dat Moores Law dicht bij z'n eind is. Echter is dat niet (per se) het einde van exponentiŽle groei van snelheid computersystemen. Net zoals we de overstap hebben gemaakt van vacuŁm tubes naar transistors kan er een opvolger komen die heel anders dan een transistors werkt (en dus is Moores Law niet van toepassing) maar die weldegelijk grote sprongen vooruit kan maken qua snelheid. 2 ideeŽn hiervoor zijn spintronics (denk aan electronica alleen maak je dan gebruik van de quantummechanische spin van particles ipv de lading van elektronen) en photonic computing (fotonen ipv elektronen gebruiken voor data transfer).
Denk dus maar niet dat dit voor goed het einde is van een exponentiŽle toename van snelheid voor computers. Maar het is wel (binnenkort) het einde voor transistors zoals we ze nu kennen.

[Reactie gewijzigd door Jeanpaul145 op 30 juli 2015 13:42]

Ik snap niet waarom men zich blind staart op moore law. Omdat de man ooit iets geroepen heeft is het nu het soort bijbel geworden.

Waar je naar moet kijken is vooruitgang, of dat verkleining is of iets anders het gaat om toename van snelheid van iets, de ontwikkeling.
Processors worden kleiner en sneller of meer cores op 1 cpu het is maar hoe je het noemt.

Aan de ontwikkeling is nog lang geen einde en dus zullen computers sneller blijven worden.

Kijk je naar andere gebieden, neem ai dan zie je daar ook een ontwikkeling die nu pas goed op gang komt dankzij snellere cpu's. Ook daar kun je eenvoudig stellen ieder x jaar kan er meer op dat gebied.

Er komt zeker nog geen einde aan de exponentiŽle toename maar er zal wel een einde zijn en dat is het chaos idee. Ook daar zie je exponentiŽle toename tot het punt van chaos.
Bij de mensheid kun je dat betrekken bijv op het uit de hand lopen van het gekloot met ai en dna modificaties en dat alles samen. Einde van de mensheid of gewon weer verdere stap in de evolutie ?
Chaos weet ik niet. Als iets niet meer verder kan dan leggen wij mensen ons er uit eindelijk bij neer. Of dit op chaos uitloopt? Denk het niet... De vraag is wat je als mens met deze snelheid moet? Je kunt er de turbulentie van een vliegtuig mee berekenen. Maar is het echt nodig? Kun je als mens nu niet genieten van alles wat er al is? Als kinderen niet beter weten dan dat dit is wat er is dan is dat zo. Ik snap dat alles steeds beter, sneller, veiliger, mooier etc. Moet worden. Maar ik stel mezelf de laatste tijd steeds meer de vraag of we het allemaal wel nodig hebben. En of je zonder niet net zo goed van het leven kunt genieten. Als je ziek bent en een super computer kan een medicijn maken die je beter maakt dan is het uiteraard een ander verhaal.
Als men op die manier bleef denken 600 jaar geleden dan waren we nog in de middeleeuwen. Of wanneer dan ook.

Vooruitgang en ontwikkeling is.. gaaf. Wat mij betreft een beetje de essentie van bestaan. Wat we er aan hebben zien we later wel weer. :Y)

Verder super interessant, onvoorstelbaar hoeveel data er verwerkt kan worden op die manier.
Wat hebben we er aan zien we later wel weer.

Tja je volgt de actualiteit zeker niet.

Nu zijn er al groter vragen over AI wat moeten we daar mee aan als AI zelfstandig beslissingen gaat nemen die ons niet blij maken.

We zien nu op kleine schaal al genetsiche manipulatie. Met meer cpu kracht kan men meer berekenen en daarin nog verder gaan. De vraag is moeten we daar nu echt blij mee zijn. Natuurlijk mensen leven langer enz maar we krijgen super soldaten, super mensen, dit misschien in combinatie met aansturing door AI en weet ik wat meer.

Kunnen we dit stoppen, nee helaas niet.
Gaat het mis, ja dat staat al vast.
Waarom gaat het mis. De mens is geen vredelievend dier, er zijn er bij dit naar macht streven, controle over anderen. Dat is altijd al zo geweest. Men techniek komt dat steeds dichterbij om dat te kunnen uitvoeren.
Nou, zelfs een computer die een medicijn kan maken om je beter te maken is zelfs niet nodig. Je lichaam heeft immers een natuurlijke manier om van de meeste ziektes te genezen.
Maar ja, meeste dingen die zijn uitgevonden vind ik niet per se nodig, maar waarom vinden we het uit dan? Dat kan verschillend zijn per persoon denk ik. Of je doet het voor een kennis of familielid, of je doet het om jezelf of andere mensen het leven makkelijker te maken of gewoon omdat je het interessant vindt. Of omdat je daar goed in ben en je wilt geld verdienen.

Bovendien, als deze ontwikkelingen en onderzoeken niet gedaan worden, dan hebben we ook nog duizenden onderzoekers die geen baan hebben. En je hebt mafiabazen enz die misschien ook zo'n team hebben voor kwaadaardige doeleinden(je weet het maar nooit) en die wil je natuurlijk niet voor laten gaan.
Uhm je kunt GPU's tegenwoordig gewoon clusteren in een DC en een ongekend hoog aantal flops creŽren. Tegenwoordig worden supercomputers ook gewoon met GPU's ingezet. Die zijn veel efficienter in het rekenen dan een X86/X64 CPU dat bijv is.
As it is, Intel's working on an 80-core CPU that will break the Teraflop barrier for PCs. This may ship by 2011 or 2012.
Hmm... is er niet helemaal van gekomen :)
Dat gaat over Xeon Phi, wel x86, niet wat je zegt geschikt voor general purpose gebruik.
max 61 cores, samen 1,2TFlops.
Die 61 cores... Was dat dan in 2011/2012, of nu?
Dat was aardig op schema, ja. En eerlijk gezegd had je dat op z'n minst wel even zelf op kunnen zoeken ook.
Ik schat de kans dat je over 20 jaar meer dan 33 petaflops uit je thuiscomputer haalt in op nul.
Met de huidige technieken zullen we idd niet aan 30 petaflop geraken tegen 2035. Maar na de mechanische tandwiel computers kwamen relais, en dan vacuum buizen, transistors en geÔntegreerde circuits. Ik zou mijn geld er niet op inzetten dat quantum computers de fakkel overnemen voor general pupose computing, maar er zijn genoeg veelbelovende trajecten voor de lange termijn.
Terrahertz chips zijn niet ondenkbaar met grafeen. En met 3d chips met interlayer cooling wil IBM tegen 2025 al 1 petaflop uit een desktopformaat halen (zie link). Als je dit projecteert naar nog eens 10 jaar later met een extended Moore's law, zelfs al vertraagt deze naar verdubelling om de 2 jaar, dan kom je precies op 30 petaflop tegen 2035!

http://www.cnet.com/news/...like-your-brain-for-real/

[Reactie gewijzigd door jonas87 op 31 juli 2015 16:49]

Behalve technisch mogelijk moet er natuurlijk ook nog vraag naar zijn.
En nou weet ik ook wel dat ik niet kan voorzien wat voor geweldige mogelijkheden er bedacht worden waarom de consument toch zo'n 30 petaflop pc zou willen hebben, maar ik verwacht toch dat de vraag hiernaar niet heel groot zal zijn. Je ziet nu al meer en meer dat er minder vraag begint te komen naar de high end producten omdat midrange doorgaans uitstekend voldoet.
Behalve technisch mogelijk moet er natuurlijk ook nog vraag naar zijn.
Zo'n uitspraak doet me toch wel vermoeden dat je nog erg jong bent... Elke oudegediende in 't vak weet dat het zo'n beetje de foutst denkbare gedachte is te denken dat er geen vraag meer zal zijn naar sneller of meer ;).
Daarom heb ik ook erkend dat ik niet kan voorzien wat voor mogelijkheden er zouden kunnen zijn, maar feit is dat de vraag naar high end nu al af begint te nemen. Kennelijk is de huidige snelheid voor de meeste consumenten genoeg. En met de meeste consumenten dus ook het grootste gedeelte van de vraag.
Behalve technisch mogelijk moet er natuurlijk ook nog vraag naar zijn.
En nou weet ik ook wel dat ik niet kan voorzien wat voor geweldige mogelijkheden er bedacht worden waarom de consument toch zo'n 30 petaflop pc zou willen hebben
Wat denk je van sterke AI op je PC? Real time voice recognition? Waarschijnlijk nog veel meer wat we nu niet kunnen bedenken. Natuurlijk is daar vraag naar. Je klinkt als iemand die ooit zei: 640k ought to be enough for anybody ;-)
ik zie wel veel voordelen, wat dacht je van realtime ultra realistisch grafisch renderen, en dan gewoon de hele wereld virtueel als map in een spel bijvoorbeeld.

maar er zijn ook genoeg andere dingen te bedenken.
jij omschrijft iets je pc die renderd dat alsof de pc het voor zich ziet(net als ons brein)
heb zelf een render cluster(cpu perf 1200GFLOP) gpu ongeveer 15TFLOP
als ik zie hoeveel stroom en ruimte zo'n cluster in beslag neemt en nog steeds aan de trage kant is.
en dat terwijl een doorsnee i7 moeite heft met 100Gflop
Terrahertz
Terahertz
Heb je dat 20 jaar geleden ook over GigaHertzen, GigaFLOPS en Terabytes gezegd toevallig?
Doet me denken aan de 640K quote :9

Wellicht dat we over 20 jaar al de eerste quantumPC's bij de groten der aarden thuis hebben.
Let wel dat de meeste van dit soort stellingen gebaseerd zijn op de wet van Moore.
Het begint er steeds meer op te lijken dat we deze groei trend niet in stand kunnen houden. Zie ook: nieuws: Intel laat 'tick-tock' los en stelt 10nm-productie uit tot tweede helft 2017
Het begint inderdaad steeds meer te lijken op de "Wet van Less"... :+
Bij de HPC is de wet van Moore nog steeds intakt. Intel verdient het gros van zijn centen aan consumenten, dus is totaal irrelevant in deze al doen ze wel hun best steeds iets te releasen voor de HPC en lijken met de Xeon Phi nu voor het eerst voet tussen de deur te hebben, al heeft die doorontwikkeling van wat eerst Larrabee heette wel eindeloos lang geduurd!

De grote spelers in de HPC markt zijn met name IBM en Nvidia en de rest fietst er tussendoor.
Tis wel zo dat bijvoordeel de Cray maar iets van 30 keer zo snel was als een 486 op 66Mhz. De supercomputer van nu is minimaal 1000 keer zo snel.. het lijkt me te rooskleurig om te denken dat we dit inhalen op de desktop in 20 jaar.
ik denk het ook niet. in 2006 had ik een processor die haalde ongeveer 12Gflop.
nu bijna 10 jaar verder , heb ik een processor in de zelfde prijs klasse die halt 100gflop

dus elke 10 jaar 10 keer zo snel. dus geen 1000
Dat van quantum computers lijkt me ook sterk. Die zijn alleen in bepaalde heel theoretische gevallen sneller (de-/encryptie e.d.). Absoluut niet sneller om Windows te draaien of programma's te starten oid ;)
Dat kan je nu niet weten. Wie zegt dat delen van OSes (inclusief Windows, OS X en Linux) niet exponentieel versneld kunnen worden mbv quantum computing, door het te gebruiken als een coprocessor of (tegenwoordig) een GPU voor GPGPU doeleinden? Ik zie dingen als file indexing (alles dat gerelateerd is aan zoeken eigenlijk) al snel sneller gaan met quantum computing namelijk (komt omdat AI een boost kan krijgen met quantum computing, wat de interesse van oa Google verklaart).
Doet me denken aan de 640K quote
De verzonnen quote.
Niet verzonnen, alleen nooit uitgesproken door Bill Gates... :)
Kunnen we je daar dan midden in de nacht voor wakker maken over 20 jaar?
Als het wel gelukt is dan mag dag maar ik maar ik me veel meer zorgen over de kans dat ik door de bliksem getroffen kan worden.
Als je de reactie van jojomonkeyboy op het door jouw gelinkte artikel leest komt het voornamelijk neer op sustained bandwidth die bij systemen als supercomputers vele malen hoger liggen dan bij de gemiddelde desktop cpu's.

Dus men kan niet zomaar alleen met flops gaan rekenen tussen de verschillende systemen.

Tegen de tijd dat een desktop cpu dezelfde hoeveelheid werk kan verzetten als deze supercomputer (die een exabyte moet kunnen halen) zou je toch op meer dan twintig jaren moeten gaan rekenen vanwege (o.a.) bandbreedte verschillen.
Ik vraag me af of we over 20 jaar nog desktops gebruiken. En al helemaal of we behoefte hebben aan desktops die die kunnen.
Wet van Moore zegt: verdubbeling elke anderhalf jaar.
Als ik hier kijk: http://www.overclock.net/...-does-your-processor-have
zie ik dat de Core i7 tussen de 50 en 100 gigaflops zit. Om naar de exaflops te gaan moeten we, uitgaande van 100 gigaflops, 7 ordes van grootte omgehooggeschaald worden. Dat komt dus neer op iets meer dan 23 jaar (2^23 = 8,4 miljoen = iets minder dan 7 ordes van grootte).

En nee, zo'n supercomputer gaat geen 23 jaar mee. Die wordt wel eerder vervangen door iets groters/snellers.
Kijk niet naar core i7, maar naar de laatste nvidia Tesla die in die supercomputers zit en de hoeveelheid van die gpgpu kaarten die in 1 supercomputer zitten.

Een Cray uit de jaren 80 slurpte energie op en die Tesla's die ik hier heb zitten op iets boven de 225 - 250 watt per stuk TDP (praktisch is dat al snel 400 watt). Dat lijkt veel, maar is met de HPC geschiedenis in de hand heel weinig voor HPC processoren.

Kijk maar eens naar de IBM power series!

l
Zoals het er nu uitziet gok ik zelfs honderde jaren. zoek maar eens op wat er bijvoorbeeld in de Tianhe-2 zit.
32,000x Intel Xeon E5-2692 12C with 2.200 GHz (12 cores 24 threads)
48,000x Xeon Phi 31S1P (1.1ghz 57 cores)
Memory 1,375 TiB (1,000 TiB CPU and 375 TiB coprocessor)
Storage 12.4 PB
Speed 33.86 PFLOPS
32000 processoren is ongeveer 15 iteraties van de Wet van Moore. 15 iteraties van de Wet van Moore is bij een Moore-periode van 18 maanden 22 1/2 jaar. Op zich suggereert dat dat het sneller kan dan honderden jaren. Het is echter wel zo dat we momenteel aan alle kanten stagnatie zien. In de Top500 daalt het aantal nieuwe systemen bij iedere editie de laatste jaren sterk, bij die van juni waren dat er als ik me goed herinner slechts 72. Dat komt voornamelijk omdat de investering in een Top500-systeem de afgelopen jaren steeds duurder is geworden.

Ook aan de kant van de Wet van Moore zijn er scheurtjes te zien. Intel zal zijn ticktock niet niet lichtzinnig hebben laten varen. Of de Wet van Moore het nog 22,5 jaar uithoudt, daar zijn veel vraagtekens bij te plaatsen.
Ik denk dat je de wet van Moore niet op clusters moet loslaten, maar gewoon per losse CPU.

Clusters is een kwestie van aantallen aan elkaar knopen. Heel simpel gezegd, ik kan theorethisch nu al 2x zoveel Xeons en coprocessors neerkwakken als de nummer 1 op de top- of de green500. Je hebt dan wel een verdubbeling van transistors maar die is niet bereikt door schaalverkleining.

Dat is dus niet een kwestie van ontwikkeling zoals bij CPU ontwerp het geval is.

Wanneer een gelijk aantal processors (CPU en GPU) een hogere performance geeft, dan kan je spreken over de wet van Moore.
Dat klopt, maar bij supercomputers is de vooruitgang een combinatie van de Wet van Moore en de budgetten die toegekend worden. Moore bepaalt de prijs van rekenkracht, het budget hoeveel ervan gekocht kan worden.

We hebben de afgelopen 5 jaar een soort van wapenwedloop gezien tussen China en de VS, waarbij China vooralsnog de winaar is geworden. Die wapenwedloop ligt nu even stil in dat de budgetten niet verder stijgen. Het is nu Moore die voor verdere vooruitgang moet zorgen. Momenteel is hiermee geen exascale mogelijk.

Er wordt wel aan technologie gewerkt om Exascale mogelijk te maken. Knights Landing en AMD's HSA zijn twee voor de hand liggende technologieŽn daarvoor. Zodra KL uit is, en HSA beter inzetbaar wordt voor supercomputers, verwacht ik weer een flinke sprong vooruit in rekenkracht.
Ben ik niet met je eens.

Je mag best meer moeite nu doen om die afgeleide wet van Moore (verdubbeling elke 18 maanden in snelheid) te halen.

Het is natuurlijk al decennialang zo dat de prijs per fabriek om nieuwere generatie processoren te drukken gewoon enorm veel duurder was, bijna verdubbeling in prijs zelfs, dus in dat opzicht gaat elke vergelijk al stuk als je niet enkel naar het resultaat kijkt.
De Wet van Moore zal het hoogstwaarschijnlijk geen extra 22,5 jaar gaan uithouden, maar er zullen misschien wel nieuwe wetten komen (door nieuwe technieken) die misschien net zo doeltreffend zijn als dat de Wet van Moore dat nu is...
Ik zie geen enkele reden waarom in de HPC dat voorlopig niet gehaald kan worden.

Ten eerste moet je altijd vertrouwen hebben in toekomstige ingenieurs dat zij oplossingen verzinnen waar je nog niet aan gedacht hebt.

Als we dan kijken naar wat er nu klaarligt voor de toekomst dan kunnen we nog simpeltjes wel een factor 100+ erbij snoepen, wat toch weer 15 jaar koopt. Die overige 10 jaar lukt dan ook wel.

Wel is de vraag of bij gebrek aan massaproductie voor consumenten de fabrikanten de prijzen niet enorm zullen gaan verhogen voor de HPC.

Het kan dus wel zo zijn dat er gewoon meer geld op de plank moet komen in de toekomst en dat de huidige budgetten voor HPC gewoon niet realistisch meer zijn voor de toekomst.

Op elk terrein is vooruit rekenen gewoon veel belangrijker geworden. Dus het past ook wel bij de tijd om daar een serieuzer budget voor uit te trekken dan in 't verleden sommige bedrijven cq overheden deden.
Ook aan de kant van de Wet van Moore zijn er scheurtjes te zien. Of de Wet van Moore het nog 22,5 jaar uithoudt, daar zijn veel vraagtekens bij te plaatsen.
Ook de Moore-periodes zijn bijgesteld. Hij begon met 12 maanden.
En hij gaat een keer dood.
Heel simpel gezegd zijn het gewoon heel veel huis tuin en keuken PC's aan elkaar gekoppeld. Er zit niet maar ťťn CPU in die dit kan maar enkele duizenden.
Die dingen gaan ongeveer tien jaar mee, met een beetje rek. En ik denk dat het vrij lang zal duren voordat een PC hetzelfde kan. De snelheidsontwikkeling is er een beetje uit, op CPU-gebied. Het onderzoek richt zich nu voor een groot deel op zuinigere processoren. De Hertz-race is vervangen voor de Watt-race. Bovendien loopt de nanometer-race tegen steeds hardere obstakels aan... Het zal me niks verbazen als de PC dat over vijftig jaar nog steeds niet kan...
Hoe lang het precies duurt weet ik niet, maar je kan dan wel echt retesnel patience spelen.
Hoe snel de 'cheat' dan wel niet gaat. Tjee.... ;)
Ik denk dat we tegen die tijd helemaal geen computer thuis meer hebben, maar alleen een scherm + input met een verbinding naar een enorm krachtige computer 1000km verderop die al het rekenwerk doet.
Ik zie dat de komende 30 jaar nog niet gebeuren. Vooral om het feit dat de huis tuin en keuken pc dat helemaal niet hoeft te kunnen.
Maar dat was 30 jaar geleden ook het geval van computers die we nu gebruiken.
Eens. Echter komt er een moment dat dezelfde snelheid van progressie niet langer kan, niet langer hoeft, of niet langer betaalbaar (commercieel nuttig) is.
Eens maar overheden en legers hebben het wel 'nodig' en die technologie zal ook naar consumenten PC's gaan. NASA gaat ooit een Zetaflop supercomputer willen en ze hebben liever niet dat deze een volledige staat gaat beslaan qua grootte.
Ik zie het de komende dertig jaar ook nog niet gebeuren. Maar niet om de reden dat we het niet nodig zijn.
Op dit moment worden de processoren ook steeds sneller, terwijl je met een 5 jaar oude PC nog prima mee komt. De ontwikkelaars van software maken dus ook steeds gretiger gebruik van resources. En blijft het 'snappy' gevoel nog steeds langzaam in het geval van bepaalde software.

De reden dat ik denk dat het er voorlopig nog niet aan zit te komen is omdat ik vermoed dat de wet van Moore op de terugloop lijkt te zijn?
Het wordt steeds moeilijker om vast te houden aan het gestelde in de wet van Moore. Intel laat bijvoorbeeld nu de tick-tock strategie al los. (Artikel)

Dus 30 jaar lijkt me vrij realistisch, of nog langer. Afhankelijk of we ons aan de wet van Moore kunnen houden.. We shall see, maar een uitdaging gaat het sowieso worden.
Dat intel het uitstelt naar 2017 heeft ook te maken dat er weinig concurrentie is van amd.
intel is tegenwoordig bijna monopolist op de cpu markt... Als je kijkt naar de prijs van intel cpu die zijn best wel hoog. Ik ben het eens dat de wet van Moore stagneert maar een gedeelte daarvan ligt er ook aan dat bedrijven nog veel geld willen verdienen aan oudere cpu's
Waar gaat dit over?

Het gaat hier over HPC.

Intel is historisch een nobody in de HPC ondanks verwoede pogingen.
Ik vraag me sterk af of we over 20-30 jaar nog desktop PC's met zware hardware hebben staan thuis of we alles in de cloud en streaming doen. Ondanks dat gamen via de stream nog niet echt van de grond komt lijkt mij dat uiteindelijk toch de toekomst. Met z'n allen via diverse abonnementen (kantoorgebruik, gaming, video editing) verbonden aan een cluster van supercomputers waar je betaald voor rekenkracht naar jouw behoefte. De NSA kan niet wachten.
Ja nu nog niet nee maar over 30 jaar met mischien wel sword art online achtige virtual reality games is er mischien ineens een grote vraag naar. Bedenk je wel even dat je het dan over 2045 hebt. Zal mij niet verbazen als dit veel eerder komt.
"640K ought to be enough for anybody."
- Bill Gates (1981)

Ik heb nu 8079808K RAM... En dat is vaak genoeg, niet altijd.

[Reactie gewijzigd door AquaL1te op 30 juli 2015 10:47]

Wat dacht je van games met fotorealisme en natuurgetrouwe physics.
ik denk 70 jaar , voordat een enkele processor de exaflop grens berijkt heft.
mits ze niet tegen opstakels op lopen
Die quote staat niet voor niets bij "Misattributed"
https://en.m.wikiquote.org/wiki/Bill_Gates
Of het door Bill gezegd is doet niet zo ter zake. De achterliggende gedachte is dat je niet in de toekomst kan kijken en je je dus moet onthouden van dat soort uitspraken. Wat technisch kan en wat wenselijk is zijn zaken die elkaar opstuwen. Anders kan je ook zeggen dat het niet nodig is om Doom te spelen als je ook met minder resources boter kaas en eieren kan spelen. De -1 is m.i. dan ook onterecht.
Volgens de overheid van de VS heeft de afhandeling van big data nu al 'revolutionaire impact' op de commerciŽle en wetenschappelijke sectoren. De regering verwijst naar claims van NASA dat exaflops-computing het volledig modelleren van turbulentie bij simulaties mogelijk maakt, wat van belang is voor het ontwerpen van vliegtuigen.
Opvallend dat ze aftappen en decrypten van communicatie niet noemen...
Prestigeprojecten zoals deze zijn dan ook alleen mogelijk met draagvlak vanuit het volk. Als je gaat roepen dat je ze nůg beter kunt bespioneren, of dat je nůg beter (de gevolgen van) een nucleaire explosie kunt simuleren (ik weet dat dit een van de redenen was en misschien nog wel is om supercomputing te bezigen), dan krijg je tegenwoordig een enge hoeveelheid tegenstand vanuit de belastingbetaler.

Maar dingen als het veiliger maken van burgertransport, daar zullen maar weinig mensen tegenin druisen. Echt opvallend is het dus niet dat ze een maatschappelijk gemakkelijk te accepteren redenatie aanvoeren. En ik wil ook best wel geloven dat Boeing een keer met die machine aan de gang mag, al is het maar om hun drones te verbeteren.
Een enge hoeveelheid tegenstand van de belastingbetaler, en de angst daarvoor lijkt me dat je als overheid al met iets fouts bezig bent.
Als het volk om die reden geen supercomputer wil, dan zou die er ook niet moeten komen, in een democratie althans.
Maar ook in een democratie heb je geen fluit te zeggen over dit soort beslissingen, en om dan toch de tegenstand te voorkomen, liegen ze je voor.

Wel zonde, want dit soort projecten hebben een grote invloed op de vooruitgang van de mensheid. (Of achteruitgang)
Hiermee zou je bijvoorbeeld een heel scala aan medische berekeningen kunnen doen voor bijvoorbeeld ontwikkeling van nu nog onbereikbare medicatie.
het is geen prestigeproject waarbij 1 supercomputer gebouwd wordt zoals de BBC rapporteert hier: http://www.bbc.com/news/technology-33718311

Dat BBC rapport is geschreven door een huismiep die 't Witte Huis persbericht zeker niet goed gelezen heeft. Zie hier: https://www.whitehouse.go...igh-performance-computing

De BBC huismiep snapt kennelijk niet dat in 10 jaar tijd je idealiter volgens de afgeleide wet van Moore dus factor 100+ wint aan snelheid in de supercomputer die je op dat moment bouwt.

De BBC huismiep snapt ook geen drol van eenergieprijzen van grootgebruikers die aan continueverbruik doen (dat ligt factoren lager dan de variabele prijs) en snapt ook niet dat het allerbelangrijkste doel wat met supercomputers al is bereikt in de USA is dat er geen KERNEXPLOSIES meer zijn, maar dat die enkel nog berekend worden met zo'n supercomputer.

De allerzwaarste en grootste supercomputer van de USA doet namelijk precies DAT. Kernexplosies doorrekenen.

Maar daarnaast is er nog zo enorm veel meer. Bijna elke industrie wordt het doorrekenen van zaken belangrijker. Nieuwe technologie wordt ook niet meer gebouwd zoals in de jaren 30 van de vorige eeuw, maar wordt OP DE COMPUTER gebouwd.

je kunt het dan ook beter eerst DOORREKENEN of het allemaal wel werken gaat!

De gas en olieindustrie die rekenen al decennialang heel verwoed op enorme hardware. De financiele sector in de high frequencytrading begnt nu ook te ontdekken hoe belangrijk enorme clusters bezitten is, die tevoren doorrekenen of een truukje geld in 't laatje kan opleveren en zo ja wanneer.

Het gros van de publieke supercomputers is met name bezig met matrixcalculaties. Bijvoorbeeld om te weten waar in materialen electronen zitten. Voor allerlei industrien is dat handig, ook natuurlijk het leger (denk aan nieuw pantser ontwerpen).

Het is dus een BELEID. En geen twijfelachtig iets, maar een keiharde realiteit dat je mee MOET doen.

Een beleid waarvan het fijn is dat het weer zo wordt uitgesproken, maar wat ondertussen zie je overal huismiepen bezig kijkend naar hun iphone en doen dan een onnozele poging om vanuit hun iphone te verklaren wat HPC nu is, met allerlei fantasieverhaaltjes die erbij horen.

De leiders in de HPC markt zijn IBM, met als nieuwkomer Nvidia.
Intel doet wat verwoede pogingen om ook voet aan de grond te krijgen, al sinds eind vorige eeuw.
[...]

Opvallend dat ze aftappen en decrypten van communicatie niet noemen...
Ik dacht precies hetzelfde.
"In de komende tien jaar moeten de systemen datasets van meer dan een exabyte, 1018 bytes, kunnen afhandelen en analyseren"
De natte droom voor de NSA en dergelijke partijen! Stap 1: gigantisch veel data verzamelen. Stap 2: publiek gerust stellen en roepen dat het toch niet allemaal geanalyseerd kan worden. Stap 3: wachten tot je het wel kunt analyseren. Stap 4: het is nu te laat om er tegenin te gaan!
De natte droom voor de NSA en dergelijke partijen! Stap 1: gigantisch veel data verzamelen. Stap 2: publiek gerust stellen en roepen dat het toch niet allemaal geanalyseerd kan worden. Stap 3: wachten tot je het wel kunt analyseren. Stap 4: het is nu te laat om er tegenin te gaan!
Onthou dat de datastromen die we met zijn alle generen ook groeien, zoials het er nu naar uitziet met eenzelfde omvang. De snellere systemen van de toekomst moeten dus meer data hanteren voor hetzelfde resultaat.
[...]


Onthou dat de datastromen die we met zijn alle generen ook groeien, zoials het er nu naar uitziet met eenzelfde omvang. De snellere systemen van de toekomst moeten dus meer data hanteren voor hetzelfde resultaat.
Ik vrees vooral dat er nieuwe technieken gebruikt kunnen worden waardoor de orde grote van het probleem (teveel data) aanzien verminderd, waardoor meer data dus geen probleem zal zijn. Het gaat nu misschien gelijk op, maar ik denk dat dat vooral komt door dingen als steamen en dergelijke, dat is data die je in principe toch kunt negeren.
Wat heeft de NSA hiermee te maken?

De supercomputeractiviteiten van de NSA vallen onder de NCSA.

De NCSA die bouwt wel enorme supercomputers en geeft regelmatig data vrij hoe snel hun laatste generieke supercomputers zijn.
Opvallend dat ze aftappen en decrypten van communicatie niet noemen...
Dat kun je beter met een grid doen dan met een supercomputer.

Net zoals bijvoorbeeld Google een tienduizenden servers of zoiets gebruikt om de data van het internet (en natuurlijk van internetgebruikers) te analyseren.

Er zullen vast wel een paar taken zijn waarvoor de NSA zeer zware computers gebruikt maar waarschijnlijk niet voor het analyseren van bulk data die ze vergaren.
Zware supercomputers heeft NSA niets mee te maken. Dat is voor NCSA.

Wat de NCSA heeft is natuurlijk totale overkill voor de simpele zielen die rondlopen bij de NSA.
Dat is ook het eerste waar ik aan dacht. En ja daarvoor zullen ze ook gebruikt worden.
In het document zelf staat er te lezen
The NSCI will spur the creation and deployment of
computing technology at the leading edge, helping to advance Administration priorities
for economic competiveness, scientific discovery, and national security.
Zij het niet met rechtstreekse bewoording, geven ze het dus wel degelijk aan dat het ook daarvoor gebruikt gaat worden .
Ze kunnen het gewoon niet hebben dat een Chinese computer sneller is dan wat ze zelf in huis hebben ;-) . En een beetje competitie stimuleert de industrie. Dat is een goed iets. :-)
Competitie is juist niet goed voor de industrie. "De best mogelijke producten aanbieden voor de laagst mogelijke prijs" heeft als gevolg dat we resources onnodig misbruiken en inferieure producten produceren om maar een zo laag mogelijke prijs te vragen voor een product wat nog net kwalitatief het waard is. Het is daarbij ook onmogelijk voor een bedrijf om producten aan te bieden die duurzaam ontworpen zijn. De consument moet immers na verloop van tijd weer een nieuwe aankoop doen om zo de winstcyclus van het bedrijf gaande te houden. Check 'planned obsolescence'.

Onze markteconomie zorgt ervoor dat we troep maken alleen maar om korte termijn winsten te scoren wat geen rekening houdt met de lange termijn gevolgen zoals resource depletion of vervuiling.

Check de documentaire Zeitgeist Moving Forward, gratis te zien op YouTube voor meer details.
Off-topic post, ik weet het, maar nog steeds relevant voor ons allemaal ;-)
Competitie zorgt voor motivatie. Het zou mooi zijn als we ergens anders de motivatie vandaan zouden kunnen halen, maar zolang mensen in termen van 'wij en zij' denken en andere belangen (zie nu ook weer met het veto van Rusland) hebben zie ik dat niet gebeuren.
Vaak is het argument inderdaad dat het competitiegedrag in de markteconomie zorgt voor een prikkel dat sociale vooruitgang mogelijk maakt. Hoewel dit deels waar is, genereert het ook een gelijkwaardige hoeveelheid motivatie voor corruptie in de vorm van geplande product veroudering, algemene misdaad, oorlogen, grootschalige financiŽle fraude, arbeidsexploitatie en meer. Daarom bestaat de meeste wetgeving in de context van monetaire gebaseerde misdrijven. Als gevolg zit het merendeel van de gevangenispopulatie vast wegens een monetaire-gerelateerde misdaad of een ongewelddadig drugsdelict.
Zeker is dat in systemen zonder competitie we enkel corruptie en het monddood maken van wetenschappers en fysiek het afslachten van de eigen burgers veelvuldig tegenkomen. Extreem voorbeeld natuurlijk Pol Pot.
Check de documentaire Zeitgeist Moving Forward, gratis te zien op YouTube voor meer details.
Off-topic post, ik weet het, maar nog steeds relevant voor ons allemaal ;-)
Of check wat de USSR zijn burgers kon aanbieden in een samenleving waar concurrentie 'verboden' was. En dat is geen documentaire met veel argumenten die er met de haren bij gesleept zijn, maar geschiedenis!
Markteconomie is elke 'isme', ook communisme. Het verschil zit in de hoeveelheid de regering zich ermee mengt. Maar dezelfde negatieve effecten van een markteconomie heb je bij elke 'isme'. Dus je punt klopt niet.
De space race was dus slecht voor onze technologische ontwikkeling? Dat was toch wel de ultieme e-peen competitie, no? ;) Zonder concurrentie krijg je dus een situatie zoals Intel. Jaarlijks nieuwe producten, amper technologische vooruitgang en gericht op de consumptiemaatschappij.
De space race was net zoals The Manhattan project een resource project, niet een monetair project. Er werd gekeken of de kennis en middelen aanwezig waren om het te volbrengen, niet naar hoeveel geld er was, dat was bijzaak en drukte men gewoon uit het niets. Dus dat is niet hetzelfde. Het gaat hier om markteconomische competitie. Waarbij je Intel vergelijking ook gewoon klopt inderdaad en geen punt is vůůr een markteconomie.
Natuurlijk is de grootste pe... supercomputer hebben leuk voor raw performance, maar het lijkt me ook dat men meer en meer naar performance-per-watt, koeling en uptime moet gaan kijken als we het over dergelijke groottes hebben. Zeker aangezien het vooralsnog gaat over "simpelweg" mťťr nodes aan elkaar knopen, ipv efficiŽntere opstellingen te maken. De Verenigde Staten blijven natuurlijk de Verenigde Staten, maar zelfs daar lijkt me dat ze toch Ūets van aandacht aan energie/kostprijs/milieu moeten geven. Er wordt echter met geen woord over gerept in de NSCI Fact Sheet.

Wel geven ze terecht aan dat er nog heel wat belemmeringen zijn op software vlak, omdat een aantal programma's niet oneindig meeschalen. Uit ervaring weet ik dat vb. Gaussian, een veelgebruikt kwantumchemisch pakket, helemaal niet zo lekker schaalt op meerdere cores. Nu worden HPC systemen volgens mij zelden voor ťťn applicatie gebruikt, maar het is inderdaad zeker iets dat onderzocht moet worden.

Daar is vb. Intel al wel mee bezig met hun ExaScale Labs project, waar ze uptime, energie en scaling als grote uitdagingen aangeven. Ik ga er eigenlijk ook wel van uit dat de VS zal samenwerken met o.a. Intel voor hun exascale project, want anders krijgen ze dat sowieso niet voor elkaar.
In de kostprijs van supercomputers zit natuurlijk ook het component energie.

Software is een ondergeschoven kindje al fiks wat jaren en niet alleen in de HPC.

Kijk ook naar robotica bijvoorbeeld daar of het Nederlands leger waar men tijdens missies in Afghanistan rond 2006-2008 gewoon lekker op elkaar nog lag te schieten terwijl met triviaal te bouwen software (hoewel fiks wat werk) dat allemaal veel beter zou functioneren.

Nee je moet eerst je kant en klare software laten zien voor er voor gedokt wordt, als men het al niet gratis copieert.

In dat opzicht is het bouwen van goede software simpelweg iets wat te weinig aandacht krijgt.

Loof maar eens een miljoen dollar uit voor goed schalende software en dan is dat schalingsprobleem zo opgelost natuurlijk :)

p.s. je ziet in de HPC toch de neiging dat uiteindelijk technologien die efficienter zijn in performance per watt het winnen. Zie hoe Nvidia toch gewoon nu aan 't langste eind lijkt te trekken op dit moment met haar Tesla architectuur.

[Reactie gewijzigd door hardwareaddict op 30 juli 2015 17:58]

Maar wat nu als quantum computers eindelijk hun intrede doen. Dan kan je deze meteen weggooien.
Daarnaast bedenk eens wat er dan allemaal kan!! creepy gevoel
Nu de BBC slaat de plank wel mis hoor.

http://www.bbc.com/news/technology-33718311

Da's toch heel knullige interpretatie van wat feitelijk 't Witte Huis released:

https://www.whitehouse.go...igh-performance-computing

Ook qua energie slaat de BBC de plank goed mis zeg. 60 megawatt continueverbruik kost niet 100+ euro per megawatt uur. Bij continueverbruik van zeg kerncentrale of kolencentrale dan zit je eerder op de 20 a 25 euro per megawatt uur. Bij huidige continueverbruikprijs nog iets minder als je 't op de juiste locatie bouwt en niet te veel eisen stelt (zoals onze overheid altijd weer doet in de HPC in tegenstelling tot die yanks). Dus dat leidt dan tot een prijs van onder de 10 miljoen euro per jaar. Meer dan factor 6 goedkoper dan wat de BBC voorspiegelt.

Heel slecht gerapporteerd door die BBC reporter hoor!
Het doel is onderdeel van het National Strategic Computing Intiative, dat de VS een leidende rol moet geven op supercomputergebied.
Pfffrt, we weten allemaal natuurlijk nu al waarom ze dat willen, hou toch op met die verkapte verhalen, zeg gewoon dat er nieuwe supercomputers gebouwd worden om het bespieden van de wereld 'beter' te kunnen doen.
Dacht even dat deze gebruikt ging worden bij Ubisoft voor het testen van games, sinds hun ervanuit gaan dat consumenten zulke pc's thuis hebben staan.
Ze zullen het in ieder geval niet bij EA gaan gebruiken om games te testen, want daar hebben ze consumenten voor. ;)
vol anticipatie drukken we nog een paar keer op f5 om te of ze al in de top 500 zijn verschenen

http://www.top500.org/lists/2015/06/

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True