Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Amerikaans ministerie onthult Summit-supercomputer met piek van 200 petaflops

Het Oak Ridge National Laboratory van het Amerikaanse ministerie van Energie heeft de Summit-supercomputer onthuld, die is ontwikkeld met onder meer IBM en Nvidia. Met maximaal 200 petaflops verwacht de VS de eerste plaats in de aankomende Top500-lijst te behalen.

Het onderzoeksinstituut schrijft dat het systeem voor geselecteerde projecten uit het zogenaamde Incite-programma zal worden opengesteld. Het systeem is bedoeld voor toepassingen binnen kunstmatige intelligentie en deep learning.†Volgens Nvidia neemt het systeem een oppervlak van ongeveer twee tennisvelden in beslag en is het voorzien van 27.648 gpu's.

Daarmee doelt Nvidia op zijn Tesla V100-accelerators, die gebruikmaken van de Volta-architectuur. Het totale systeem bestaat uit 4608 nodes, waarbij elke node zes V100-accelerators heeft in combinatie met twee†IBM Power9-cpu's met 22 cores op 3,1GHz. De gpu's en de cpu's†staan onderling in verbinding via Nvidia's NVLink.

Het totale geheugen van het systeem komt neer op ongeveer 10 petabyte. Voor het koelen van het systeem is meer dan 15.000 liter water per minuut nodig bij een piek van ongeveer 15MW, aldus Cnet.†Het is de bedoeling dat de Summit-computer de eerste plaats zal innemen in†de aankomende editie van de Top500-lijst, die twee keer per jaar een update krijgt. De eerste plek wordt momenteel ingenomen door de Chinese†Sunway TaihuLight met piekprestaties van ongeveer 125 petaflops.

De VS kondigde in 2014 aan een bedrag van 425 miljoen dollar in de ontwikkeling van twee supercomputers te investeren. Een daarvan is de Summit, terwijl het andere systeem de naam Sierra draagt. De krachtigste Amerikaanse supercomputer is momenteel de Titan, die de vijfde†plaats op de ranglijst inneemt. Die werd in 2013 door een Chinees systeem van zijn eerste plek gestoten.

Door Sander van Voorst

Nieuwsredacteur

08-06-2018 • 20:34

59 Linkedin Google+

Reacties (59)

Wijzig sortering
Eigenlijk zijn dit geen supercomputers meer te noemen. Dat stadium zijn we al een tijdje voorbij.

Het zijn dedicated high-performance datacenters, of iets van die strekking.

Nu kan ik niet zo snel een formele definitie bedenken waarbij het onderscheid tussen een supercomputer en een datacenter te maken valt, maar het zijn in ieder geval geen monolithische systemen.

De operating systemen balanceren ook de werklast, je kunt vrij makkelijk nodes bij/afkoppelen.

Het is eigenlijk distributed computing, maar dan geconcentreerd in 1 lokatie, die toevallig een functionele logische naam heeft gekregen.

Deze text is wat warrig, maar ik ben vooral in ‘awe’ van zoveel rekenkracht.

[edit]
@batjes Je hebt gelijk, sinds de late jaren '90 is het eigenlijk opgehouden met de traditionele supercomputer. Maar eerst waren het nog wel 'cluster'-computers te noemen, waarbij er een soort van "1 op n" relatie was, waar de maximale overhead te bereiken was.

Intussen is het allemaal zo gedistribueerd en schaalbaar. De limiet is echt vooral hoeveel ruimte en koeling je beschikbaar hebt (en geld).

[Reactie gewijzigd door Keypunchie op 8 juni 2018 21:06]

MS heeft ooit eens in het begin van Azure een linpack gedraait op hun netwerkje. Technisch gezien is Azure ook een super computer.

Het hele azure gebeuren draait in feite op 1 super NT OS. Nu is sindsdien Azure een beetje opgedeelt, die van Duitsland draait stand-alone van de rest bv.

Maar is dit anders dan al die supercomputers hiervoor? Waarbij men gewoon gebruik maakte van clusters 'normale' hardware? Het staat nu alleen niet meer binnen hetzelfde gebouw.

De echte super computer bestaat al een paar decenia niet meer.
Hetr onderscheid wordt vaak gelegd bij dat een supercomputer daadwerkelijk 1 programma op alle nodes tegelijk moet kunnen draaien, in het geval van de Top500 wordt dat opgelegd door Linpack. Dat vereist dat er een efficiŽnte interconnect in het systeem aanwezig is, anders kun je nooit Linpack draaien op zo'n groot systeem.

Maar Linpack stelt ook weer niet zo extreme eisen, wat tot gevolg heeft dat soms ook systemen met een simpel ethernetnetwerk in de Top500 verschijnen. Er zijn argumenten voor- en tegen te vinden.

Een voorbeeld van een benchmark die strengere eisen stelt aan het vermogen van een systeem om als 1 enkele computer te kunnen werken is HPCG en het plan van het Top500-team is om geleidelijk aan meer aandacht te gaan geven aan de HPCG500 dan de Linpack Top500.
ik veronderstel dat de onderlinge verbindingen tussen de cpu's/gpu's en het geheugen het onderscheid maken, daar waar datacenters vooral individuele systemen via het netwerk met elkaar laten spreken, wordt hier 1 groot systeem gecreŽerd van nodes die via NVLink ook aan bvb het geheugen van een andere node geraken met een totale datarate van 300GB/s (yup, gigabyte, niet gigabit)
Misschien moeten we dit 'Hypercomputer' noemen, in lijn met de datacenters van hyperscale cloud providers?
Hoeveel Bitcoins binnen hoeveel tijd zou zoiets kunnen minen?
Als ze Bitcoin hiermee minen is het denk ik niks meer waard want dan hebben ze >50%.

Sssssjt, @w0w heeft volkomen gelijk :+

[Reactie gewijzigd door Randomguy369 op 8 juni 2018 20:57]

Even fact checken... Het bitcoin netwerk had in 2015 in ieder geval al 11000x meer rekenkracht dan de hele top500 supercomputers bij elkaar. De rekenkracht van het bitcoinnetwerk is vervolgens elke 2 weken met 10-15% gegroeid, maar zelfs in 2015 was de rekenkracht al 7059965 petaflops, dus ongeveer 35.200 keer zoveel als deze machine.

Bron:
http://jasondrowley.com/2...-supercomputers-combined/
https://gizmodo.com/the-w...rk-is-being-was-504503726
Zonde dat zoveel rekenkracht verspilt wordt aan een illusie. Kan beter gebruikt worden voor wetenschappelijk onderzoek.
Ik snap dus niet waarom ze dat dus niet doen. Het is niet zo heel moeilijk om wetenschappelijke numbercrunching hier aan te hangen. Via BOINC mine je in feite ook e-penis kudos.
Dat gaat niet goed samen met het proof of work systeem. Het idee is dat als jij bij bitcoin een 50% aanval wil doen, je tientallen, mischien wel honderden miljarden euros aan hardware moet gaan bouwen. Zodra jij je aanval doet, en bitcoin flink in waarde zakt, zit jij dus met 100 miljard euro aan bitcoin miners die nu waardeloos zijn.

Als je met die 100 miljard euro aan bitcoin miners ook voor andere dingen zou kunnen inzitten (zoals wat BOINC doet of iets anders), dan ben je dat geld dus niet ' kwijt' aan de aanval, het heeft immers nog steeds veel waarde omdat je er andere dingen mee kan doen.

Het is dus goed voor de veiligheid van het netwerk dat het werk in een PoW blockchain volstrekt nutteloos is.
omdat je daar geen geld voor krijgt. Money is what makes the world go round
Money is always nr. 1
Omdat jij de waarde ergens van niet van begrijpt betekent niet dat het een illusie is.
Omdat jij er waarde aan toekent, betekent dat nog niet dat het geen illusie is. Het systeem werkt omdat er gewoon veel mensen in geloven. Maar toegegeven, dat geldt ook voor ons papieren geld.
Precies. :+

Eigenlijk zijn we gewoon de Orks van Warhammer 40K: we geloven dat het werkt, dus werkt het!
Hoeveel energie denk je dat er besteed wordt aan het instand houden van de banken, of het mijnen van goud en andere edelmetalen?
De tijd zal het leren maar om bitcoin een illusie te noemen zonder onderbouwing is enigszins kort door de bocht en naÔeve m.i.
Tijd voor smart contract verwerking. Kunnen ze seti@home e.d. mooi als contract gaan verwerken
Vertel wat is de werkelijke waarde van wel cryptovaluta dan ook?

Komen we als mensheid niet verder met rekenkracht om ons wetenschappelijk vooruit te helpen ipv binaire codes waardes te geven die een fortuin waard zijn en vervolgens nog maar 10% daarvan. Dan weer 110% en ineens weer 9 %?

Je moet zaken op waarde schatten niet op wat ze op kunnen leveren in de (digitale) portemonnee.
Jammer dat al die rekenkracht alleen maar gebruikt kan worden om maar zoveel mogelijk sha-256 hashes te kunnen berekenen in een soort nummer-raad-loterij.
Heel weinig in heel veel tijd. Bitcoins worden al jaren niet meer gemined met CPU's of GPU's. Als je nu iets als een 1080Ti pakt heb je over 10.000 jaar nog niet 1 Bitcoin. CPU's doen het nog veel slechter. Sinds de komst van ASIC's heeft Bitcoin minen met alle andere hardware geen zin meer. Mogelijk dat deze supercomputer nog wel binnen enkele jaren een Bitcoin kan minen, maar dat komt niet helemaal uit met de stroomkosten schat ik zo :P
Als je nu iets als een 1080Ti pakt heb je over 10.000 jaar nog niet 1 Bitcoin.
Met die 10.000 bedoelde je een willekeuriger getal? duckduckgo geeft:
When will the last Bitcoin be mined
The estimate is 2140 based on the block reward halving frequency of four years. According to math and knowledge that there are 32 halving events, in 2136, the block reward will yield 0.00000168 BTC per day, which is 0.00000042 BTC per block. That's 42 satoshis.
ASICS die het SHA256 algo op de Bitcoin chains doen (BTC + BCH), doen samen momenteel ongeveer iets van 40 exahahes per seconde. Dat zijn er dus 40 000 000 000 000 000 000.

Een enkele 1080Ti doet ongeveer een gigahash per second. Of te wel 1 000 000 000 hashes per second.

Het verschil tussen 40 000 000 000 000 000 000 en 1 000 000 000 is maal 40,000,000,000

De moeilijkheidsfactor bij Bitcoin (BCH en BTC samen) is momenteel 5 500 000 000 000

Bij SHA256 mining op de twee Bitcoin chains zijn er 25 coins te verdienen elke 10 minuten en dan ook nog eens de transactie fees. (12,5 bij BCH en 12,5 bij BTC). Maar het is volledig afhankelijk van geluk. Technisch gezien kun je beginnen te minen op een 1080Ti en binnen de minuut het lucky nummer raden met jet 1080Ti. In de praktijk is de kans te klein.

Omdat die geluks factors nog al erge belangrijk is word Bitcoins in mining pools gemined. Je kunt met je 1080Ti in zo een mining pool gaan minen en word dan in coins beloond aan het hand van het aantal hashes dat jij aflevert aan de pool.

Als we deze waardes in deze calculator ingeven dan krijgen we 0.00000138 BTC+BCH per maand. Delen we 1 door 0.00000138 dan krijgen we 724 maanden of te wel ongeveer 60 jaar voor het produceren van genoeg shares (zo noem je hashes die je bij een pool aflevert) dat je er 1 BTC + BCH voor krijgt.

Maar die ASICS verbruiken een stuk minder stroom per hash dan een 1080T. Logicsh ook want een Application-specific integrated circuit kan maar een specifiek applicatie uitvoeren terwijl een General Purpose Unit er meer dan een kan uitvoeren. Een asic is voor de specifieke applicatie waar het voor gemaakt is natuurlijk een stuk efficiŽnter dan een GPU.

Een 1080Ti verbruikt 250W. Na 60 jaar aan minen heb je dus een coin verdient. Maar wat zijn de stroomkosten voor het 60 jaar aan 100% draaien van een 1080Ti.

En in het geval van deze nieuwe super computer. Hoeveel hashes per seconde kan deze doen en hoeveel stroom verbruikt het? Ik denk niet dat het rendable zal zijn voor deze super computer om aan Bitcoin mining te gaan doen tenzij een hacker het stiekem toch doet en winst maakt omdat hij de stroomkosten niet hoeft te betalen en dus effectief stroom heeft gestolen van het Amerikaanse ministerie.

[Reactie gewijzigd door Kain_niaK op 9 juni 2018 10:27]

Je reageert niet inhoudelijk op mijn post volgens mij. Trouwens nu we toch met facts aan het strooien zijn: https://www.discovercrypt...ket-with-37-5bn-holdings/. 1600 mensen hebben 37,5 miljard aan bitcoin. Bijna 1/3 van de totale hoeveelheid coins.
Bitcoin heeft een coin supply van 21 miljoen. Elke 10 minuten gemiddeld wordt er door een miner of miningpool een lucky number gevonden en word er een block vol met transacties gegenereerd. De eerste transactie in dat block is een minen die coins aan zichzelf geeft. Momenteel 12,5 bitcoins maar toen het bitcoin netwerk starte was het 50 bitcoins. Elke 4 jaar word deze beloning voor het minen gehalveerd.

Dus de eerste 4 jaar had je 50 bitcoins per 10 minuten. 50 * 6 *24 *365 * 4 = 10,512,000 bitcoins in de eerste 4 jaar. Toen 5,256,000 miljoen bitcoin in de volgende 4 jaar. De volgende halvering zal ergens rond mei 2020 zijn. Er zijn momenteel ongeveer 10,512,000 + 5,256,000 + 657,000= 16,425,000 miljoen bitcoins die zo zijn vrij gemined. Nu ja dat is de berekening voor 4 + 4 + 1 jaar. Bitcoin is gestart op 3 Januari 2009. De 10 minuten met geminede bitcoin is ook geen absoluut. Komt er meer mining power op het netwerk dat gaat deze 10 minuten naar beneden want de miners raden nu sneller de lucky numbers omdat ze meer gokken per seconde doen met meer mining apparaatuur. Het netwerk heeft echt er een feedback loop. Word de tijd tussen 2 blocken steeds sneller dan gaat de moeilijkheids graad om hoog. Miners moeten nu lucky nummbers raden tussen een groter invervaal. Ipv tussen 0 en 1 miljoen bijvoorbeeld tussen 0 en 2 miljoen. Dit noemen we diffuculty. Gaat de tijd tussen twee blocken omhoog dan gaat de diffuculty naar beneden. Op die manier is er een vrij constante uitgave van de coins aan de miners die het netwerk draaien. Je kunt hier de stats bekijken.
Momenteel zijn er 17,071,978 bitcoins die zo zijn vrij gegeven.


Dat gezegd hebben @PilatuS en mijzelf hadden het over de kans voor een GPU miner om zo een lucky number te vinden en die 12,5 bitcoin te krijgen. Die is zo klein dat je een 1080i meer dan 10 000 jaar moeten laten raden voordat de kans dat hij een lucky number heeft gevonden ongeveer 100% is.

In de praktijk kan het binnen een seconde .... maar de kans daarop is zo klein dat we kunnen zeggen dat het nul is.

Het totale bitcoin netwerk gokt momenteel 40 000 000 000 000 000 000 nummers per seconde, na een gok moet er gecontroleerde worden of het nummer dat de miner voor ogen heeft ook het nummer is dat die miner toe laat om het volgende bitcoin block te bouwen en zichzelf een beloning te geven van wat momenteel 12,5 bitcoins zijn.

Een enkele 1080i kan dit ongeveer 1 000 000 000 per seconde doen. De diffuculty is momenteel 4,940,704,885,522. Hij is ooit bij 0 gestart. De diffuculty is hoeveel 0 er in de hash moeten zitten van een stukje data dat gehasht word. Omdat een hash functie een wiskundige functie is kun je een bitcoin hash nemen. Bijvoorbeeld. 000000000000000000092ef280f5526aedfe6bdea385be816a960fe552349960

Dat is hash die de miners hebben zitten zoeken voor het laatste block, block number 526 800
Opnieuw vermits die blokken sinds januari 2009 gemiddeld elke 10 minuten gevonden worden. Als we 526 800 maal 10 minuten doen krijgen we 5,268,000 minuten. Delen we dat door 60 * 24 * 365 dan hebben we ongeveer 10 jaar. januari 2009 - januari 2019. Zoals je ziet is het een benadering. We gaan iets sneller dan 10 gemiddeld maar als het straks weer iets trager gaat dan klopt het weer.

Dus je neemt die hash 000000000000000000092ef280f5526aedfe6bdea385be816a960fe552349960. Vanuit die hash kun je met een simpele bereking verifieren dat de nounce, of te wel het lucky nummber voor dat blok klopt.

Maar om die hash te weten zonder dat je het lucky number voor dat block weet zul je al die nounces moeten uitproberen. Een nounce is een willekeurig getal, een lucky nummer dat gevonden moeten worden. Net zolang tot de hash die je hebt onder de target hash is. Die target is het aantal nullen in een hash. Voor 000000000000000000092ef280f5526aedfe6bdea385be816a960fe552349960 hebben de miners dus de hash van het vorige block genomen, daar 1 bij opgeteld en toen gekeken wat de hash daarvan is. Heeft die nieuwe hash 18 nullen? Nee, dan gaan ze terug en tellen er 2 bij op. Nu berekenen ze opnieuw de hash. 18 nullen? Nee, enz enz. 1 en dan 2 en dan 3 is de nonce. Miners zoeken het getal dat ze bij de hash van het vorige block moeten op tellen om een hash te krijgen die een aantal nullen heeft. Hoe meer nullen hoe moeilijker het is om zo een hash te vinden. De diffuculty.


Miners proberen dus een gigantische hoeveelheid totaal hashes uit per seconde en elke 10 minuten gemiddelden vinden er een miner ergens een hash die onder de target zit.

1 diffuculty is ongeveer het moeten door zoeken van 4 000 000 000 hashes. Een 1080ti heeft daar dus 4 seconden voor nodig want die kan er 1 000 000 000 per seconden doen.

4,940,704,885,522. * 4 seconde = 19,762,819,542,088 seconden. 626,674 jaar.


Het hele netwerk samen heeft geen 4 seconden nodig voor 4 000 000 000 hashen want het doet dit met 40 000 000 000 000 000 000 hashes per seconden. Het heeft maar 0.0000000001 seconde nodig.


4,940,704,885,522. * 0.0000000001 seconden = 494.0704885522 seconden of ongeveer 8.2 minuten.

Snap je hem nu? Dat het is het verschil tussen de kracht van een 1080Ti en het hele Bitcoin netwerk.
8.2 minuten of 626,674 jaar. Als je met die 1080ti dus aan het zoeken bent naar de juiste hash dan heb je na 313,337 jaar gemiddeld 50% kan dat je het gevonden hebt. Na 626,674 jaar benadert die kans 100%.

Dat is net hetzelde als jij een getal tussen 1 en 100 moet raden. Als je door alle nummertjes 1 voor 1 gaat dan heb je na 100 gokken 100% kans dat je het juist hebt. Ga ja door 50 nummertjes heb je 50% dat het te raden nummer dat tussen zit.

Kun je gokken aan een nummer per seconde duurt het je 100 seconden. Kun je gokken aan 100 nummers per seconde duurt het maar 1 seconde.

Nou @PilatuS kom er maar in, is mijn wiskunde nu ongeveer correct?


Als je meer wilt weten, hier een artikel over SHA256, het hashing algo van Bitcoin --> https://crypto.stackexcha...utputs-practically-random

Als je nog meer wilt weten over hashing algo en hoe ze precies werken heb ik wat videos van Art of the Problem voor je. Die legt clock arithmetics uit, zoals de mod functie en hoe die wiskundige functies gebruikt worden bij public key cryptography.

Dat is eigenlijk de start van het begrijpen van Bitcoin. En dan gaan we naar RSA en dan gaan we naar hashing algo en dan moeten we nog elliptic curves uit leggen en dan zijn we klaar voor een twee videos over Bitcoin want dan zijn alle wiskundige elementen die Bitcoin gebruikt uitgelegd. Maar je kunt ze ook allemaal overslaan behalve public key cryptographie want die valt nog door een leek te begrijpen. Met die video plus de laatste over Bitcoin kun je het wel ongeveer snappen.

Public key cryptography - Diffie-Hellman Key Exchange

Public Key Cryptography: RSA Encryption Algorithm

Hashing Algorithms and Security - Computerphile

Elliptic Curve Cryptography Overview

Elliptic Curves - Computerphile

The Trust Machine: The Story of Bitcoin

[Reactie gewijzigd door Kain_niaK op 10 juni 2018 08:30]

Er klopt ergens iets niet. Die 60 jaar ga je nooit halen.

Zie hier: http://whattomine.com/coi...06&p=250.0&utf8=%E2%9C%93

Meer dan 50.000 jaar op dit moment.
Maakt het solo minen vs het pool minen nog iets uit? Want mijn berekening was via pool mining.

[Reactie gewijzigd door Kain_niaK op 9 juni 2018 13:56]

Je kan ook in een pool minen en geen BTC minen maar betaald krijgen in BTC. Dan mine je dus geen BTC.

Anders zal in een pool minen misschien wel wat beter zijn, maar dat kan het verschil van 60 jaar naar 50.000 jaar niet verklaren. Met of zonder pool, die 60 jaar haal je nooit.
Deze berekening zou ons moeten helpen.

If the global network difficulty is D and the difficulty of shares in the pool is d, then the probability that a share will lead to a valid block is d/D. The reward in this case is B, so the average reward per share is B*(d/D). If the operator's average fee is f (so for example f=0.01 means 1% fee), the average reward miners get per share submitted is (1-f) * B * (d/D).

Ik ben alleen niet zo goe met wiskunde.
Als ik op Google ga zoeken kom ik verschillende berekeningen tegen. Die zitten allemaal ergens tussen de 10.000 en 60.000 jaar. Afhankelijk van wanneer de berekening gemaakt is.

Deze bijvoobeeld:
The hardware comparison page on the (mostly outdated) Bitcoin wiki does not have information on the Titan XP card, but lists around 200 Mhash/s for the GTX 590. A GTX 590 has 1024 CUDA cores, while the Titan XP has 3840. Extrapolating using this, we can estimate the performance at around 750 Mhash/s.

At the current difficulty, that amount of hashrate will let you mine a block on average once per 135000 years. If you use pooled mining, you can get incremental payouts for shares (partial proof of work). You may earn 1 BTC around once per 10000 years, while paying around $2000000 in electricity costs during that time (at 10c/kWh).

So don't. GPU mining has been superseded by FPGA and ASIC mining since around 2013.
Geen willekeurig getal. Zelfs in 10.000 jaar zal je nog niet 1 BTC minen met die GPU. Dat voor die tijd alle Bitcoins al gemined zijn is een ander punt inderdaad.

Deze berekening geeft het aan: http://whattomine.com/coi...06&p=250.0&utf8=%E2%9C%93

Meer dan 50.000 jaar zelfs :P

[Reactie gewijzigd door PilatuS op 9 juni 2018 14:20]

Ik zie er de ironie wel van in dat het ministerie van energie een systeem in dienst heeft met een piek van 15 MW. :+
volgens mij gebruiken ze deze dingen dan ook om simulaties op het nuclear gebied te berekenen, niet om iets te berekenen wat met V en A te maken heeft...
Volgens mij kun je tijd huren om berekeningen te doen en dat is niet alleen nucleair. Dat is zo oldschool.
eigenlijk vind ik dat nog best meevallen. 5 moooie windmolens :)
Die 15000l water per minuut nodig is eigenlijk het volume dat in de watercooling rondgepompt wordt per minuut, dus het is niet zo dat er ergens continu een brandkraan staat te spuiten. Hopelijk gebruiken ze de opgewekte warmte op een nuttige manier.
Zo kunnen ze niet alleen weersvoorspelling berekenen, maar gewoon het weer bepalen. Win-Win of juist niet?
Helaas zal het low grade heat zijn die via het koelwater afgevoerd word. Bij 15 MW en 15 m3/min kom je uit op een opwarming van het water van slechts 14.32 įC. Dan word het erg lastig om die warmte efficient terug te winnen.

Je zou natuurlijk de hoeveelheid koelwater kunnen verminderen zodat het veel warmer uit het systeem komt. Dan kun je die warmte beter terugwinnen. Dat heeft echter ook tot gevolg dat het systeem warmer word wat je niet wilt.
Even snel een rekensommetje 27.648 gpu's x 7,5 Tflops fp64 = 207,36 Peta Flops fp64.

Die IBM Power9-cpu's met 22 cores op 3,1GHz zullen wel als een veredelde switch werken.

In 2020 verwacht ik de eerste Exa Flop fp64 computertje.

We moeten dus nog even wachten tot Skynet in 2029 de wereld overneemt van de mens.
Of wachten tot er een AI is die de vroegere tijdlijn kan monitoren en het bewustzijn van mensen kan transporteren om ons te verhoeden van naderend onheil.

Ok dat heb ik niet helemaal zelf verzonnen, dit plot... 😜
Toch. En ik wel eens benieuwd naar de toepassingen van zo’n supercomputer.

In welke schaalgrootte vraagstukken moet je dan denken? Zijn dat dan meer weermodellen ofzo?
T'lijkt precies een wedstrijd om de snelste supercomputer te hebben en de hoogste petaflops te hebben.
Het lijkt alsof de drang naar research aan het minderen is, want nu gaat iedereen er van uit dat de snelste supercomputer met de hoogste petaflops veel sneller research kan doen, zodat dat land dus het eerste er in slaagt om dingen op te lossen. Voegt men dan nog de AI aan toe (zoals Sophia de robot) dan beschikt men over een Terminator?
Zo dat is snel, die wisten zeker al dat Google de samenwerking aangaande AI ging stopzetten met hen. xD

En nu weer vrolijk verder knutselen aan de ondergang der mensheid, we moeten toch 'n keer zo'n filmscenario in het echt meemaken toch?
Dat was het ministerie van Defensie, niet die van energie.
Die hebben hele nauwe banden. Het DoE gaat bijv. over de verwerking van nucleaire materialen, ook voor kernwapens.
Bijna toevallig ja.

Deze is supercomputer is opgezet met het idee dat er door verschillende partijen ‘gebruik’ van kan maken, maar het zou me niet verbazen dat een deel van power achter de hand wordt gehouden voor eigen projecten.
Iets met Crysis....
Dit blijft toch ook echt wel mooi spul.
Ik vind de grap oud worden :X
Dat mag ook wel, het spel komt immers uit 2007!
Niks mis met een stukje droge worst en ach hij zegt wat we allemaal denken. Het internet mag soms ook leuk zijn. :o
Nou ik denk het allang niet meer... technisch gezien kan het crysis met gemak runnen, praktisch gezien is de hardware er niet voor ingericht en de software er niet op afgestemd.
Dan ben je van na het 'Beowulf cluster' tijdperk..
hahaha, was ook het eerste wat bij me opkwam….but can it run Crysis?? :D
15 Megawatt verstoken om bv. het weerbericht te berekenen wat toch niet klopt.
Dit is niet alleen om een simpel weerbericht te berekenen. Hiermee kunnen ze bijv. complexe modellen en simulaties maken van het universumen nog veel meer.
De NSA heeft waarschijnlijk eigen apparatuur.
Vind je mijn redenering zo abnormaal dan ? Dat men dan eens echte realistische problemen oplost. Het weerbericht zien we wel, want hoe vaak zijn die voorspellingen juist ? En wat betreft simulaties over het universum... dat noem ik energie en tijdverspilling want dat zijn zaken waar niemand werkelijk wat aan heeft. Hoe belangrijk kan het zijn om te weten dat een lichtpuntje op 5 miljard lichtjaar een beetje verschoven is, en sterker nog, als je dat weet, wat ga je er dan aan doen ?
Dat ze er ziektes mee kunnen oplossen, daar ben ik uiteraard helemaal voor, de rest is compleet onbelangrijk. De aarde blijft heus wel verder draaien en de oorlogen los je er ook niet mee op.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True