Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 97 reacties

Japan is begonnen met de bouw van een supercomputer met een rekenkracht van één exaflops, oftewel een triljoen berekeningen per seconde. Als het land dit bereikt, zou het de snelste supercomputer tot nu toe in huis hebben.

De nieuwe supercomputer, die nog geen naam heeft, vervangt na afronding de 'K'-supercomputer. Die heeft een rekenkracht van 10,5 petaflops. Ter vergelijking: duizend petaflops staan gelijk aan één exaflops. Een exaflops houdt een triljoen drijvende-kommaberekeningen per seconde in en een petaflops staat voor een biljard flops. De computers staan onder het beheer van het Japanse onderzoeksinstituut Riken. De nieuwe supercomputer zal net als de oude gebruikt worden voor wetenschappelijk onderzoek.

De huidige snelste supercomputer ter wereld staat in China en heet de Tianhe-2. Die heeft een rekenkracht van 54 petaflops. Riken verwacht dat de nieuwe supercomputer in 2020 volledig in gebruik genomen kan worden, meldt Riken.

(Japan) K Computer

Moderatie-faq Wijzig weergave

Reacties (97)

kilo FLOPS 10^3
mega FLOPS 10^6
giga FLOPS 10^9
tera FLOPS 10^12
peta FLOPS 10^15
exa FLOPS 10^18
zettaFLOPS 10^21

De AMD Radeon HD 7990 van AMD met 6,963 Gflops
6,963/10^(18-9) = 6,963/1.000.000.000

143.616.257,36 maal een 7990 aan rekenkracht

Even voor de verhoudingen ;)

[Reactie gewijzigd door johnkessels87 op 2 april 2014 16:19]

En het zou me verdomd weinig verbazen als ze er GPUs instoppen om die flopjes te halen... Massive parallel... Een generatie of 2-3 vooruit halen ze denk ik de 20 GFLOPS wel, dus dan heb je een paar miljoen van die dingen nodig. De fabrikant die die order scoort is binnen.
Daar gebruiken ze wel wat krachtigere GPU's voor maar die gebruiken ze meestal inderdaad voor supercomputers.

De nVidea Tesla serie bevat al videokaarten die worden aangeduid in een aantal tera Flops.
Als je nagaat dat ze "vroeger" zulke stellingen nodig hadden voor computers die nog niet de helft konden van wat een smartphone vandaag de dag kan, en de wet van Moore een beetje ruim neemt, dan staan computers met zo'n kracht over enkele tientallen jaren misschien ook wel in elke woonkamer.
Je hoort bij dit projecten veel over de hardware en rekenkracht maar draait dit gewoon op Linux of Windows ?
Hoe dan ook erg gaaf en mooie foto :)
Meestal een variant op Linux, of soms een hele lichte Windows voor de kleintjes. Zie Wiki over de Top500, de top is een Lin-only feestje.
Windows is niet zo geschikt voor dit soort toepassingen. Het is te veel als een general purpose systeem gebouwd en daarmee dus eigenlijk voor niks echt exact goed. Daarnaast is het natuurlijk niet eenvoudig aan te passen waardoor je kostbare tijd en energie van je supercomputer in dingen zit te stoppen die je niet wil.
Dit is een machine van meer dan miljard euro (subsidies meegerekend) en "one of a kind". Dus vaak moet er weer vanalles gefixed worden aan besturingssystemen voor ze op zo'n machine werken.

Tegenwoordig is het grotendeels linux maar vaak speciale kernels met kernelextensies. Dus het lijkt totaal niet op wat bij je thuis draait.

Het echte rekengedeelte echter is tegenwoordig vaak GPU's (Tesla's van Nvidia of Xeon Phi's van intel) en hoe ze dat voor deze machine gaan oplossen is mij nog niet bekend.

K computer had in japan gebouwde CPU's maar voor 1 exaflop met hedendaagse technologie zullen ze wel manycores moeten ontwikkelen. Daar draait dan dus geen linux op, op zo'n manycore - hooguit op de CPU's in zo'n supercomputer.

Jammer dat zulke speciale processoren als K computer heeft nooit echt op de markt komen. Ze willen dan altijd direct hun hele investering terughebben als winst op elke CPU.

Zo zet je natuurlijk nooit een CPU op die je exporteren kunt :)

Japan is ontzettend nationalistisch. Het is uitgesloten dat het geen Japans ontwerp wordt terwijl de rest van de wereld 't nooit te zien krijgt anders dan op een paar sheets hoe 't eruit ziet zo'n CPU.

Enige wat we zeker weten daarom is dat hij meer stroom per Tflop zal gaan eten dan wat tegen die tijd in andere supercomputers zit :)
Ik vraag mij af hoe lang het duurt om met een computer zoals deze een encryptie te kraken.
Kraken weet ik niet maar bruteforcen zal alsnog weinig opleveren...

Het bitcoin netwerk is 523988.13 petaflops :) Dat is dus 524x zo snel als de supercomputer die ze in 2020 pas volledig kunnen gebruiken. http://bitcoinwatch.com/

Bbitcoin minen is eigenlijk niks anders dan een sha256 rainbow table maken, oftewel soort van bruteforcen :)
Hangt van de encryptie af, maar een beetje standaard gaat je alsnog een lange tijd kosten. Als het op je thuisbakkie 10^45 jaar zou kosten helpt zo'n computer ook niet, 10^35 jaar is en blijft een hele lange tijd ;)
Dat is op basis van een cheape 128-bits encryptie, toch wel het absolute minimum om serieus genomen te worden. Een stel ASICs is meestal sneller.
wat ik me afvraag als een zelflerend programma de gehele capiciteit van deze "computer" kan gebruiken zou je dan iets kunnen krijgen wat slimmer is als een mens ?
technisch gezien zou het mogelijk kunnen zijn ja.
zou het dan zelfbewust kunnen zijn ? zijn daar papers over te vinden, zo ja : op welke zoektermen kun je het beste zoeken dan ?

offtopic : dat zou wel heel cool en geriezelig tegelijk zijn, een computer die zelfbewust is en slimmer is dan een bult mensen bij elkaar :O
Wat dbhuis hieronder zegt zal dat niet gauw gebeuren. Om een machine een gedachte te geven moet een mens een (complexe) "formule" schrijven hoe en waarop gereageerd wordt, en hoe daar mee omgesprongen wordt. Al het denkvermogen dat een machine dus kan hebben, moet van te voren door een mens zijn ingevoerd. Daar is je grens, denk ik.
probleem is dat we momenteel alleen DENKEN te weten hoe het brein werkt....we weten het eigenlijk helemaal niet, derhalve kan je een dergelijke computer nooit volledig zelfstandig laten "denken", hij voert alleen van te voren aangegeven patronen/formules uit!
Klopt bAr. Hoe kan een computer nu een eigen karakter ontwikkelen? Dat kan niet, de mens geeft bij voorbaat al de antwoorden en de mogelijkheden om antwoorden op te sporen beschikbaar gesteld.

Het blijft een vraag antwoord situatie. De situatie dat een computer kan filosoferen is het moment waarop een computer daadwerkelijk zelfbewust is.

Als we Cosmos: A Spacetime Odyssey mogen geloven, dan zijn alle ontwikkelingen die ons gemaakt hebben tot wat we zijn voordelige fouten en toevalligheden. En door gebruik te maken van die voordelige fouten en toevalligheden hebben we onszelf en de organismen en omgevingen om ons heen onbewust in ons belang gemuteerd. Nu zijn we daadwerkelijk in een stadium dat we realiseren waar we toe in staat zijn en zetten we de evolutie nog meer naar onze hand.

Ons zelfbewustzijn zou het resultaat van een fout in het kopiëren van DNA moeten zijn. Door DNA zijn wij in staat om zelfbewust te zijn. Kunnen wij, de producten van DNA, zelf iets creëren dat zelfbewust zal zijn?

Ik denk dat we daarvoor eerst de mysterie rond de mens volledig moeten onthullen. Tot die tijd blijven computers uit de kluiten gewassen rekenmachines.

Interessant.. :)
Als we Cosmos: A Spacetime Odyssey mogen geloven, dan zijn alle ontwikkelingen die ons gemaakt hebben tot wat we zijn voordelige fouten en toevalligheden.
Een interessante stelling. Vooral ook omdat het niet per se onmogelijk is om van hieruit een analogie naar computers te trekken.

Stelling: DNA is voor levende wezens wat cource code is voor programma's.
Beide vormen een soort van 'blauwdruk' van waaruit iets opgebouwd kan worden.

Stelling: het is technisch haalbaar om programmatuur te maken die zichzelf voortplant.
In de meest simpele vorm kan dit door een programma te maken dat zijn eigen bestanden, of door een programma te schrijven dat zijn eigen source code as uitvoer geeft, zodat deze aan een compiler doorgegeven kan worden.

Om een programma te maken dat kan evolueren heb je nog twee aspecten nodig:

1. Bij het voortplanten / kopieren moeten er toevallige fouten/wijzigingen gemaakt worden bij het 'voortplanten' van het programma.
Ik neem aan dat dit goed mogelijk moet zijn met behulp van een (pseudo-)random number generator, maar dat een behoorlijk deel van de resulterende programma's niet meer 'levensvatbaar' of 'vruchtbaar' zal zijn.

2. Er moet een vorm van selectie plaatsvinden.
Waarschijnlijk zal dit uiteindelijk de beperkende factor zijn in het maken van een evoluerend programma.
Een programma zoals hierboven beschreven (dat zich kan 'voortplanten', en hierbij toevallige variaties doorvoert in zijn source code) zal alleen op een zinvolle manier evolueren wanneer er een zinvolle selectie plaatsvindt.
Of dit genoeg ruimte voor evolutie laat om iets te ontwikkelen dat lijkt op een zelfbewustzijn? Ik weet het niet, maar het zou me erg interessant lijken wanneer men het een keer zou proberen.

edit: typo

[Reactie gewijzigd door n-i-x op 3 april 2014 13:29]

Begrijp niet waarom je een plus twee krijgt. Slaat he-le-maal nergens op wat je typt.

Edit: Wiki link doet het hem. Maar die zie ik nu pas.

[Reactie gewijzigd door keepow op 3 april 2014 14:08]

true!!! errug interessant! probleem blijft natuurlijk dat alle door mensen gemaakte software fouten bevat, en als we AI software schrijven die zelf hun fouten oplost, is het in den beginnen nog steeds de menselijke fout waarop doorgeborduurd wordt.....tis allemaal zo ingewikkeld!
probleem is dat we momenteel alleen DENKEN te weten hoe het brein werkt....
Wat je misschien vergeet is dat we niet perse hoeven te WETEN hoe het brein werkt. De natuur WEET ook niet hoe het brein werkt ("de natuur" is immers geen zelfbewust wezen, maar een proces, tenminste voor zover wij dan weer weten).

Je kunt dus theoretisch een brein laten groeien gewoon door maar genoeg "interacties" te simuleren. Omdat we niet miljoenen jaren willen wachten zullen we wel proberen het geheel iets slim bij te sturen, maar ook dan hoeven we niet noodzakelijkerwijs 100% te weten hoe iets werkt om het te kunnen laten "groeien".

Evolutionaire en genetische algoritmes werken op deze principes en dat is een heel eigen sub-gedeelte van de AI research. Daar komen vaak de meest wonderlijke dingen uit zonder dat je als wetenschapper echt goed snapt waarom het nou precies werkt.
Jij laat je beperken door onze manier van denken. Computers die zelf programmacode kunnen schrijven op basis van externe input, zonder afhankelijk te zijn van onze input of goedkeuring, die leren misschien heel andere dingen, op een andere manier. En als ze ook nog middelen als grondstoffen, energie, robots of fabrieken onder controle hebben, dan kunnen ze hun eigen leven gaan leiden. Het hoeft niet te zijn dat zij een zinvolle conversatie met ons kunnen voeren, maar als wij de controle kwijt zijn, dan kun je gerust zeggen dat ze een zeker bewustzijn hebben.
Probleem is dat er ALTIJD menselijk programmeerwerk aan vooraf gaat, ofwel om de AI zelf aan te sturen.....danwel om verschillende taken te routeren....en in menselijk programmeerwerk zitten ALTIJD fouten....en met deze fouten zal de AI verder gaan ontwikkelen....op basis van de fouten dus!

maar de toekomst zal het ons leren! ;-)
Als we het brein zouden simuleren tot op het niveau van elektronen dan zou je in principe (ervan uitgaande dat kwantummechanica geen invloed heeft in de orde van grootte van ons denkvermogen) een werkend brein moeten hebben, het enige dat je dan moet programmeren zijn de natuurwetten.
huh hoezo dan, ik weet dat er ook al computer programma's zijn die hun code aanpassen terwijl ze draaien trek dit door met de ontwikkeling van AI en ik zie geen probleem tot het ontstaan van een soort van bewustzijn ?
Puur hypothetisch gezien zou een computer natuurlijk zelf zijn formules kunnen uitbreiden aan de hand van input uit externe bronnen en hierop zelf een gedachte gang kunnen maken. Mogelijk maak je dan een zelf denkende/functionerende machine misschien?

Wij mensen hebben onze eigen wil maar starten ook met het oppikken van externe manieren van reageren uit externe bronnen (kinderen agressieve ouders zullen sneller dit gedrag overnemen) naast de bass instructieset die we hebben van instinct.

Of het ooit kan, of dat men het ooit wilt proberen op iets dat verder kan kijken dan zijn eigen 'machine' is nog maar de vraag.

Ook denk ik dat wij eerder machines worden dan de machines mens.
Quote ultimasnake:
Ook denk ik dat wij eerder machines worden dan de machines mens.

Antwoord: Dacht het niet.
De machines worden steeds intelligenter.
De mens echter steeds stommer.
Het verschil wordt dus steeds groter....
Tenzij het zelf extra code kan schrijven als het ontdekt dat er behoefte is aan andere functies.
zou het dan zelfbewust kunnen zijn ? zijn daar papers over te vinden, zo ja : op welke zoektermen kun je het beste zoeken dan ?
Zoek eens naar het Human Brain Project. Een paar maanden geleden was er een praatje van iemand die daaraan werkt bij het Studium Generale op de UT. Die gast had het erover dat ze aan het einde van het project (na 10 jaar) wel in staat zouden zijn om, in software, een brein met dezelfde orde grootte aan neuronen als een mensenbrein te simuleren.

Dit houdt echter nog lang niet in dat het apparaat op dat moment alles kan wat een mens kan, sowieso hebben we het niet over real-time. Een ander probleem is dat een volledig functionerend computer brein een vergelijkbaar connectome moet hebben als een mens (het gaat hier om verbindingen tussen individuele neuronen.)

Of die machine zelfbewust gaat zijn weet niemand, maar ik schat die kans erg klein in. Voor zover ik het kan overzien is het momenteel volstrekt onmogelijk om een volledig connectome in kaart te brengen.

Edit: wat de bron van bewustzijn is is een onderwerp van levendige discussies, mogelijk kom je verder als je op dingen als materialisme zoekt. Dit gaat meer de filosofie kant dan de techniek kant op, maar misschien kun je er iets mee. Ik link Wikipedia want dat is makkelijk, maar met die informatie kun je zelf vast wel het een en ander vinden.

[Reactie gewijzigd door Blubber op 2 april 2014 17:07]

De verwachting is dat we over 15 jaar zo ver zijn volgens Ray Kurzweil (=Google's hoofd van artificial intelligence):

http://www.mirror.co.uk/n...ts-smarter-humans-3178027
Als je het neurale netwerk van een brein kan simuleren op dezelfde schaal met perceptrons dan zou het moeten lukken ja. Afgezien van alle chemische reacties die plaatsvinden in je hersenen zou je met re-enforcement learning een soort intelligentie kunnen maken. Het probleem zit 'em in het toedienen van genoeg leer materiaal.

Zelf heeft een mens wat jaartjes nodig om het een en ander te leren dmv trial and error. Dit zou je kunnen simuleren op een super computer maar dan heb je genoeg leer materiaal nodig en daar zit je bottleneck.
Quote Ortixx:
Als je het neurale netwerk van een brein kunt simuleren op dezelfde schaal met perceptrons dan zou het moeten lukken ja.

Antwoord: Heel veel jaren geleden, in de beginperiode van Dos naar Windows,hadden Shell en KLM al een programma om een neural netwerk te trainen.
Zelf heb ik dat toen via via ook gekocht (import USA). Het programma heette: BRAINMAKER.

In tegenstelling tot artificial intelligence programma's, gebaseerd op nullen en enen (ofwel ja ofwel nee etc. etc.), bestond dit programma uit een training zoals je dat aan een aap of een klein kind gaf. Eerst leerde je dat programma vormen te herkennen, zodat een mislukte driehoek (niet helemaal dicht en met wat kronkelige lijnen) ook uiteindelijk als driehoek werd herkend. En een boom die niet goed was afgebeeld, toch ook als boom werd herkend. Zelfs al waren de bladeren niet groen...
De waarschijnlijkheid van het goede antwoord kon je instellen naar een percentage, zodat het programma kon leren inschatten, op een radar b.v., welk soort vliegtuig er aan kwam vliegen. Of welk soort afweersysteem Sadam Hoessein gebruikte. Piloten in gevechtsvliegtuigen konden niet zo razendsnel de inschatting maken of er in de woestijn een afweerinstallatie stond met raketten of iets anders. Dat deed zo'n programma voor hun afhankelijk van het ingestelde percentage.
Uiteindelijk heeft men op papier 40 % meer installaties vernietigd dat Sadam had...
Dat is de consequentie van de instelling op 80 % zekerheid. Een kartonnen installatie met afval ijzer er onder verborgen, gaf aan dat programma de noodzakelijke informatie om een raket af te schieten (zo slim was Sadam toch nog wel dat hij daarvan gebruik maakte) en die installatie te vernietigen.
Dat is nu eenmaal de afweging die men moet maken in zulke gevallen.
Voor andere doeleinden is een instelling van een veel hoger percentage noodzakelijk.
Kortom: Zo'n "neural netwerk" programma, gekoppeld aan een supercomputer, zal ons op veel gebieden voorbijsuizen.
Daar is een computerschaakprogramma (Houdini 4, Stockfisch etc.) niets bij vergeleken, niettegenstaande ze nu al de menselijke wereldkampioen op één been gemakkelijk kunnen verslaan.
Maar het is griezelig als je er over nadenkt. Want vergeet niet, Philips b.v. gebruikt al vele jaren robots, die robots uit elkaar halen, om later die onderdelen weer te gebruiken om andere robots te maken, die dan weer andere producten maken.
Ooit een interessante lezing hierover gehoord.
Laten wij nu eens aannemen dat er robotten, die intelligenter zijn dan de mens, de mens als een gevaar voor de aarde (of voor de ruimte) gaan zien.....
De vraag is dan of wij deze robotten (want dat zijn het, of ze direct kunnen bewegen of niet, ze kunnen zich laten vervoeren...) dan nog kunnen stoppen. Ze beheersen indirect al onze electriteitvoorziening, onze watervoorziening en onze netwerken. NOG WEL gecontroleerd door de mens.....die daarnaast ook nog eens afhankelijk is van voeding.

[Reactie gewijzigd door The dynamic Fox op 3 april 2014 20:03]

Dit is dus technisch totaal niet mogelijk. En hoe definieer je slim?
Volgens Intel zouden we in 2026 theoretisch genoeg processing power kunnen hebben om een menselijk brein te evenaren. Maar dat is het technische aspect dan moet je nog een zelf lerend A.I schrijven die een vorm van zelfbewustzijn emuleert.
En degene die dat kan is de volgende Einstein/Newton. (en wellicht de ondergang van de mensheid ==> Skynet :+ )

Exa, die was ik nog niet eerder tegengekomen. Weer een nieuwe orde van grote.
Hoeveel flops zou de eerste quantum computer doen?
De orde van grootte bestaat al geruime tijd hoor (Ik meen rond 1990), na Exa komt overigens Zetta wat staat voor Triljard. Na Zetta komt de laatste in de reeks en tevens de grootste Yotta, welke staat voor 1 quadriljoen 1024 _/-\o_ . Dit zijn de laatste drie benamingen van de officiële reeks. Nou is er nog zo'n mafkees geweest die de Googolplex bedacht heeft 1010100. Beetje overdreven maar ja.

Terug on-topic, geweldig om dit te zien. Wie had de groei van computers ooit zo verwacht!? Ik zat op school op een 33Mhz computertje te spelen, en dat was nog met de turbo knop aan 8-). Ik hoop dat ik de komst van de Zettaflops super computer nog mee mag maken :).
Men heeft enige tijd geleden al gespeculeerd aan de hand van de huidige ontwikkelingen en wat petaflops computers kunnen, dat exascale computers inderdaad in staat zijn tot kunstmatige intelligentie welke richting het niveau van de mens gaat.

Maar dit is nog steeds een lineaire computer en het menselijk brein is een neuraal netwerk wat daar niet mee te vergelijken is. Lineaire computers moeten vele malen meer berekeningen uitvoeren dan een neuraal netwerk om tot het zelfde te komen. Alleen zijn lineaire computers veel sneller in exacte berekeningen, zoals floating point ops.
De rekenkracht die nodig is om een menselijk brein te simuleren wordt geschat op ongeveer een exaflop....
Wat is slim? Ja, qua feitenkennis kan het. Maar denken kan het ding nooit.
oke ik snap je punt, een computer kan heel slim zijn als je het definieert alszijnde feitenkennis kunnen opdreunen maar ik bedoel is deze computer dan bewust van zichzelf kan die zich ontwikkelen leren en aanpassen aan situaties communiceren en bovenal zal die een karakter/persoonlijkheid moeten hebben en kunnen ontwikkelen wil je iets intelligent noemen. (lijkt me)
Maar denken kan het ding nooit.
Waarom niet?

Ons brein is ook ontstaan door domme interacties van domme atomen. Daaruit zijn moleculen en structuren geëvolueerd en die heeft uiteindelijk (miljoenen jaren) geleid tot een brein zoals we nu hebben, maar al in een veeeel eerder stadium waren er organismen die ook wel degelijk een brein hadden.

Er is geen enkele natuurkundige reden waarom zo'n brein zich ook niet zou kunnen vormen door interacties die binnen een digitale wereld plaatsvinden. De enige reden waarom het niet zou kunnen is religieus van aard; als je gelooft in een opper wezen en een ziel etc (er is inderdaad ook geen bewijs dat dit pertinent niet zo zou zijn, maar het is wel lastig waar de grens te trekken. Heeft een hond ook een ziel? En een insect? Een bacterie? Een virus?)
De K supercomputer, wat dus de voorloper is van deze supercomputer kon 1% van het menselijk brein simuleren. Deze nieuwe computer is bijna 100 keer sneller, zou die dan in staat zijn 100% van het menselijk brein te simuleren?

Fascinerend...
Ik denk eerder diezelfde 1% maar dan 100x sneller (of 2% en 50x sneller of daaromtrent).
Het menselijk brein is nog te complex om volledig te simuleren (en zelfs te begrijpen), dus het zal wel even duren voor we dat met een supercomputer kunnen nabootsen. Er is meer dan pure rekenkracht.
Je hebt gelijk, er werd geen denkproces gesimuleerd alleen de onderlinge verbindingen en dan ook nog arbitrair. Het brein is nog ietwat complexer dan we momenteel in eentjes en nulletjes kunnen vangen.
dat vroeg ik me dus ook al af !
Herhaling van mijn reactie een eind hierboven:

Men heeft enige tijd geleden al gespeculeerd aan de hand van de huidige ontwikkelingen en wat petaflops computers kunnen, dat exascale computers inderdaad in staat zijn tot kunstmatige intelligentie welke richting het niveau van de mens gaat.

Maar dit is nog steeds een lineaire computer en het menselijk brein is een neuraal netwerk wat daar niet mee te vergelijken is. Lineaire computers moeten vele malen meer berekeningen uitvoeren dan een neuraal netwerk om tot het zelfde te komen. Alleen zijn lineaire computers veel sneller in exacte berekeningen, zoals floating point ops.
Als deze in 2020 gaat worden opgeleverd, kunnen ze nog niet eens een vaag idee hebben met wat voor soort hardware ze te maken hebben. Hoewel het mooi is dat ze hiervoor willen gaan, vraag ik me af of ze hard kunnen maken dat de 1 exaflops ook daadwerkelijk gaat lukken.
Toch wel, voordat je zoiets bouwt of zelfs maar ontwerpt moet je de hardware al ongeveer weten. De precieze specs verschillen misschien nog iets, maar ruwe schattingen zijn prima mogelijk. Dat die specs niet overal rondgestrooid worden is iets anders, maar de fabrikanten van dit soort bakken hebben leuke deals met de chipbakkers die de volgende generaties ontwerpen, zodat ze op tijd de ondersteunende hardware kunnen maken. Het volledig from scratch ontwerpen van een chip kost rustig 3 jaar, zo niet het dubbele. Synchronisatie zorgt dat alles ongeveer op tijd de deur uit kan.
1 exaflop in 2020 lukt met 2 vingers in de neus.
Een belangrijke kanttekening bij dit soort berichten is dat veel supercomputers stuntmachines zijn: Ze gebruiken bijvoorbeeld GPU's om grote aantallen flops te behalen, terwijl een grote meerderheid van de programma's voor dit soort computers niet zonder meer op een GPU kan draaien. Linpack (de benchmark voor de Top500 van krachtigste computers) wel en daarom zijn de op papier een stuk krachtiger dan in praktijk.

De Tianhe-2 is zo'n stuntmachine, hij beschikt over een ziekelijk aantal Xeon Phi-acceleratoren. De K-computer was geen stuntmachine. Hij bevatte een enorm aantal processoren verbonden via een hyperkubusnetwerk. Die hyperkubus had wel een lastige eigenschap: processoren dichtbij benaderen was goedkoper dan processoren ver weg, programmeurs hielden daar best rekening mee. Maar het was niet zo dat er portering van programma's naar de GPU voor nodig was, in beginsel kon ieder programma recht-toe recht-aan gedraaid worden.

Ik ben benieuwd wat deze nieuwe Japanse computer gaat doen: Door velen werd beweerd dat het onmogelijk was een prestatie van 1 exaflop te bereiken zonder acceleratoren. Vraag is of deze Japanse computer die heeft en zo ja, zitten ze er puur in om hoog te scoren in de Top500, of zijn ze gemakkelijk praktisch te gebruiken?
Wat een BS verhaaltje.

Die Chinezen haalden al 50% efficiency uit gamerscards GPU's in 2007. Zie postings op de beowulf mailing lijst van destijds. Op dat moment haalde nog bijna niemand 50% efficiency uit die generatie GPU's. Bij experimenten waarbij betere codes gebruikt werden, zelfs voor de gamerscards, viel 70% efficiency zonder problemen te halen destijds. Zie: http://www.cs.berkeley.edu/~volkov/

Hedendaagse manycores, en de Xeon Phi is net zo'n manycore praktisch gesproken als de Tesla's zijn, die zijn wat simpeler te programmeren, doordat meer threads gealterneerd worden - haal je veel simpeler de volledige efficiency van de Tesla's/Xeon Phi's.

De Tesla's zijn dan ook stevig lager geklokt en heel wat minder cores dan de snelste hoogst geklokte gamerscard. Op dit moment is er zelfs factor 2.5 verschil tussen de 2 gpu Titan Z black edition versus de snelste tesla, in 't voordeel van de gamerscard (die dan wel een slordige 3000 dollar kosten gaat naar verwachting, ook geen kleinigheid) . De tesla's natuurlijk uitgerust met ECC wat voor een manycore enorme belasting is (tenslotte heeft de GDDR5 al een ingebouwde CRC, die je iets zou kunnen uitbouwen voor systeembeheer - maar dan heb je nog geen ECC).

Idemdito voor de Xeon Phi.
Dat zijn echt speciale manycores gebouwd voor de wetenschap hoor!

Doen alsof Tianhe-2 niet effectief benut wordt is simpelweg de huidige realiteit ontkennen.

De grootste berekeningen zijn tenslotte bijna zonder uitzondering matrixcalculaties en die gaan HEEL EFFICIENT op deze joekels van supercomputers.

De enige kritiek die je WEL kunt uiten op Linpack is dat je niet zo'n enorm goed netwerk nodig hebt voor linpack. Het infiniband netwerk dat de meeste supercomputers hebben is vele malen beter dan pak 'm beet gigabit ethernet, terwijl het verschil tussen een supercomputer met gigabit ethernet en infiniband FDR van Mellanox, maar rond factor 2 is in die benchmark,
terwijl het natuurlijk niet eens in dezelfde ORDEGROOTTE valt (de gigabit is bijvoorbeeld niet DMA dus geeft de cpu's een knal voor elke message die verstuurd wordt, afgezien dat FDR infiniband factor 50+ sneller is qua bandbreedte en factor 100+ sneller in latency).

Daar komt bij dat Tianhe-2 eigen interconnects heeft die aanzienlijk meer bandbreedte leveren dan wat JIJ wellicht ziet als supercomputers.

Tianhe-2 is veel meer supercomputer dan enig ander computer op deze planeet zou ik willen stellen, WANT de interconnects hebben veel grotere bandbreedte per Tflop dan de meeste andere supercomputers die je wel voor vol aanziet.
Die efficiency van 70% van een GPU is... gemeten met Linpack?

Heb je al eens geprobeerd een praktische applicatie op een Phi te draaien? Je kunt een willekeurige applicatie voor de Phi compileren, maar dan moet je 'm 1 GB geheugen persen. En er zijn niet zoveel praktische applicaties die dat kunnen. Lukt je dat wel, dan zit je met het probleem van efficiënte communicatie tussen Phi's.

De Phi's van de Tianhe-2 zitten daarom grotendeels idle, omdta mensen de CPU's gebruiken. En daarmee stel ik dat de machine niet effectief benut wordt.
hoe lang zou het duren voordat deze rekenkracht in een iPhone zal zitten? :)
Never nooit, want dat is nutteloos.
Mooi voorbeeld, en ik snap je punt. Maar er is ook nog zoiets als nuttigheid. De ontwikkeling van resoluties van beeldschermen van CGA-EGA-Hercules-VGA-enz naar full HD en verder is wel aan zijn nuttige eindpunt. 24' voor een full HD, of 2560*1440 voor 27" is genoeg, en de bereidheid om nog meer geld uit te geven zal er voor veel mensen niet meer zijn. Ook de resuluties van telefoons en tablets heeft wel zijn nuttige eindpunt bereikt. (Ik gebruik naar volle tevredenheid een IPad 1 en een Nexus 7). Wat betreft processorcapaciteit hoeft het ook niet meer zoveel sneller, liever zuiniger, en flexibeler. Qua storage val er nog wel een slag te maken: liever 2*100Tb gespiegeld, dan een server met 30*4Tb. Liever een SSD van 10TB, die ik in mijn borstzak kan meenemen, en nog liever een echt veilige cloudoplossing, zelf regelbaar, in een pool van vrienden.
Dit geldt w.m.b. natuurlijk voor "de" consument. In de wetenschap zal er almaar meer capaciteit komen, en nuttig worden gebruikt.
daar heb je gelijk in. Ik denk inderdaad ook dat die ontwikkelinscurve steeds meer zal afzwakken in de toekomst. Zeker als je kijkt hoe de ontwikkeling in de laatste 20 jaar was, die sprongen zullen in de toekomst niet meer gemaakt worden hoogstwaarschijnlijk.
Tegen die tijd dat dat mogelijk zou zijn zijn we allang van die mobiele telefoons af.
Dat is een vlotte(nde-komma*) computer zeg! Dat is bijna 20 maal zo snel als de snelste op dit moment... een fikse prestatie!

* dat had natuurlijk een zwevendekomma (of nog beter gewoon 'floating-point') moeten zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True