Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Submitter: Rebellious

Japan heeft plannen bekendgemaakt voor de bouw van een supercomputer met een theoretische snelheid van 130 petaflops. Daarmee zou deze hoger liggen dan de theoretische snelheid van de Chinese Sunway-TaihuLight van 125 petaflops. Dit systeem staat momenteel op nummer een.

Het is onduidelijk of het systeem bij de oplevering daadwerkelijk op de eerste plaats van de lijst met 's werelds krachtigste supercomputers zal staan. Persbureau Reuters schrijft op basis van bronnen dat de bouw van het systeem op zijn vroegst ergens in 2017 moet beginnen. Momenteel is de Chinese tegenhanger nog de krachtigste variant met een daadwerkelijke snelheid van 93 petaflops, maar de ontwikkelingen op het gebied van supercomputers volgen elkaar snel op. Zo kondigde China onlangs de bouw van een systeem aan dat tussen de 930 petaflops en 1 exaflops moet behalen.

Met de bouw van het Japanse systeem is volgens Reuters ongeveer 19,5 miljard yen gemoeid, omgerekend komt dat neer op 162,5 miljoen euro. Japan zou de rekenkracht van een dergelijk systeem willen inzetten voor onderzoek naar kunstmatige intelligentie, naast het ontwikkelen van zelfrijdende auto's en het analyseren van medische gegevens. De naam van het nieuwe Japanse systeem is 'AI Bridging Cloud Infrastructure', oftewel ABCI. De Chinese TaihuLight wordt onder andere gebruikt voor weersvoorspellingen, farmaceutisch onderzoek en industriële ontwerpen.

Momenteel is de krachtigste supercomputer in Japan in gebruik bij het 'Joint Center for Advanced High Performance Computing', dat in 2013 door twee universiteiten is opgericht. Dat systeem, de Oakforest-PACS, is in staat een theoretische snelheid van ongeveer 25 petaflops te behalen en is gebouwd door het Japanse Fujitsu.

Eerder dit jaar maakte de Europese Unie bekend in 2020 twee prototypes van supercomputers gereed te willen hebben, waarvan er een in de top drie van de wereld moet staan. Daarmee wil de EU zijn achterstand op hpc-gebied inhalen. De meest efficiënte supercomputer is recentelijk gebouwd door Nvidia en draagt de naam SaturnV. Deze is goed voor een theoretische snelheid van 4,9 petaflops, wat in praktijk neerkomt op 3,3 petaflops.

Moderatie-faq Wijzig weergave

Reacties (58)

Wat zouden ze hier dan me willen doen behalve een soort AI controle computer maken of een hoop gegevens aftappen. Of kijk ik teveel films 8)7 :?
Met een super computer ga je geen data aftappen daar heb je geen krachtige computer voor nodig.

Momenteel heerst er een soort wapenwedloop betreft computers. Voor encryptie is het namelijk zeer interresant.

Echter hebben voornamelijk universiteiten baat bij dit soort computers. Simulaties van alle mogelijke dingen die je kan bedenken van lichaams cellen tot de deeltjes bij cern je kan er gif op in nemen dat dit door een super computer gedaan wordt.

Nu moet je een super computer eigenlijk vergelijken met een porsche of een ferrari. Ze zijn verrekte snel maar je kan er niet (goed) mee rijden in de bamboo daarvoor kun je beter iets anders gebruiken
Het ligt er ook erg aan hoe de supercomputer opgebouwd is, want je simulatiesoftware moet er wel specifiek voor gemaakt worden, en zal je waarschijnlijk(zoals bij elke PC) nooit de volledige snelheid benutten.
Dit soort computers woorden over het algemeen gebruikt voor wetenschappelijke doeleindes. Een aardig voorbeeld uit eigen huis is bijvoorbeeld het zoeken naar de relatie tussen veel voorkomende puntmutaties in het DNA en de mate van gen expressie. Als je bedenkt dat ieder mens enkele miljoenen van dergelijke mutaties draagt, een gen of 10.000 per verschillend weefsel tot expressie brengt en er inherent veel (biologische) ruis in die gen expressie spiegels zit, is het aardig om toegang te hebben tot een groot rekencluster. Nou kan ik me voorstellen dat er in andere natuurwetenschappelijke stallen nog veel grotere berekeningen gedaan moeten worden (denk aan particle simulations of het weer voorspellen), en dat al die Japanse petaflops dus meer dan welkom zijn.

Het trainen van een complex AI behoort ook tot de mogelijkheden, maar zelfs die zal je dan moeten zoeken in de wetenschappelijke hoek. :)
Ze zouden hem moeten gebruiken voor aardbeving simulaties en voorspellingen e.d. gezien de huidige gebeurtenissen. ;)

[Reactie gewijzigd door Tourmaline op 26 november 2016 12:30]

Je moet gewoon geen kerncentrales bouwen in aardbevingsgebied (en geen woonblokken op lage hoogte aan een kust); hoe gedreven kan je zijn inzake je inkomen en machtsvertoon, ongeacht gevolgen voor milieu en veiligheid? D'r is in Japan een kerncentrale die gewoon op een aardbreuk staat. Een wetenschapper protesteert hard maar 't mag niet baten; hij heeft geen inspraak.
Een supercomputer inzetten om aardbevingen te proberen te voorspellen helpt geen bal als de mentaliteit van de bazen niet veranderd. En zolang we veel rechtsdenkende kiezers hebben bij wie geld en economie belangrijker zijn dan milieu en veiligheid, houden we die mentaliteit bij de bedrijfsleidingen in stand.
Veel leiders geven geen ene zier om wat de wetenschappers zeggen; kijk bijv. naar Trump. Zolang ze masr ongestoord macht en geld kunnen vergaren, en vrouwen in 't kruis kunnen grijpen. Dàt zijn bepalende factoren; niet wat een wetenschapper roept aan de hand van cumputeranalyses.
Ik weet niet of je het weet maar heel japan zit vol met actieve vulkanen. ;)

Dus, dat lijkt mij wat moeilijk gaan.
Precies, daarom moet je daar ook geen kerncentrales bouwen... ;)
Maar een kerncentrale op een breuk zetten is wel extra stom.
Ook niet aan de kust zetten, want men is toch te lui/gierig om een stevige heuvel van 50m hoog te bouwen waar zo'n centrale dan op komt te staan. (Zo'n heuvel bouwen is natuurlijk erg duur; en dat strookt weer niet met de valse beloftes van de betreffende industrie en politici dat kernenergie zo goedkoop is.)

[Reactie gewijzigd door kimborntobewild op 30 november 2016 14:15]

(...)
Het trainen van een complex AI behoort ook tot de mogelijkheden, maar zelfs die zal je dan moeten zoeken in de wetenschappelijke hoek. :)
Kunstmatige Intelligentie is een WO opleiding in Nederland, dus dat woord zelfs mag gewoon weggelaten worden.
Het staat nota bene in het artikel waar ze het voor willen gebruiken! Ik zie steeds vaker reacties waarvan het duidelijk is dat mensen niet goed lezen voordat ze reageren. Jammer

[Reactie gewijzigd door gjmi op 25 november 2016 23:48]

|:( |:( |:( Sorry. Ik las het even globaal door.. toen ik thuis was en het artikel weer las toen zag ik het ook. Maar toen had ik al wat reacties
Dan reageer je pas wanneer je het artikel helemaal gelezen (en begrepen) hebt? :+
Wat maakt een 'supercomputer' nou zo super? Het zijn in feite toch gelinkte/gekoppelde cpu's met veel geheugen?
Het "Super" zit m tegenwoordig met name in de koppeling tussen alle nodes. Clustering-software ( https://en.wikipedia.org/wiki/Comparison_of_cluster_software ) en speciale interconnect hardware zoals InfiniBand of Torus ( https://en.wikipedia.org/wiki/Supercomputer_architecture ) zorgen ervoor dat duizenden blade-servers samenwerken als één geheel, ipv 'tig computers op een gigabit netwerkje.

De eerste Supercomputers zoals die door Seymour Cray ontworpen zijn hadden inderdaad veel meer custom hardware om het maximale uit de toenmalige techniek te kunnen halen, maar tegenwoordig is de x86-64 architectuur zeer krachtig, zeer schaalbaar en zo goedkoop dat het ook financieel niet meer rendabel is om research geld te spenderen aan custom hardware.

( in theorie zouden bijvoorbeeld de PowerPC of SPARC architecturen veel verder doorontwikkeld kunnen worden voor nog meer performance als wat ze nu uit de Xeons en Opterons halen, maar dit zou zo veel research vergen dat het de kosten niet rechtvaardigt )
Daarom gebruiken ze eerder de Tesla processoren uit een GPU bv.
Die zijn meer geschikt voor het ruwe rekenwerk, met de CPU ernaast als facilitator.
Het woordje "super", anders is het gewoon een computer.

Maar inderdaad, het gaat er om om zoveel mogelijk rekenkracht tegelijk beschikbaar te hebben in één systeem met alles wat daarvoor nodig is. Maar het blijft maar één systeem.

[Reactie gewijzigd door Teijgetje op 25 november 2016 23:56]

Dacht dat Japan Energie problemen had? Door al die gesloten centrales :p
Hoeveel stroom trekt zo'n supercomputer eigenlijk?
Zal vast een aardige hoeveelheid zijn.
De huidige 500 supercomputers met de meeste rekenkracht hebben een vermogen van tussen de 100 en 20.000 kiloWatt.

Bron: https://www.top500.org/statistics/efficiency-power-cores/

Je kunt via deze website ook andere statistieken opzoeken en vragen beantwoorden. Bijv. hoeveel procent van de supercomputers draait op windows 10? ;)
Er is 1 super computer die draait op NT, Azure :)

MS is momenteel met een upgrade bezig in Azure, en ze willen super computers as a service aan gaan bieden. Dus ik ben benieuwd of ze deze keer wel hoog de top in komen. Ze staan nu officieel niet eens meer in de top 500.
NT != Windows... (Het is de (micro-)kernel onder windows)
Ja dus? De meeste -zo niet allemaal- supercomputers hebben ook geen volwaardige desktop linux distro draaien.
NT is slechts de helft van een kernel..,
vgl vmlinux minikernel zonder modules.

Bij NT moet er een stukje bij en dan is het een OS, voor de Desktop is dat win32k of 64bit variant. Voor windows, as you know it, moeten er dan nog een hele set userland tools bij.
Enige stukje linux aan de backend van Azure zit in de netwerk switches.

Voor de rest draait het systeem Azure zelf op NT. Alle datacenters van Azure in de wereld zijn 1 groot systeem.

Verder is een Kernel al vrij snel een OS, die Linux super computers draaien ook geen desktop Ubuntu/Debian met gnome of whatever hoor. Is allemaal zo kaal mogelijk met het minimum aan software/services/features die nodig is.

Zodra iets de Linux kernel bevat is het direct "Ja dat draait Linux". Gebruikt het de NT kernel "Ja nee, NT is slechts een kernel" 8)7

die 2 maten ook altijd.
Dat komt omdat Linux ook alleen maar een kernel IS... niet meer en niet minder. Met alleen Linux wordt je niet blij, net zo min als met NT.
Alles wat erbij komt is een ander product. te beginnen bij de algemeen gebruikte C library die erbij hoort. bv. glibc en zonder een, linux-utils en een shell zijn de bijbehorende minimale vereisten.
Kijk eens naar de Linux from scratch distributie, die begin letterlijk met het minimum. Oh in principe kun je uit de voeten met Linux kernel alleen + een programma met de naam "/bin/init" waarbij de C-rtl in dat programma gelinkt is, dat is technisch gezien de eis voor het eerste userland programma....

Er zijn ook andere libc's zoals dietlibc die min of meer in de minimale omgeving voor Userland voorziet met name voor embedded systemen.
Door verschil van inzicht over inrichting en update beleid krijg je dan distributies die een Kernel + Userland werkbaar beschikbaar stellen...
En die grote systemen draaien inderdaad een Linux kernel + glibc + services (hadoop, etc.) net zoals mijn servers thuis ook geen KDE/Gnome etc. draaien en mn laptop en 2 desktops wel KDE hebben... Op mn laptop draai ik dan weer geen webserver/loadbalancer etc.

Voor de grote beesten zal ScientificLinux vermoedelijk aan de basis liggen, op die grond (lijkt op RHEL/CENTOS) zijn ook heel veel pakketten beschikbaar voor gen onderzoek, kernfysica, sterrenkunde etc. etc. veel daarvan hebben alleen maar CPU en Memory nodig + data voeding via net of disks.

Voor Azure zal er OP NT ook een laag gebouwd moeten worden.

En ik hoop om juridische redenen dat Azure niet een geheel is. Als dat het geval is mag op Azure geen persoonlijke data uit de EU meer verwerkt worden want dan zou de Persoonlijke data op oneigelijke gronden buiten de EU verdwijnen. Safe Harbour is niet meer.... En ik ben benieuwd in hoeverre Privacy Shield (Safe Harbour 2.0) het volhoud. Omdat van de 4 gebrekken in Safe Harbour in Privacy Shield het minstbelanrijke gebrek is opgelost. 3 van de grootste bezwaren zijn nog steeds bezwaarlijk.

[Reactie gewijzigd door tweaknico op 2 december 2016 11:42]

Enkele Megawatts volgens mij.
Duizenden kilowatts, zeker als het tegelijkertijd in gebruik is.

Maar is zo'n supercomputer niet stiekem gewoon interessant om vormen van encryptie te omzeilen? Weer, AI en dat soort zaken klinkt me iets te standaard allemaal.
Japanners bouwen snel. Ze hadden laatst ook dat sinkhole in 2 dagen gedicht... :+
Verschillende bronnen rapporteren wat anders:
http://www.ad.nl/buitenla...chts-twee-dagen~ad619723/
http://4nieuws.nl/buitenl...n-slechts-twee-dagen.html
Ik had ook die van 2 dagen meegekregen. Waarschijnlijk het verschil tussen 'ontstaan' en 'gerepareerd'.
Na twee dagen was het gat gevuld maar rijklaar maken ven wegdek en inspecties maakten dat het zeven dagen duurde voordat er weer gereden kon worden.

https://www.theguardian.c...inkhole-repaired-two-days
En hier in Nederland gaan ze een jaar doen over wat haarscheurtjes bij de Merwedebrug.......
in Belgie doen ze daar 5 jaar over en ja ik overdrijf niet
Baas boven baas... :-)

https://www.tsunagujapan....en-japanese-bullet-train/

Extreem hoe ze in dat land (Japan dus) omgaan met afspraken en prioriteiten en vervoer in het algemeen..

[Reactie gewijzigd door DigitalExcorcist op 26 november 2016 20:29]

En hier in NL doen we alsof de NS het goed doet en accepteren we van de NS dat 5 minuten vertraging heel normaal is.
Ja, dat vergelijk wordt vaak gemaakt, maar de keerzijde daarvan wordt meestal vergeten.

De machinisten staan onder zware druk en als ze dus niet op tijd rijden dan worden ze streng gedisciplineerd en moeten ze een zeer vernederende cursus doen. Gevolg hiervan is dat ze om dat te voorkomen soms grotere risico's nemen en er dus al eens een trein de bocht uit gevlogen is omdat de machinist koste wat kost niet terug wilde in die training, met vele doden als gevolg.

Nee dan zou ik liever 5 minuten te laat zijn dan nooit meer ergens aankomen. Ja de NS zou best beter kunnen, maar er is ook een punt waar het ten koste gaat van de veiligheid en daar mag ook weleens aandacht voor zijn.
Terwijl er nog wel (beperkt) gebruik van de brug gemaakt kan gemaakt worden. Met volledige afsluiting zou het sneller kunnen..., al moet het staal ook nog etc. ook nog allemaal geleverd & voorbewerkt worden.

Dus een Brug vergelijken met een gat in de grond is wat apart.
Vergelijk het dan met het Gat in de grond in Amsterdam.
Toen vorig jaar het VU ziekenhuis onder water kwam te staan door een geknapte waterleiding.

[Reactie gewijzigd door tweaknico op 28 november 2016 12:14]

Nou, ander voorbeeldje dan.. kijk eens naar de wegen in België, die zijn al decennia lang onbegaanbaar.

Of kijk eens naar gewone reparaties in Nederland. Soms kun je daar echt weken op wachten. Misschien niet als het een sinkhole midden op de A1 zou zijn, maar 'buiten de randstad' is er totáál geen prioriteit om ook maar *iets* te doen.

Of denk eens even aan Alphen, met dat brugdeel wat op die woningen klapte. Na een jaar gaan ze toch maar eens wat puin ruimen...
Het was binnen 48 uur helemaal klaar inclusief belijning, de inspectie duurde vervolgens nog bijna 6 dagen.
En jou reactie is aanvullend op de andere na twee dagen?
Welk OS draait er op de echte high-end supercomputers?

Is dat gewoon een specifieke linux distro oid? Of wordt hier toch eerder iets customs voor geschreven?
Linux inderdaad, vaak aangevuld met proprietary toevoegingen. In de jaren 90 was het voornamelijk (commerciele) UNIX varianten zoals IRIX, AIX, enz. Daarvoor waren het echt custom OS-en, speciaal gemaakt voor de hardware. (Toen men nog geen x86-64 gebruikte)

Windows en *BSD zijn ook wel eens gebruikt, maar hebben nooit een rol van betekenis gespeeld in de top500.

https://www.top500.org/statistics/list/
https://www.top500.org/statistics/overtime/
Ik denk dat Japan veel meer baat heeft bij het onderzoeken van lokale geologie om voorspellingen te doen m.b.t aardbevingen en tsunami's.
Ik zie maar een flop, en dat is je niet onderbouwde reactie. Waarom zou dit een flop worden? Hyundai is bijvoorbeeld bezig met zelfstandig rijden. Om de data te verwerken, heb je veel rekenkracht nodig. Nu besteed Hyundai het uit aan andere supercomputers ( buitenland dus). Daarnaast kan je ze goed gebruiken voor wetenschappelijke onderzoeken.
Dit is natuurlijk een mopje :). Hij wil zeggen dat het om veel flops gaat. Namelijk 130 petaflops.
Tja humor.
Is en blijft een moeilijk concept.
Ben benieuwd hoe een ai hier mee omgaat gezien dat sommige mensen hier al moeite mee hebben.
Dit is wel heel erg, ik schaam me! :P
Voor een Koreaans bedrijf is Japan ook buitenland.
Heb nog een titel "Balder1984 wil supercomputer van 130 petaflops bouwen"

Ja idd dat zou ik willen.... ;) maar daar hou ik het verder bij.
En de strijd om wie de grootste heeft gaat maar door.. :)
De meeste super computers worden niet particulier beheerd en je wilt niet dat 10 jaar aan research wordt berekend in china waar je patenten ongeldig zijn.

Ik weet niet hoe het in japan is maar in europa ben je als land verplicht om de minimale computer kracht te leveren. Doe je dit niet dan krijg je ook geen computer kracht meer van andere universiteiten.
Dat klopt, maar je doet nu net alsof er geen super computers in Japan zijn.
Die zijn er wel. Of je nu 3 dagen of 4 dagen op je resultaten moet wachten lijkt mij niet zoveel verschil.

En over die patenten, daar kunnen gewoon deals over gemaakt worden, en je overdrijft het sowieso schromelijk.
die chinezen trekken zich nergens wat van aan, zodra ze zien dat ze met iets geld kunnen verdienen dan verbreken ze alle afspraken en contracten, en daar procederen heeft geen zin om dat die rechters daar in dit soort zaken een zeer bedenkelijk reputatie hebben.

dus kan ik me goed voorstellen dat uitwijken naar china niet wenselijk is.
aan de andere kant als ze in Japan nu 25 petaflop machine hebben is een upgrade naar 130 petaflop best een interessante stap om te maken. je moet toch af en toe investeren.

met dit soort machines kunnen ook weermodellen ontwikkeld worden en onderzoeken naar scenario's van aardbevingen en tsunami's wat daar natuurlijk zeer relevant is
3 of 4 dagen wachten is commercieel gezien natuurlijk een verschrikkelijk groot verschil. Vertienvoudig het eens. Of zet er 2 nullen achter. Des te sneller, des te beter. Zeker als het om geld en resources gaat.


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True