Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties
Bron: Forbes

De Japanse regering heeft aan NEC, Hitachi en een aantal universiteiten gevraagd om een supercomputer met een rekenkracht van meerdere petaflops te ontwikkelen. Over de exacte prestatiedoelstelling gaan tegenstrijdige berichten rond (cijfers van 3 ŗ 4 tot wel 10 petaflops worden genoemd), maar de bedoeling is wel duidelijk: als het apparaat in 2010 af is moet het de snelste van de wereld zijn. Voor het project is een budget van 100 miljard yen (ongeveer 800 miljoen euro) gereserveerd. De Japanners zijn niet bepaald onbekend met het bouwen van krachtige supercomputers; met zijn 35 teraflops heeft de NEC Earth Simulator jarenlang eenzaam bovenaan in de ranglijst gestaan. Pas een half jaar geleden werd hij van de troon gestoten door de IBM Blue Gene/L. Deze Amerikaanse uitdager staat nu officieel genoteerd met een benchmarkscore van 70 teraflops, maar de machine is intussen uitgebreid naar 135 teraflops en dat zal binnenkort zelfs nog een keer verdubbeld worden.

De Blue Gene/L is geboren uit de wens van het Amerikaanse Ministerie van Defensie om de eerste petaflop (1000 teraflop) computer in handen te krijgen en zo de eerste plaats op het gebied van rekenkracht terug te veroveren van de Japanners. Er zijn nog steeds een aantal andere bedrijven die proberen om die opdracht in de wacht te slepen, maar IBM heeft tot nu toe de meest concrete resultaten laten zien, waardoor het een van de grootste kanshebbers lijkt te zijn. Hoe dan ook is het de bedoeling dat de Amerikaanse petaflopmachine in 2008 of 2009 klaar is. Het lijkt er nu echter op dat er een slapende hond wakker is gemaakt, die er alles aan gaat doen om de achterstand in te halen en de Amerikanen voor te blijven. De officiŽle reden die de Japanners geven voor de behoefte aan zoveel rekenkracht is overigens onderzoek naar het klimaat en medicijnen. In eerste instantie had Amerika een soortgelijke motivatie, maar simulatie van kernexplosies is later aan de lijst van applicaties toegevoegd.

Blue Gene op weg naar de petaflop

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (76)

Dit zal dan de eerst computer worden die ongeveer evenveel rekenkracht heeft als de menselijke hersenen. Dat wordt namelijk geschat op 10 petaflops.
Dit is een ongelijke vergelijking, een computer kan zich bezighouden met 1 ding, een mens niet. Het is een leuke schatting dat een mens 10 petaflops is, alleen wordt er dan al zo'n 9 petaflops gebruikt voor je lichaam om je in leven te houden en van de ene petaflop die overblijft gaat er nog een x percentage in creativiteit / dromen / logische verbanden etc zitten waardoor je voor de dingen die je kan vergelijken met een computer zowat niks overhoudt. Of schakel jij je je hele lichaam ( dus ogen / hart / celproduktie etc ) ook uit als jij zit na te denken over een wiskunde som.
Net als Krekker wil ik ook wel eens bewijzen zien van die uitspraak. Het kan misschien zijn dat e met onze hersenen de computer ver vooruit zijn, maar volgens mij heeft de computer als het aankomt op deze brute rekenkracht (flops = floating point operations per second) toch al een grote voorsprong. Even denken wat een peta ook alweer was, en dat zou dus zo'n 10 tot de 15e zijn (ofwel 1 000 000 000 000 000) berekeningen per seconde. Ik zou al blij zijn als ik een simpele afgeleide zou kunnen uitrekenen in die seconde of 10 sommetjes, maar daar kom ik zeker niet.

Ik denk dus niet dat de hersenen uit te drukken kan zijn in flops ofwel zal dat een gigantisch klein getalletje zijn. Waar je wel gelijk in kunt hebben is dat een menselijk brein veel sneller nieuwe connecties kan leggen waarvoor artificiŽle intelligentie nodig is bij computers en die staat al een heel eind, maar nog niet zo ver als de mens zelf.

[edit]
Bedankt Daos om te verbeteren (ik wist dat het vijftien nullen waren, maar blijkbaar dachten mijn hersenen dat 4 x 3 = 15).
Een computer heeft nog altijd moeite met het herkennen van gezichten, spraakherkenning, etc.

Ik ben van mening dat dat in 2010 wel mogelijk moet zijn om deze taken uit te voeren met deze hardware. Er ligt nog wel een uitdaging bij de software ontwikkelaars! :)
Dat bedoelde ik dus ook AI: het zelfstandig vinden van oplossingen voor problemen, herkennen van bepaalde items (of dat neuzen, ogen, monden of gewoon Audi TT's ofzo zijn op een foto maakt niet uit); maar computers zullen het volgens mij nog lange tijd heel moeilijk hebben met die dingen omdat je meestal met 2D-informatie zit in die gevallen (3D valt te benaderen door 2 camera's op te stellen, weliswaar, maar dat is zeker niet altijd mogelijk).

Nu we eigenlijk over AI bezig zijn, wil ik ook wel eventjes de lichte kant van het verhaal tonen dat AI ook wel al redelijk ver staat: bekijk 20q.net maar eens, en je zal merken dat de computer er niet vaak naast zit. Het verschil met de mens op dat gebied is dat het systeem van 20q enkel gedachten kan raden aan de hand van vragen, maar hij kan bijvoorbeeld niets concreets 'linken' met je gedachte (hij weet niet 'wat' een schoen is bijvoorbeeld, terwijl een mens zoiets wel kan merken).
1 met 15 nullen (ofwel 1 000 000 000 000 000)
Ik heb op school eens gehoord (ja je leert er dus toch nog wat...) dat het menselijk brein meer te vergelijken is met alle computers in de hele wereld, die aangesloten zijn op het internet. Dus dat elke cel in je hersenen ťťn pc moet voorstellen, verbonden door zenuwen. Hiermee wil ik trouwens niet zeggen dat 1 mens evenveel rekenkracht heeft als alle computers bij elkaar.
Inderdaad, geen slechte vergelijking, hardwarematig dan; Een zenuwcel berekent uit duizenden input signalen een output signaal dmv een niet lineaire programmeerbare functie. Niet slecht qua rekenkracht.

Maar ik ben idd ook van mening dat men de rekenkracht van hersenen niet kan meten in teraflops. Het systeem is gewoon heel anders, met name parallel ipv serieel. Wat bovenstaande metafoor aardig in beeld brengt.

edit: typo
Ik zeg niet dat je ongelijk hebt, maar kun jij mij dan uitleggen waarom wij geen simulaties van kernexplosies kunnen uitvoeren in ons hoofd?
Heb je er wel eens bij nagedacht over hoeveel dingen we eigenlijk tegelijk kunnen? Lijkt mij een behoorlijke multitasking hoor.
Nou lekker is dat, ik kan niet eens een samenvatting van 14 pagina's van de examenstof scheikunde verwerken... :+ en dan doe ik er niks anders bij :P
Leg mij dan maar eens uit waarom die supercomputer maar 1 ding kan: rekenen, rekenen, rekenen, voor de rest heeft hij een iq van 0,0 misschien zou dat er iets mee te maken kunnen hebben? :)
Maar mensen kunnne zelfstandig nadenken (creativiteit). Wij zijn immers degene die deze computers bedacht hebben. Dat zie ik zo'n 10 petaflops computer niet doen...
misschien een beetje offtopic maar wie bouwt de software die die explosies zou simuleren?
Wetenschappers en student(slaafjes) :P

Voor een explosie is nog vrij eenvoudig een programma te schrijven. Neem aan dat de explosie geschreven kan worden door particles (kleine deeltjes, dit omschrijven is meestal niet zo'n punt). Elk deeltje heeft fysische eigenschappen die worden geimplementeerd, zoals de wetten van Newton.

Elk particle is onderhevig aan deze wetten. In elke tijdsstap wordt bepaald waar een particle x zich naar beweegt. Dit doe je voor alle particles, en dit is een prima, zelfs hoogst eenvoudig te parallelliseren proces.

Wanneer je te maken krijgt met onderlinge positieafhankelijkheid van de particles wordt het wel wat lastiger, maar hier zijn aannames over te doen (bijvoorbeeld: particles aan de ene kant van de stofwolk zijn niet van significante invloed op de particles aan de andere kant van de wolk).

Bij methoden waar dataafhankelijkheid een rol speelt (lineaire algebra) is het een stuk lastiger goede code te schrijven die profijt heeft van zoveel parallelle rekenkracht, maar niet altijd onmogelijk.
Een explosie zoals jij die beschrijft zal inderdaad vrij simpel te realiseren zijn.

Onderzoekers zijn echter niet altijd geinteresseerd in een 3d model van de explosie maar meer in cijfers, gemiddelden, kansberekeningen, enzovoort.

Dan kom je met je PC al snel te kort aan rekenkracht en zal je toch echt een groter aantal berekeningen per seconde moeten kunnen maken.
De Amerikanen willen dit zo snel mogelijk kunnen doen in geval van een nucleaire aanval om zo voorstijdig de schade en aantal slachtoffers te kunnen voorspellen aan de hand van het weerbericht en plaatselijke omstandigheden.
Zij zullen de berekening dus zo afstellen dat ze in een zo kort mogelijk tijd nodig hebben een prognose te kunnen doen over de kernexplosie, en wel 100% capaciteit van de machine te kunnen gebruiken.

Wel mooi dat computers op deze manier weer steeds groter worden. Het zal voor wetenschapers nog aardig moeilijk worden om ruimte-, energie,- en warmteefficiente computers op de markt te kunnen blijven brengen, met oplopende snelheidsresultaten.
De Amerikanen willen dit zo snel mogelijk kunnen doen in geval van een nucleaire aanval om zo voorstijdig de schade en aantal slachtoffers te kunnen voorspellen
Oh, kijk, een bom op ons radarscherm. Snel even een sommetje draaien. Oeps, te laat.
euhm.. weet je hoeveel deeltjes er in een kernbom zitten.
En weet je hoeveel omgevingsfactoren (zoals bomen met takjes en blaadjes er zijn)
Wil je het thuis ook draaien dan ? ;)
zijn ze dan ook bezig met het op een kleiner oppervlakte te laten passen? of alleen maar meer kasten erbij zetten. in een grotere ruimte.. want dan boek je in princiepe nog geen vooruitgang.
ja tuurlijk dat

een playstation3 heeft volgens sony (japanse firma) 256 Gigaflops ...

maw: 1 petaflopje heeft maar vier van die playstations nodig ...

een 10 petaflop koetje past dus perfect in een enkel 19" rack ...
uuh giga -->tera --->peta


dus 4000 playstations 3 dan ;)
Ik heb de complete E3 presentatie van de P3 gezien via een internetfilmpje. Daar zei een Japanse bobo toch echt dat de P3 "almost 3 Teraflops" deed. Een andere marketing bobo had het over minimaal 2 Teraflops.

Ik was lichtelijk onder de indruk van al dit nieuws overigens.
Een ding weet ik nu zeker, namelijk dat ik nu even geen nieuwe videokaart koop tot nieuwe consoles uit zijn

nb. Weet iemand hoe ik, naast drie zalman koelers, het laatste uit mijn prehistorische Hercules 9700 Pro kan persen?
en zeggen dat MS aan cluster software werkt .. kan he het je voorstellen, 7 maand aan het rekenen .. en dan blue screen :+ :+
Jammer dat ze op deze computer geen koetje zetten ;) ik vraag me af hoelang het dan nog duurt voordat de key gevonden is..

BTW in het bericht staat dat een petaflop 1000 teraflops is, dat moet 1024 zijn ;)
1GHz is volgens jou zeker ook 1024MHz? :P
Als je het juist wilt is het als volgt:

1 Ghz is 1000 mhz
1 GB bij harde schijven is 1000 MB
1 GiB bij harde schijven is 1024 MB of 1000 MiB
1 GB bij ram-geheugen is 1024 MB

ge ziet heel overzichtelijk he :D

btw GB is gigabyte GiB is gibibyte waarbij die bi staat voor binair of dus machten van 2. Technisch gezien is giga immers een macht van 10 net als kilo en mega
Dat laatste klopt voor zover ik weet niet. Een gibi (Gi) is altijd een 'binair' miljard (natuurlijk kan je 10^9 perfect uitdrukken in binair). Bij RAM of ergens anders maakt het alleen niet zoveel uit omdat niemand precies 1000MiB RAM heeft (tenzij je een bord vindt waarop de onboard video controller 24MiB pikt)
Volgens mij geldt dit alleen voor bytes, bij flops blijft het 1000
Dat alleen als er TiFLOPS genoemd werden. net zoals 1GB 1000MB is, maar 1GiB 1024MiB.
Dat is officieel wel zo, maar hoeveel mensen gebruiken dit? Zeker hier op Tweakers.net is het eigenlijk meer regel dan uitzondering dat 1 GB 1024 MB is.

Die namen hadden ze beter om kunnen draaien.
Dat is officieel wel zo, maar hoeveel mensen gebruiken dit? Zeker hier op Tweakers.net is het eigenlijk meer regel dan uitzondering dat 1 GB 1024 MB is.
Ze hebben het over MHz, dus frequentie. Dat heeft niets met bits/bytes te maken. 1 kilometer is ook niet 1024 meter.
Dat omdraaien van die namen is een nog slechter idee... In de wetenschappelijke wereld worden kilo, giga, tera en peta namelijk ook veel gebruikt. Een kilowatt zou dan opeens 1024 Watt moeten worden !?!
Het is zo mooi om te zien hť... Ik ben in 1981 begonnen achter de computer. Toen was een K nog 1024B en een M nog 1024K en een G nog 1024M. Dat gold voor bytes, flops, en eigenlijk alles wat met een binaire computer te maken had.

Alleen als je het over andere dingen hebt, dan is K 1000, M 1000K en G 1000M. Dus 1KHz is 1000Hz, 1MHz is 1000KHz, etc.

Pas toen de harddisk fabrikanten gingen vogelen met de ruimte op de harddisk, en ze iets moesten bedenken om die harddisken groter te laten lijken dan ze werkelijk waren, is het vervuild geraakt. Want als de concurrent 40MB op een harddisk kan proppen, dan moet jij ook 40MB op je harddisk proppen. Al is het bij de ene 40*1024KB, terwijl het bij jou 40*1000KB is.

Marketing.

En nu zie ik allemaal mensen er termen voor bedenken, het proberen op te lossen door definities te bedenken. In feite geef je dan toe aan die marketing pipo's. Dat moet je niet doen, daar kan de wereld alleen maar slechter van worden. Marketing mensen zijn professionele leugenaars en zijn daar trots op. Dat soort mensen mag de wereld niet bepalen.

Goed, marketing mensen hebben dan het excuus dat ze in opdracht van hun bedrijf liegen, en misschien zijn het ook hele fidele mensen buiten werktijd om. Maar liegen is liegen, en als je je leugens voor jezelf kan goedpraten ('het is onderdeel van mijn werk'), dan ben je gewoon fout.
Milieuberekeningen....1 teraflop...stroomverbruik....hmm, lekker tegenstrijdig :P
Ik hoop dat je weet dat het verbruik van zo'n computer in het niets valt bij eventuele oplossingen om het broeikaseffect in te dammen. :)
zou het niet eens tijd worden om deze pc'tjes eens te gebruiken voor onderzoek naar kanker, aids etc. etc. ??
Doe jij al mee aan DPC? }:O
Ik vind het een beetje een nutteloze investering... Je kunt toch ook met die oudere computer doorgaan of upgraden, dan kunnen ze die 8 miljoen euro aan de armere landen besteden...
Mja, ik zou ook geen HSL aanleggen...
Er is een nieuwe wapenwedloop aan de gang. :r

VS versus Japan

Al zal deze wedloop minder schade aan de planeet brengen, zolang ze maar groene stroom gebruiken :7
In het geval van de Japanners is het beter ja...Medicijnen, klimaatverandering enz. enz.
In het geval van de amerikanen kan je wapenwedloop lettelijker nemen. Die gebruiken de computer om kernwapens efficienter te krijgen....niet zo heel goed voor de planeet dus.
Er zijn ook simulaties die onderzoeken hoe je het radioactieve afval tot een minimum kan beperken door de meest efficiŽnte verhoudingen splijt/fusiestof, hoogte,... te berekenen.
die blue gene lijkt op een terminator chip :P

maar ze koppelen dus vele cpu's aanelkaar om dan een dikke cpu te krijgen die dan niet in dual maar in 20voud tegelijk kan werken?

ben benieuwd wat de benchmarks zijn, en hoeveeel ghz ze hebben want je kan dan wel een terraflop hebben maar als dat allemaal 368xl's zijn

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True