Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Covid-19 HPC Consortium geeft wetenschap toegang tot krachtigste supercomputer

Een consortium bestaande uit onder andere IBM, Amazon Web Service, Google Cloud, Microsoft en het Amerikaanse Departement of Energy geeft wetenschappers toegang tot supercomputers en clouddiensten bij onderzoek naar het nieuwe coronavirus en de covid-19-ziekte.

Gezamenlijk bieden de zestien supercomputers van het consortium toegang tot 330 petaflops, 775.000 cpu-cores en 34.000 gpu's, staat op de website van het Covid-19 High Performance Computing Consortium. Een groot deel van de rekenkracht komt van de Oak Ridge Summit, 's werelds krachtigste computer met piekprestaties van 200 petaflops. Het consortium roept organisaties op om deel te nemen en computing resources ter beschikking te stellen aan de wetenschap.

Onderzoekers die rekenkracht willen bij projecten rond het SARS-CoV-2-virus en de covid-19-ziekte kunnen een voorstel indienen. Het consortium bekijkt dan de potentiële impact, de haalbaarheid, de vereisten en de periode van het onderzoek. Vervolgens werken de partijen die nodig zijn, samen met het onderzoeksteam voor de toegang tot de supercomputers en clouddiensten.

Het consortium denkt onder andere aan onderzoek op het gebied van bio-informatica, epidemiologie en moleculaire modellering. Amazon, Google en Microsoft helpen onderzoekers hun clouddiensten in te zetten waar nodig. Ook het Massachusetts Institute of Technology en het Rensselaer Polytechnic Institute dragen bij met hun expertise. Het project moet garanderen dat rekenkracht geen belemmering is bij onderzoek naar het nieuwe coronavirus.

Afgelopen weekend maakte het Folding@Home-project voor gedistribueerde rekenkracht bekend dat het in totaal 470 petaflops aan rekenkracht leverde. Verantwoordelijk voor de rekenkracht zijn meer dan vierhonderdduizend vrijwilligers die ongebruikte rekenkracht van hun systemen inzetten.

Door Olaf van Miltenburg

Nieuwscoördinator

23-03-2020 • 07:55

98 Linkedin

Reacties (98)

Wijzig sortering
Het Amerikaanse Department of Energy heeft zijn eigen computer als sinds begin deze maand ingezet voor dit doel:

https://www.ornl.gov/news...-could-combat-coronavirus

en heeft zelfs al 77 mogelijke kandidaten voor een werkend vaccine geïdentificeerd:

https://edition.cnn.com/2...virus-scn-trnd/index.html
Sorry, m.i. niet geheel correct, maar ik heb begrepen dat het heel ANDERS werkt, er is nog GEEN (wel 77 "kandidaten" gevonden voor iets) genezing of vaccinatie gevonden.

Virussen kunnen verschillende "stekels" hebben om zich te binden met menselijke cellen.

Nu heeft een supercomputer, 77 verschillende chemicaliën "berekent" / geïdentificeerd die mogelijk die stekels (chemisch?) buiten werking zouden kunnen zetten, en daarmee de infectie mogelijk stop te zetten of te vertragen.

Men heeft GEEN "77 kandidaten gevonden" voor een mogelijke genezing of vaccine, maar "77 kandidaten" die het mogelijk kunnen VERTRAGEN.

[Reactie gewijzigd door obimk1 op 26 maart 2020 13:28]

Waarom koppelen ze dit systeem dan niet aan Folding@Home? Dan combineer je toch gelijk alle computerkracht?
Omdat Folding@Home niet de meest geschikte manier is voor alle soorten berekeningen. Bepaalde berekeningen kun je gedistribueerd uitvoeren met hoge latency (dus verspreid over 1000en consumenten PC's) waar Folding@Home echt perfect voor is. Andere berekeningen of modellen hebben baat bij extreem lage latency en 'on-site' distribution dus die wil je op een supercomputer uitvoeren. De resultaten van beide soorten zullen vast gedeeld en / of gecombineerd worden. :)

[Reactie gewijzigd door KirovAir op 23 maart 2020 08:09]

Waarom koppelen ze dit systeem dan niet aan Folding@Home? Dan combineer je toch gelijk alle computerkracht?
Dat zou een nuttig idee kunnen zijn (mits het praktisch haalbaar was), als er één enkele berekening was waarmee het hele probleem werd opgelost, en die met enkel één van die twee systemen bijvoorbeeld 3 maanden zou kosten, en met beiden tegelijk 1.5 maand.

Dat is natuurlijk niet zo. Er zijn allerlei wetenschappers die met allerlei projekten bezig zijn, om het probleem van allerlei kanten te benaderen. Elk projekt zal op zichzelf al meerdere verschillende berekeningen hebben te doen, en dan zijn er dus ook nog eens meerdere projekten. Elke berekening op zich duurt wellicht een paar uur, of een dag, of wellicht een week. Alle berekeningen bij elkaar misschien maanden. Bij elke berekening neemt de inzicht in het probleem toe, zodat de volgende berekening doelgerichter is, en alles bij elkaar het probleem uiteindelijk opgelost kan worden (*). Dan is het wel nuttig om meerdere systemen te hebben, zodat er méér problemen per week kunnen worden berekend, maar het is niet belangrijk dat elke afzonderlijke berekening twee keer zo snel klaar is.

(*) Dat is dus heel anders dan in films, Daar hoeven wetenschappers slechts een enkele berekening te doen, waarmee het probleem dan opgelost is. Meestal net op tijd voordat er een grote ramp gebeurt.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True