CERN laat tienduizend cpu-cores meerekenen aan Folding@home

CERN zet tienduizend processorcores in voor het gedistribueerde computingproject Folding@home om mee te helpen bij het analyseren van het nieuwe coronavirus en zo een vaccin te kunnen ontwikkelen.

CERN doneert de rekenkracht van tienduizend cpu-cores van systemen in zijn voornaamste datacenter die op de lijst stonden om vervangen te worden, meldt Jan van Eldik van de Compute and Monitoring-divisie van CERN IT. Het instituut meldt dat de hoeveelheid cores slechts een derde betreft van het totale aantal werkeenheden dat het voor Folding@home inzet. De rest is afkomstig van andere computingcentra rond de Large Hadron Collider.

CERN heeft veel rekenkracht nodig om de grote hoeveelheid data die de deeltjesversneller oplevert, te kunnen verwerken en analyseren. Ondanks hun bijdragen staan CERN en de LHC-teams op het moment van schrijven gezamenlijk op plek 91 van Folding@homes lijst van grootste donateurs van rekenkracht. Het Nederlandse team Dutch Power Cows staat op plek 49.

Covid-19 is een van de projecten waarop Folding@home zich richt en gebruikers kunnen het meerekenen hieraan als prioriteit instellen. Het doel is om de wetenschap te helpen om een zogenoemd spike-eiwit van het coronavirus te helpen begrijpen. Dit eiwit aan het oppervlak van het virus hecht zich aan een eiwit van een menselijke longcel om het virale genetische materiaal in de cel te injecteren. Om de structuur van het eiwit, de manieren waarop het kan vouwen en de interactie met de receptor te analyseren, is veel rekenkracht vereist. Folding@home biedt inmiddels meer rekenkracht dan de grootste supercomputers ter wereld bij elkaar.

Folding@home exascale grafiek

Door Olaf van Miltenburg

Nieuwscoördinator

29-04-2020 • 11:38

129

Reacties (129)

129
120
39
4
0
34
Wijzig sortering
Op Folding@Home zitten met name de GPU koeien, de CPU koeien staan lekker te grazen bij Rosetta@home aangezien dat CPU only is en dat de Stampede van dit jaar is.
Daar staat DPC ruim eerste met name door de gigantische hoeveelheid die Nifhack in zet momenteel, gecombineerd met een enorme hoeveelheid andere koeien _/-\o_
Mooi stukje over de koeien die DPC user Nifhack (Nikhef) inzet:
https://www.nikhef.nl/new...-het-coronavirus-rekenen/

[Reactie gewijzigd door Arjant2 op 22 juli 2024 14:28]

Ik krijg op F@H anders zat CPU workunits binnen.
Voor een lange tijd (mogelijk nog steeds?) waren er voor CPU's niet voldoende work units. Wachttijden bedroegen soms uren of halve dagen.

Voor GPU's is de situatie in ieder geval nog niet gewijzigd.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:28]

Dit is al even in orde, mijn CPU krijgt al een goede week continue CPU WU's
Hier stuttert het nog wat, maar inderdaad er wordt veel gegraasd! Ben daardoor in score ook als een raket gegaan.
Ik zeg niet dat er geen cpu units op folding@home zijn. Ik zeg alleen dat de meeste cpu koeien op rosetta te vinden zijn.
Folding@home op de gpu is vele malen sneller dan welke cpu dan ook.
Je kan natuurlijk een combinatie doen, gpu op folding en cpu op rosetta. Dat heb ik ook een tijdje gedaan.
Je kan natuurlijk een combinatie doen, gpu op folding en cpu op rosetta. Dat heb ik ook een tijdje gedaan.
Heb ik ook overwogen inderdaad, maar momenteel gaat het prima door CPU + GPU via F@H te doen. :)
Helaas kan ik hier enkel mijn CPU koe laten meehelpen, mijn 2070 RTX Super en F@H komen niet te best overeen en durft een bluescreen veroorzaken :/

[Reactie gewijzigd door pieterdebie op 22 juli 2024 14:28]

bsod heeft alleen de betekenis dat windows niet meer functioneert het heeft niets te maken wat voor een hardware je computer is gemaakt.En heeft niets te maken over hardware in het algemeen.
Microsoft windows analiseerd alleen een onherstelbare fout , niet meer of minder dan dat.
Dat het met windows te maken heeft wil ik gerust geloven. Dat het niets te maken heeft met mijn graka en f@h geloof ik niet.

Volgens de bluescreen dump is nvlddmkm, ntoskrnnl en dxdgkrnl de schuldige. Dit probleem heb ik ook enkel bij F@H. Bij games en stress tests is dit geen probleem.
Drivers. Een schone installatie van een iets oudere, veilige driver versie. En dan vervolgens pas weer een release branch ná de voor jou BSOD'ende driver opnieuw updaten.

Daarmee sluit je dat in elk geval effectief uit, en ik denk grote kans dat je het probleem ermee oplost. Kan best ergens een conflictje tussen de twee zitten.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:28]

Alles is de laatste versie.
Precies ja, en dat is in het geval van GPU drivers he-le-maal niet verstandig.

Persoonlijk (GTX 1080 en sinds Kepler v1 ook Nvidia) loop ik standaard een paar versies achter. Nooit gezeur. Alleen met een Windows versie update is het dan weer wel verstandig om meteen de GPU driver mee te nemen. En vervolgens doe ik alleen nog nieuwe drivers als er features in zitten of fixes die ik zelf nodig heb. Werkt vlekkeloos. Nooit gezeur.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:28]

Dus NVidia GForce Experience gaat in de fout door mij de laatste WHQL drivers aan te bieden?
GFE is sowieso een ramp, dus ja. WHQL of niet, er zijn al meerdere drivers met bugs aangeboden.

Altijd handmatig doen. En dat idee dat je altijd de laatste driver moet hebben... totale onzin.

[Reactie gewijzigd door Vayra op 22 juli 2024 14:28]

Die GForce Experience is sowieso al 1 grote rotzooi. Ik installeerde altijd de kale drivers, zodat ik niet continue updatemeldingen kreeg waar ik pas wat mee kon doen als ik een account aanmaak en inlog.
Ze gaan niet perse in de fout door je de laatste drivers aan te bieden, maar het probleem is meer dat er vooral getest wordt voor "normaal" gebruik.
Ik heb weinig last van problemen gehad met de laatste Nvidia drivers, maar de problemen die ik wel heb gehad waren vaak op te lossen met een oudere versie, en dus liep ik altijd een aantal versies achter.
En over 3 of 6 maanden is zijn huidige driver niet meer de laatste en dan werkt die opeens weer? Door de laatste versie te gebruiken heb je de meeste kans dat bugs eruit gehaald worden.
Nee, maar als die versie problemen heeft, installeer je deze natuurlijk niet, ook niet als deze niet meer de laatste versie is. Sowieso als er geen grote wijzigingen zijn hoef je niet perse te updaten.
Ja jongen, zo werkt het. :z

De laatste versie is het early adopten van nieuwe bugs, en dat is nooit anders geweest. En ja, het kan dat toevallig jouw bugje van vroeger erin wordt opgelost. Als dat zo is, herken je het in de patch notes en installeer je het.

Linksom of rechtsom, door handmatig je drivers te doen blijf je je bewust van wat je installeert en of dat nou wel zoveel zin heeft. En dat helpt je weer bij het troubleshooten in de toekomst. 'Wat is nu anders' is vaak de essentiële vraag om snel bij je antwoord te komen.

Ik zal je zeggen, met deze methode heb ik sinds Windows 10 (en die had ik enkele maanden voordat de gratis update periode afliep vanaf 7) eigenlijk nooit een probleem gehad met GPU drivers en bugs. De enige keer dat ik een probleem had was toen ik wél direct een Windows 10 update installeerde... Je moet bedenken dat het volledige landschap nu constant beweegt. Wil je echt vooraan lopen? Waarom denk je dat bedrijven dat niet doen?

[Reactie gewijzigd door Vayra op 22 juli 2024 14:28]

Is je voeding zwaar genoeg? Ook de koeling van de graka?
Al andere projecten overwogen? Mijn 2070 (laptop) heeft geen problemen op GPUgrid (DPC #49, al ben ik geen lid)

[Reactie gewijzigd door mbb op 22 juli 2024 14:28]

Ja dus een kernel fout.Dat wilt zeggen dat de core van windows het niet meer doet vandaar dat windows het helemaal niet meer doet.

https://nl.wikipedia.org/wiki/Blue_screen_of_death

https://en.wikipedia.org/wiki/Black_screen_of_death

bsod kan een van deze zijn.
Had ik ook last van, mn overclock op gpu was het probleem. na downclock alles prima
Op Folding@Home zitten met name de GPU koeien, de CPU koeien staan lekker te grazen bij Rosetta@home aangezien dat CPU only is en dat de Stampede van dit jaar is.
En omdat Rosetta@home voldoende werk heeft. Bij Folding@home moeten de clients praktisch smeken voor werk.

CPU op Rosetta@home en GPU op Folding@home is daarmee de beste combinatie.
En omdat Rosetta@home voldoende werk heeft. Bij Folding@home moeten de clients praktisch smeken voor werk.
Dit valt sinds 1,5-2 weken reuze mee.
Niet voor GPU's. Die wachten nog steeds met regelmaat.
Heb ik hier een stuk minder last van dan, ik ben alweer een nacht en een dag vol op de GPU bezig.
Dit kwam doordat F@H niet voldoende bandbreedte en dataopslag had. Ondertussen is dit mede opgelost door LTT. Zie https://www.youtube.com/watch?v=HaMjPs66cTs&t=617s
Nifhack met dikke koeien. Nice.
Gezien. :-)
Mijn oud-team leider.
Heeft Folding@Home met al deze rekenkracht al bepaalde mijlpalen bereikt met betrekking tot Covid-19? Ik ben erg benieuwd wat al deze computerkracht nu op kan leveren.
Niet dat er bekend is. Ik heb recent iemand er ook uitleg over gegeven en wat deels belangrijk om te weten is dat we niet computen naar directe antwoorden. Het is dus niet zo dat als je er mega veel resources tegenaan gooit dat er dan een antwoord in je inbox komt met "zo los je het op".

Je mag het zo zien dat er een idee is waar enorm veel berekening voor worden gemaakt. Die resultaten zullen weer onderzocht moeten worden en potentieel kunnen daar weer papers over worden geschreven. Met name over "gedrag" bijvoorbeeld.

Zulke papers kunnen derhalve weer wetenschappelijke onderbouwing zijn voor een richting voor extra onderzoek of daadwerkelijke toepassingen.

Voorgaande papers kunnen je daar wellicht een wat beter beeld bij geven: https://foldingathome.org/papers-results/

Overigens ben ik sterk van mening dat ze iets meer werk mogen stoppen om ook papers een "Ik snap hier niets van" - samenvatting te geven voor iedereen die bijdraagt maar geen wetenschapper is (net zoals ik) :+
Overigens ben ik sterk van mening dat ze iets meer werk mogen stoppen om ook papers een "Ik snap hier niets van" - samenvatting te geven voor iedereen die bijdraagt maar geen wetenschapper is (net zoals ik)
Helpt zoiets? https://youtu.be/O-uwljuMp7w
Ik denk dat Douweegbertje een "ik snap hier niks van samenvatting" van een van deze papers bedoelt: Antagonism between substitutions in β-lactamase explains a path not taken in the evolution of bacterial drug resistance.
Wat @Mobzy zegt ;) Een samenvatting van de papers die voort zijn gekomen uit het project. Niet een samenvatting van het project zelf :)
Niets ten nadele maar: berekeningen over een idee, die weer onderzocht moeten worden, waar weer "papers" over geschreven moeten worden, die dan weer onderbouwen KUNNEN zijn voor een richting voor extra onderzoek... Ik lees dit soort uitleg vaker en het komt bij mij over als heeeeeeeeel erg vaag. Daarbij heb ik nog nooit (na genoeg zoekwerk) mogen lezen dat folding enige significante bijdrage heeft geleverd aan een oplossing voor een probleem? (ik zeg dit niet op de zaak af te kraken, is enkel mijn waarneming na hierover te hebben gezocht).

Daarmee mijn vraag: heeft folding daadwerkelijk enige zin of is het allemaal heeeeeeeeel erg ver gezocht?
Je hebt eerst data nodig om iets te kunnen doen. Zie het als....
het kraken van een kluis met 10.000 combinaties.

Een PC kan dan bereknen welke mogelijk combinaties gebruikt zouden kunnen zijn en welke niet.
0 of 00 of 123456789 zijn geen logische combinaties. Deze combinaties worden dan uitgesloten. Je krijgt dan een enorme lijst met logische mogelijke combinaties.

Deze lijst die daar uitkomt zal met logische combinaties kunnen dan verder onderzocht worden.
Dit is natuurlijk wel een meest simplistische voorbeeld.

De PC berekend allerlei mogelijke senario's en kijkt naar mogelijke logische oplossingen. Die worden dan verder wetenschappelijk getest en beschreven. De uitkomst daarvan kan weer in Folding@Home komen om verder te specificeren en nieuwe berekeningen te kunnen doen met de nieuwe data. Zo voorkom je dat je een miljoen nutteloze testen hoeft te doen en misschien 500 duizend logische tests te doen.

Scheelt een hoop kostbare tijd.
Ja het heeft zijn bijdrages geleverd en heeft derhalve ook zin.

Het langere verhaal: Ik heb het een en ander opgezocht (want ik doe F@H al jaren) - en ik vond het af en toe ook erg lastig (lees: sceptisch). Met name de comment die ik eerder maakte:
Overigens ben ik sterk van mening dat ze iets meer werk mogen stoppen om ook papers een "Ik snap hier niets van" - samenvatting te geven voor iedereen die bijdraagt maar geen wetenschapper is (net zoals ik)
Dat is enigszins relevant want er zijn meer dan 200 papers geschreven die voor een leek echt abracadabra zijn. Doch zijn dat papers die ontstaan zijn uit dit onderzoek, en dan moet je dus gaan kijken welke papers van invloed zijn geweest op wat er "nu" tegenwoordig is bereikt, aanwezig is of fundamenteel veranderd is t.o.v. jaren geleden. De vraag is in hoeverre dat exact te herleiden is naar F@H... Heel lastig.

Vandaar ook meer mijn uitleg dat hier wel nuttige dingen worden gedaan maar dat dit niet inhoud dat je domweg met compute een medicijn op de markt zet. Dat is ook nooit het doel van F@H geweest. Het doel daarvan is geweest om juist te gaan begrijpen hoe (voor het gemak) "dingen" in elkaar zitten. Gezien de 200+ papers is dat een succes.
The goal of the first five years of Folding@home was to make advances in understanding folding, while the current goal is to understand misfolding and related disease, especially Alzheimer's.
Eigenlijk kan je met zekerheid zeggen dat door al dit onderzoek en de papers (die schrijf je niet zomaar...) F@H wel degelijk bijgedragen heeft in het landschap van medici, met name alzheimer. Op welke manier, hoe, wat, waar? Ja dat is dus niet concreet uit te drukken tenzij je de papers snapt en weet wie die paper heeft gebruikt voor ontwikkeling van medicatie of andere onderzoeken.
Daar raak je denk ik ook de kern. Hoewel ik geen wetenschapper ben (verre van) maar nou ook weer niet groen achter de oren, is die materie voor een "gemiddeld" ontwikkeld persoon niet te begrijpen. Voor mij niet, en ik durf daarbij te beweren dat wellicht meer dan 90% van de deelnemers aan het project werkelijk geen idee heeft van wat er nou berekend wordt anders dan dat men een systeem heeft lopen die berekeningen uitvoert. Ik bedoel dit niet denigrerend, de complexiteit van het verhaal zo hoog ligt dat het gewoon voor de meeste (mijzelf incluis) moeilijk te behappen valt.

Daarmee ook meteen de lichte frustratie; ik zou graag meewerken aan een project wat wat meer directe resultaten zou kunnen opleveren. Maar ik begrijp dat eea. niet zo simpel is. Maw. als we collectief een pallet vol mondkapjes aan een ziekenhuis zouden doneren zien we direct het gevolg ervan. Het zou mooi zijn als er in digitaal-medische zin zoiets mogelijk was.
Ik ben zelf bang, dat we nu zoveel berekeningen uitvoeren, dat het bij hun op de plank komt te liggen ipv. dat ze wachten op de resultaten. Moeten zij nu meer wetenschappers in dienst nemen om de toestroom aan uitgevoerde berekeningen in kaart te brengen?
Zou ik best aan bij willen dragen. Zou een open source (git) project moeten worden om abstracts van die papers naar simpel engels te vertalen. Misschien ga ik dit nog starten ook als ex-stagiair van LCBC in Lausanne, iets om over na te denken en folding at home over te contacteren in ieder geval.

Eentje hieronder in ieder geval dan:
Microcanonical coarse-graining of the kinetic Ising model.
Thermodynamically good, but approximated, simplified simulations of energy and motion of atoms

Abstract
We propose a scheme for coarse-graining simplifying the physics simulation of the dynamics of the 2-D kinetic Ising model onto the microcanonical ensemble thermodynamical model. At subcritical temperatures, 2-D and higher-dimensional Ising lattices possess two basins of attraction separated by a free energy barrier. Projecting onto the microcanonical ensemble has the advantage that the dependence of the crossing rate constant on environmental conditions can be obtained from a single Monte Carlo trajectory molecule movement trajectory simulation technique, at first random, but with carefully chosen selection criteria. Using various numerical methods, we computed the forward rate constants of coarse-grained representations of the Ising model and compared them with the true value obtained from brute force simulation. We compared the performance of simulation technique 1 with simulation technique 2. While coarse-graining preserves detailed balance, the computed rate constants for barrier heights between 5 kT energy measure K = boltzmann constant times T = temperature and 9 kT were consistently 50% larger than the true value too simplified for certain applications (e.g. prediciting drug binding), but not for others (predicting docking of 1 protein to another) . Markovianity testing revealed loss of dynamical memory, which we propose accounts for coarse-graining error model making necessary simplifications. Committor analysis did not support the alternative hypothesis that microcanonical projection is incompatible with an optimal reaction coordinate. The correct crossing rate constant was obtained by spectrally decomposing the diffusion coefficient near the free energy barrier and selecting the slowest (reactive) component. The spectral method also yielded the correct rate constant in the 3-D Ising lattice, where coarse-graining error was 6% and memory effects were diminished. We tried to make the model as good as the normally unworkable brute forcing calculations (unless you have the computing power the size of an universe) at both times scales of picoseconds (chemical reactions) and microseconds (protein folding process)We conclude that microcanonical coarse-graining supplemented by spectral analysis of short-term barrier fluctuations provides a comprehensive kinetic description is a good technique of barrier crossing in a non-inertial system actually undergoing chemical reactions continuous-time jump process simulations with discrete time steps (usually as small as possible, but takes more compute power).
(sorry voor engels, is een gewoonte, originele paper abstract (samenvatting) komt dus van hier: https://foldingathome.org/papers-results/ )
Staat toch gewoon op hun website wat ze voor Covid-19 reeds bereikt hebben?
Er staan overigens nog artikels op.

https://foldingathome.org...rgon-aka-spike-in-action/

https://www.youtube.com/w...ER1wvT0&feature=emb_title

In simpele mensentaal hebben ze zich eerst gericht hoe het virus zijn mechanisme juist werkt waarmee het virus zich vast klampt aan andere cellen. Nu men dat weet is men specifiek op zoek naar verbindingen waar men met medicatie aan kan hangen waardoor dit mechanisme gesaboteerd is. Zelfs al komt er verder niets uit dit project, het resultaat wat in dat YouTube filmpje staat helpt iedereen die dit virus aan het onderzoeken is.

Op dit moment is gezien de projecten die ik binnenkrijg men heel specifiek aan het zoeken naar toegangspoorten die "drugable" is, als je perfect weet hoe dit virus exact werkt en opgebouwd is dan weet je ook welke delen kritisch zijn en welke van die kritische delen je beste kan saboteren alsook op welke manier je dat best doet.

Het levert geen handleiding op dit is hoe je medicatie moet maken maar het verteld je wel wat je je zou moeten doen met je medicatie.

"we simulated a protein from Ebola virus that is typically considered ‘undruggable’ because the snapshots from experiments don’t have obvious druggable sites. But, our simulations uncovered an alternative structure that does have a druggable site"

Voor Ebola heeft men dus kunnen aantonen dat waar men dacht dat het niet mogelijk was om het te saboteren met medicatie er toch een tot hier toe verborgen structuur was waar je mogelijks aan kunt koppelen. Dat is het verschil tussen niemand die tracht medicatie te ontwikkelen, immers niet mogelijk, en tal van onderzoeken die trachten medicatie te ontwikkelen gericht op die zwakke plek.


Voorbeeld van een van de projecten
https://stats.foldingathome.org/project?p=14367
Het is nu nog wat vroeg, maar ik zou deze pagina in de gaten houden: https://foldingathome.org/news/

Wetenschap bedrijven kost nu eenmaal tijd, zeker als je het goed wil doen. Zeker het 'eiwitvouwen' waar je met folding at home aan mee-rekent is erg fundamenteel onderzoek en zal dus niet direct tot een medicijn oid leiden. Het leidt wel tot een beter beeld hoe het virus eruit ziet en dat kan dan weer leiden tot eventuele nieuwe therapieen.

Overigens kun je ook zelf de data inzien en er zelf mee aan de slag: https://osf.io/2h6p4/wiki/home/ en https://osf.io/dp4cb/wiki/home/

[Reactie gewijzigd door Bartske op 22 juli 2024 14:28]

Ik ben erg benieuwd hoeveel kWh aan energie hier aan wordt uitgegeven (evt met afschrijving apparatuur) en of het niet veel zinvoller is om geld aan gericht onderzoek uit te geven.
Dit is toch gericht onderzoek? Het kunnen begrijpen van het/een virus en hoe het zich gedraagt in een host is volgens mij vrij essentieel om in een later stadium op basis van gevonden feiten daadwerkelijk een behandeling te kunnen ontwikkelen.
Nee, dat vind ik niet het is voor mij vrij ongerichte massa simulatie via een gedistribueerd computernetwerk.
> Nee, dat vind ik niet het is voor mij vrij ongerichte massa simulatie

Maar wat jij alleen vind is toch niet perse waarheid?

Als we het geld direct geven aan onderzoekers die er dan eerst 1000.000 computers van kopen, dan ruimte om deze op te stellen huren of kopen, dan beheerders aannemen om deze te onderhouden, en die dan vervolgens deze computers precies dezelfde berekeningen laten maken. Wat is dan de winst?
Ik denk dat als wetenschappers deze rekencapaciteit zouden moeten betalen uit hun onderzoeksbudgetten ze dit niet zouden doen omdat het onvoldoende rendement biedt.
Dat meen ik van niet. De reken kracht die nu gebruikt zou worden is onbetaalbaar.
nieuws: Amazon gaat ongebruikte rekenkracht van EC2-dienst veilen

Bedrijven die rekenkracht aanbieden willen daar zwaar geld aan verdienen, dit is al een artikel van 11 jaar geleden. Maar nog steeds is het redelijk duur om zulke rekenkracht in te kopen. Laat staan zelf de apparatuur aan te schaffen die dat zou kunnen.

Er staan genoeg mensen in de rij voor je voordeur om een collecte te doen voor KWF, Longfonds, maar ook kindjes in Afrika e.d.

Folding@Home vraagt ook een uitgaven aan een goed doel, dat is in dit geval rekenkracht.
Moet jij eens een wetenschapper vragen:
Wil je 2 miljoen euro aan rekenkracht voor proteine vouwen via folding@home
of wil je 1 miljoen euro maar dan vrij te besteden voor elk wetenschappelijk doel?
Zie jij maar eens een overheid zo ver te krijgen dat zij genoeg budget krijgen zodat zij de onderzoeken kunnen doen die zij willen. Een overheid heeft veel meer belang om die kosten te drukken dan dat ze extra budget krijgen. Laat staan 1 miljoen extra om te doen en laten wat ze willen. of 2 om Folding@Home te kunnen gebruiken.

om een voorbeeld te geven. KWF krijgt geld van de overheid, toch komen ze nog collecteren. Dat is ook gaande in de wetenschap... Ze krijgen geld, maar om beter en meer werk te doen wordt er gecollecteerd.

Daarnaast hebben veel wetenschappelijke instituten al reken centra's en toch doen ze mee met dit soort projecten om meer data te kunnen verwerken en reken capaciteit die ze zelf hebben verder te kunnen benutten om berekeningen te testen en uit te zoeken.

Vergeet niet dat CERN echt bakken met data te verwerken heeft en een budget dat stukken groter is. Ook omdat ze veel onderzoek doen die geschikt zijn voor de ruimtevaart en defensie. Waardoor ze grote sponsoren hebben. Daarnaast weet CERN ook de waarde van deze reken kracht, op grotes van exabyte.. reviews: Datavloedgolf LHC op komst - Nikhef bereidt zich voor met rappe opslag.
Ik denk dat er genoeg wetenschappers kiezen voor F@H. Je doet het nu af alsof het een projectje is die alleen maar bestaat omdat ze "gratis" resources krijgen. Voor vele is het juist een grote eer om mee te kunnen werken aan F@H en daar gebruik van mogen te maken.

Efficientie is vast een ding, maar ik ben een techneut. De vraag die je eerder moet stellen is: zijn er zoveel mensen die een x-bedrag willen geven of x-resources. Want ik doneer resources vanwege mijn passie voor IT en een klein gedeelte vanwege het project zelf. Ik zou anders namelijk geen euro overmaken.

Maar je exacte vraag gaat eigenlijk om twee zaken.
het niet veel zinvoller is om geld aan gericht onderzoek uit te geven
Geld & gericht.

Is het zinvoller met geld? Ja, vast wel. Maar krijg je dat geld ook? Zoals ik dus daarnet aangaf hebben ze totaal andere type "donateurs" :)

En gericht: Ja en nee. Folding at home is wel degelijk gericht onderzoek in de basis. Dat je op een lager niveau misschien losse flodders schiet betekend niet dat je niet gericht onderzoek doet ;) If any, ook niet heel relevant. Ik ben van mening dat zowel gericht als "ongericht" onderzoek ieder zijn voor- en nadelen heeft.
Het lastige is dat met veel goede wetenschap niet direct veel geld is te verdienen. Sommige wetenschap is niet sexy genoeg om hoge ogen te gooien in de jaarlijkse budgetten tombola. Niet sexy of niet in de mode is niet hetzelfde als niet relevant. Afgaande op waar veel budget naar toe gaat zou je soms wel het tegendeel kunnen denken. Dat toegegeven.

Je opmerking omdraaiende zou tot suggestie kunnen leiden dat succesvolle wetenschappers automatisch rijke wetenschappers zijn, en dus hun eigen broek wel kunnen ophouden. Heb je dus een karig onderzoeksbudget, dan ben je als wetenschapper waarschijnlijk minder goed. Gelukkig is niets minder waar, en kan een wereldidee uit de meest obscure hoek komen.

Eigenlijk democratiseren organisaties als folding@home en rosetta@home de toegang tot rekencapaciteit. Om kwaliteit van de rekenvoorstellen te borgen wordt een review van die voorstellen uitgevoerd. De voorstellen worden geprioritiseerd op basis van hoe veelbelovend de voorstellen zijn.

In een dergelijk Darwiniaans systeem heb je een grotere kans op goede ideeën dan dat we ons afhankelijk maken van enkele rijke onderzoeksorganisaties die een hoop rekencapaciteit kunnen kopen. Het is maar de vraag of ondanks hun financiële slagkracht dergelijke organisaties over dezelfde ideeënrijkdom beschikken.
Defineer even wat 'gericht onderzoek' is naar jouw mening. Met Folding@Home en Rosetta@Home wordt er imo wel degelijk gericht onderzoek gedaan; het geeft de wetenschappers die zich ermee bezig houden uiteindelijk een veel beter beeld van het virus (letterlijk en gifuurlijk) dan nu het geval is.

Door dit onderzoek was er al een bepaald beeld van een molecuul van een virus, dat weken later voor het eerst op de microscoop verscheen! Voor jou wellicht niet nuttig of gericht genoeg, maar voor anderen dus wel degelijk!
Door dit onderzoek was er al een bepaald beeld van een molecuul van een virus,
Dat lijkt me niet.

Met folding simuleer je vouwvormen van moleculen maar je detecteert er geen daadwerkelijk gevonden zaken mee omdat je resultaten tijdens folding niet kan matchen aan een realiteit.

Er waren trouwens al zat beelden van hoe een Corona virus eruit zag.
Vanwege Sars.

[Reactie gewijzigd door TWyk op 22 juli 2024 14:28]

Het is inderdaad zinvoller om geld aan gericht onderzoek uit te geven, dat is ook precies wat ze hiermee doen.
Of ik nou de elektrische kachel aanzet, of m'n 1300 watt computer met Folding@Home, dan denk ik dat laatstegenoemde meer waarde oplevert :)
Ik woon in Noorwegen :P
Stoken met elektriciteit is belachelijk.
Elektrische kachels zouden net als gloeilampen eigenlijk verboden moeten worden
Ik heb een CV, maar als ik overdag op koude dagen alleen thuis zit te werken, is het toch echt energiezuiniger om alleen mijn werkkamer elektrisch te verwarmen. En ‘s avonds de woonkamer wat bij te stoken met een siergashaard, in plaats van heel de dag de CV aan te zetten.

Komt bij dat ik zonnepanelen heb, dus weinig verlies qua transport van enrgie en meestal genoeg zonlicht -> elektriciteit opbrengst om gas/kolen/olie/kernenergie niet nodig te hebben.
Zoals gezegd woon ik in Noorwegen. Electriciteit is heir spotgoedkoop vergeleken met Nederland en komt van waterkracht*. Eens dat een warmtepomp beter zou zijn, maar dit is niet gangbaar voor appartementen in de stad.

* tja, en dan zijn er die milieucertificaten, maar die discussie past hier niet.

[Reactie gewijzigd door Menesis op 22 juli 2024 14:28]

Waarom zouden die verboden moeten worden? Die warmte gaat niet verloren zoals bij een gloeilamp (sinds wanneer zijn die ook verboden trouwens?)
Verkoop van gloeilampen is verboden in de EU sinds 2012 maar dat verbod wordt ontweken
https://radar.avrotros.nl...oeilamp-verboden-of-niet/
Het rendement is in elk geval hoger dan van elektrische verwarming.
Ik hoop dat jij begrijpt ook dat niet alle warmtepompen buitenlucht vereisen.
Nee, maar aardwarmte in Noorwegen zal ook wel een dingetje zijn. Afhankelijk van de samenstelling van de bodem.
nou - bij appartement betekent dat een grond boring moeite gaat kosten :-)

Maar je statement dat stoken met elektriciteit belachelijk is te kort door de bocht. Als geen gas voor handen is (leiding leggen kost nogal wat) dan kun je niet zomaar zeggen: koop een warmtepomp. Daar zijn ook kosten aan verbonden en installeren kost ook nogal wat t.o.v. een elektrische kachel.

En een gloeilamp is (zolang deze binnenshuis brandt) ook niet zo erg; de warmte dat dat ding ontwikkelt gaat niet verloren (uitgaande dat de buitentemperatuur lager is dan reguliere kamer temperatuur).
Vreemd, de link http://www.dutchpowercows.org/ wordt doorgestuurd naar Tweakers.net?
DutchPowerCows zit juist op Tweakers.
De link gaat naar hun gedeelte op het forum
naar: Dutch Power Cows toch? En dat klopt, dat is het forum van DPC }:O
Dat is toch al heel lang hoor.
Die website is niet meer in de lucht en is opgegaan in /5 van het forum, vandaar de redirect.

[Reactie gewijzigd door Arjant2 op 22 juli 2024 14:28]

Klopt dus heeft Simon een punt. Er gebeurd niks spannends door de redirect, maar het voegt weinig toe en is verwarrend als die hele website niet eens bestaat. Tenslotte waarom verwijzen naar die website als die niet bestaat, heeft weinig meerwaarde lijkt me.
Maar goed, ik zie de verwijzing verder ook niet (meer?) in het artikel. Dus probleem opgelost.

[Reactie gewijzigd door Aardwolf op 22 juli 2024 14:28]

Het hele idee van DNS redirects is juist dat een naam behouden blijft.

Als je de naam Dutch Power Cows kent (en wie kent die nu niet }:O ) dan is het logisch dat je eerst daarop gaat zoeken.
Dat klopt, maar ik meende eruit te lezen dat het in het artikel stond. En dat vond ik ook wel wat vreemd. Blijkbaar heb ik dat verkeerd geïnterpreteerd of het is inmiddels aangepast. Vandaar mijn edit. :)
Need some coffee... :+ :z
Nee stond niet in het artikel maar op de teampagina van folding@home staat die link.
De teampagina is aangemaakt ooit in een verleden net als de vele andere teampaginas. Geen idee wie daar de admin van is en eventueel dat kan aanpassen. De redirect is natuurlijk handig juist voor al de teampaginas die aangemaakt zijn bij de diverse projecten die anders naar een niet meer bestaande webpagina zouden verwijzen.
Het hele idee van DNS redirects is juist dat een naam behouden blijft.
Dit is geen DNS redirect, maar een web (HTTP) redirect.
Dutch Power Cows is eigenlijk Tweakers. Het is een deel van de Tweakers comminity die samen met hun rekenkracht aan prjecten werkt. Waar denk je dat de }:O emote vandaan komt ;)

[Reactie gewijzigd door rickboy333 op 22 juli 2024 14:28]

Ik dacht dat er op dit moment juist teveel rekenkracht was en dat er niet genoeg computers waren die de resultaten kunnen verwerken?
Klopt, je moet vaak lang wachten voordat je een werkpakket toegewezen krijgt. Mijn PC stond (ik ben inmiddels gestopt) een groot deel van de tijd niks te doen van de 24/7 dat hij aan stond. Gewoon omdat er geen werk toegewezen werd.
Dat hadden wij ook maar toen we de hoeveelheid cores aangepast hadden stroomden de opdrachten weer binnen
Waarschijnlijk was dat toeval. Opnieuw opstarten helpt ook vaak omdat ie dan weer nieuwe requests gaat doen.

Overigens is opslag volgens mij het grootste probleem, zoveel verkeer ontstaat er niet op zo'n server. Alleen als de resultaten worden opgehaald.
Het was dan wel heel toevallig want we hebben het verspreid over meerdere dagen weer geprobeerd.
ipv 24 draaien we nu op 20 en dat doet het prima
Mijn CPU is eigenlijk 24/7/365 wel aan het werk. De GPU heeft vaak niets te doen.
Wat helpt is regelmatig checken en als één van beide of beide niets te doen hebben hetzij de boel even pauzeren en daarna weer aan het vouwen zetten of de hele applicatie stoppen en weer opnieuw opstarten.
In beide gevallen gaat de client op zoek naar werk op de server.
Op dagen waarop ik de tijd heb (neem) om regelmatig te checken doe ik twee keer zoveel work units als op dagen waarop ik dat niet doe, zie ik aan mijn statistiek
De GPU is toch bezig anders blijft je scherm zwart
Gelukkig kan dat met zo weinig rekenkracht dat er bergen overblijven ;)

Daarnaast is @Lawrd Fader misschien helemaal niet bezig op een scherm en doet z'n CPU heel andere dingen waar hij niet bij hoeft te zijn :P
Is in tijden van botnets en virae niet uit te sluiten, maar voor zover mij bekend zoalniet door mij gewenst draait de machine in kwestie uitsluitend voor folding@home, uiteraard als nederlandse krachtkoe (ook al staat hij fysiek niet in Nederland)
Klopt: https://foldingforum.org/
The Folding@home team know about the work unit shortage.
It's happening because of an approximately 20x increase in demand.
The Folding@home team are working on it and hope to have a solution very soon.
Keep your machines running, they will eventually fold on their own.
op dit moment gaat het krijgen van opdrachten heel goed. Ik heb bij ons op kantoor ook een aantal servers geconfigureerd en deze krijgen aan de lopende band opdrachten.

In het begin was het inderdaad lang wachten op nieuwe opdrachten omdat de servers het niet aan konden of omdat er niet genoeg opdrachten waren, maar volgens mij hebben ze dit nu wel goed op de rit.
Kom op @Anoniem: 424318 dat kan veel beter :) je hebt gerust nog wel ergens een clustertje staan :)
Dat clustertje staat nu op R@H te stampen. ;)
ja dat weet ik :) maar hij heeft nog flink capaciteit over :) dus hop aapslingeren die hap :)
Als Amazon/Google/Microsoft eens 50% van hun onbenutte capaciteit inzetten krijg je helemaal een piek lijkt mij.
Denk dat dan weer niet ten goede komt van hun 'groen' labels.
Zal flink wat KW's verstoken...
Denk dat er al zoveel minder co2 de lucht in gaat de afgelopen maanden, dat die paar extra MW prima even kan, ten goede van een vaccin.
Ik denk dat een kolencentrale er bijvoorbeeld niet minder erom draait en eerder meer.
Die overcapaciteit is nodig zodat hun klanten snel kunnen opschalen indien nodig. Als er SLA's zijn met hun zakelijke klanten zodat die x% kunnen opschalen binnen een bepaalde tijd, kan je niet zomaar die capaciteit ergens anders voor inzetten. En als je ziet dat bijvoorbeeld online verkopen skyrocketen kan je je voorstellen dat de webwinkels snel willen kunnen opschalen. En hetzelfde geldt voor andere gebruikers.
Ik geef direct toe dat ik geen kenner ben, maar als je als gebruiker makkelijk kunt opschalen, dan kan Microsoft/Amazon/Google toch ook makkelijker terugschalen? 'Gebruik alleen capaciteit die niet door anderen gevraagd wordt', zoiets.
Ik denk dat ze beter een stel servers kunnen instellen ipv clients.
Overigens doen veel grote namen het al wel. Intel is ook aardig aan het sponsoren geweest, de laatste tijd.

[Reactie gewijzigd door Martinspire op 22 juli 2024 14:28]

Microsoft had enkele weken terug geen overschot aan compute in Europa. Van de andere weet ik het niet echt.
Nu Seti@home gestopt is .... ga ik over.
Bij Seti@home was de kans op resultaat toch al verreweg het kleinst.
CERN is een Europees instituut. Dus betaald met gemeenschapsgeld.

Vind dat er heus wel (tijdelijk) alle rekenkracht ingezet mag worden in de strijd tegen corona.
Wat betreft influenza, dat komt ieder jaar wel weer terug ja, maar dat virus is bij lange na niet zo heftig en dodelijk als Covid-19.
https://emedicine.medscape.com/article/219557-overview#a6
Wanneer iemand redelijk gezond is heeft hij of zij zeker een zeer royale kans heeft op overleven, bij Covid-19 ligt dat wat meer voor het oprapen.
Het zijn vooral de ouderen met onderliggende aandoeningen die een infectie niet overleven.

https://www.cdc.gov/coron...eople-at-higher-risk.html

Verder, in de epidemiologie wordt er overgegaan tot het in quarantaine plaatsten van die groep die ziek is en niet de hele bevolking. Blijkbaar zijn deze regels dit jaar veranderd.
Ik vraag me dan af wie over die rekenkracht kan beschikken, wie bepaalt wat er berekend wordt.
En heeft het ondertussen al iets uitgemaakt? Helpt het effectief in het onderzoek naar een vaccin?
Kunnen de 500+ labo's in de wereld die bezig zijn met een covid vaccin beschikken over de resultaten?

Op dit item kan niet meer gereageerd worden.