Dutch Power Cows roepen op om te stemmen op rekenproject voor stampede 20

De Dutch Power Cows maken zich op voor stampede nummer twintig, de jaarlijkse boost die de deelnemers willen geven aan een project voor gedistribueerd rekenen. Inmiddels kan er gestemd worden op projecten die in aanmerking komen.

Dutch Power Cows logo (groot)Het stemtopic voor stampede 20 is begin deze week online gegaan, waarmee de kudde van grazers, jargon voor DPC-clients die meerekenen, officieel in beweging is gezet voor de start van de stampede op 1 maart. Iedereen die deel wil nemen, kan zijn client voor gedistribueerd rekenen gereed maken om als lid van team Dutch Power Cows ongebruikte rekenkracht van zijn of haar systeem een maand lang in te zetten voor een bepaald project.

Welk project dat wordt, volgt uit de stemming die inmiddels van start is gegaan en die tot 20 februari 23:59:59 duurt. De initiatiefnemers hebben een aantal aanbevolen projecten op een rij gezet. Dat zijn:

Aanbevolen:
PrimeGrid - Priemgetallen opsporen.
RC5-72 - Breken van een 72-bitsencryptie.
Collatz Conjecture - Ook bekend als 3n+1 of /2, als een getal deelbaar is door 2 doe je dat, anders getal * 3 + 1. Komt tot nu toe altijd uit op 4-2-1-4-etc, dit project probeert het tegenvoorbeeld te vinden.
GIMPS - Jagen op het allergrootste priemgetal.
Yoyo@home - Een wrapper voor verschillende non-BOINC-projecten zodat ze het alsnog doen op het bekende platform, onder andere OGR, factorisatie en Evolution@home.
OGR-28 - Wiskundig rekenwerk, in dit geval voor Optimal Golomb Rulers, waarbij de afstand van maatstreepjes nergens hetzelfde mag zijn.
Numberfields@home, Wiskundig, getallenleer.
Universe@home, Astronomie, rekenkracht voor onder andere supernova's, gravitatiegolven en extra heldere röntgenbronnen.

Daarnaast kan er gestemd worden op projecten die al eerder een stampede mochten ontvangen, zoals Rosetta@Home, Folding@Home, World Community Grid en MilkyWay@Home. Het uiteindelijke doel is om in maart met DPC zo hoog mogelijk in de ranglijsten van het gekozen project te komen, maar het achterliggende doel is natuurlijk om het project een krachtige duw in de rug te geven. Vorig jaar ging dat bijvoorbeeld om Rosetta@Home, waarmee meegerekend werd aan het vouwen van eiwitten als onderdeel van onderzoek naar het coronavirus en waarbij de grazende krachtkoeien plek 1 wisten in te nemen bij de stampede.

Door Olaf van Miltenburg

Nieuwscoördinator

12-02-2021 • 11:55

42

Submitter: dylan111111

Reacties (42)

42
41
21
8
1
13
Wijzig sortering
Wat me opvalt is dat er juist geen aanbevelingen zijn voor medische toepassingen. Heeft dat er mee te maken dat het eerder al gedaan is en het aanbevelen toch ook wel gaat om meedoen voor afwisseling in plaats van nut?
Wat me opvalt is dat er juist geen aanbevelingen zijn voor medische toepassingen. Heeft dat er mee te maken dat het eerder al gedaan is en het aanbevelen toch ook wel gaat om meedoen voor afwisseling in plaats van nut?
World Community Grid doet wel degelijk medische onderzoeken

Op dit moment hebben die de volgende projecten lopen:

- OpenPandemics (dit is momenteel dus tegen COVID-19, maar wordt later breder ingezet voor andere pandemieën)
- Mapping Cancer Markers (tegen kanker)
- Smash Childhood Cancer (ook tegen kanker, maar dan specifiek kanker bij kinderen)
- Africa Rainfall Project, onderzoek naar klimaatverandering (een Nederlands project, van TU Delft geloof ik)
- Microbiome Immunity Project (algemeen onderzoek naar mensenlijk genoom, voor onderzoek naar medicijnen)
- Help Stop TB (tegen TBC)
Leuke achtergrondinformatie maar dat beantwoord nog niet mijn vraag of er een achterliggende gedachte is dat er bij deze aanbevelingen geen medische projecten staan. Het kan bijvoorbeeld toeval zijn of een bewuste keuze, daar ben ik benieuwd naar. Het zijn tenslotte niet zomaar aanbevelingen lijkt me.
Zoals je in je eerdere post al aangaf, heeft dat er vooral mee te maken om wat afwisseling te forceren. Tot een paar jaar geleden was het zelfs zo dat projecten waar eerder aan was deelgenomen, helemaal niet meer op mocht worden gestemd, zodat niet steeds maar dezelfde projecten de stampede zouden krijgen en de rest buiten de boot bleef vallen. Die harde regel is uiteindelijk losgelaten, maar de huidige aanbeveling vind hier (deels) wel zijn oorsprong in. Daarnaast zijn er ook nog andere projecten die nog niet eerder zijn geweest, maar die bijvoorbeeld onregelmatig werk hebben of grote loads niet aankunnen en daardoor dus niet worden aanbevolen.
Daarnaast zijn er ook nog andere projecten die nog niet eerder zijn geweest, maar die bijvoorbeeld onregelmatig werk hebben of grote loads niet aankunnen en daardoor dus niet worden aanbevolen.
Stiekem blijf ik het toch wel grappig (en indrukwekkend!) vinden dat de DPC dusdanig veel rekenkracht hebben dat ze puur door het insturen van hun resultaten (wat heel, heel veel minder cpu cycles kost dan het eigenlijk rekenwerk) een distributed computing project kunnen DDoS'en. }:O
[...]

Stiekem blijf ik het toch wel grappig (en indrukwekkend!) vinden dat de DPC dusdanig veel rekenkracht hebben dat ze puur door het insturen van hun resultaten (wat heel, heel veel minder cpu cycles kost dan het eigenlijk rekenwerk) een distributed computing project kunnen DDoS'en. }:O
In het verleden is dat DDoS-en wel eens gebeurd.

Dat was nog toen DPC alleen RC5-64 deed, en OGR-27 (-72 en -28 was er nog niet) net opkwamen. Ik zat zelf toen nog in de DPC-crew, en had een DPC-proxy draaien voor RC5 enzo. Een van de stuk of 5 proxies volgens mij die we voor DPC hadden draaien.

De mensen die al lang meelopen met DPC weten nog wel wat MegaFlushes waren denk ik? Basically een stampede, maar dan via proxies ipv lokaal op elke PC gecached. Mijn proxy had dan bijvoorbeeld tientallen miljoenen verwerkte blokjes klaarstaan die ik dan met één commando kon flushen naar Distributed.net.

Alleen door de manier van berekenen van Disitributed.net ging dat helemaal fout, waardoor hun servers die de verwerking deden effectief door ons (DPC) een DDoS-attack kregen...

Ze hebben ons destijds ook vriendelijk doch zeer dringend verzocht om die MegaFlushes beperkt te houden tot maximaal een x aantal dagen (dat had met de wijze te maken waarop zij hun zaken verwerkten destijds, weet niet of dat nu nog zo is).........
Ik denk dat de server proxy software een serieuze update heeft gehad, ook de servers zelf zijn iets beter geworden. Als je ziet wat nifhak en/of @msteggink kunnen verzetten in een dag.
Huh megaflush? Wij deden alleen maar daily outout. }:O :+
Mooie tijden waren, dat - staat me nog scherp in de herinnering. Mijn username is vanwege de (mega)flushes :)
Inderdaad.
Of gewoon de queues leeg trekken van het project O-)
Dat was grappig vorig jaar.
Vorig jaar was ook een heel speciaal jaar waarbij heel de wereld even extra mee hielp :)
De startpost in het forum (de link staat in het artikel) staat dit anders, er zitten medische projecten bij Rosetta@Home/Folding@Home en World Community Grid.

Maar vermoed minder aandacht hiervoor doordat ze vaker zijn geweest, zegt zeker niet dat ze geen optie zijn. Momenteel staat World Community Grid als hoogste.
Ik snap volledig het doel achter het inzetten van rekenkracht voor wetenschappelijke doeleinden zoals zoeken naar objecten in het heelal, bedenken van nieuwe medicijnen, etc. Maar wat is het nut achter computerkracht verbranden voor het vinden van steeds grotere priemgetallen of factorisatie? Lijkt me meer een gimmick, of zit er ook nog een praktische toepassing achter?
Grote priemgetallen en de complexiteit van factorisatie zijn de basis van veel assymmetrische cryptografische algoritmes. Korte uitleg.

Dat zorgt er op zijn beurt voor dat we met zijn allen veilig-ish kunnen browsen en met onze bank kunnen communiceren via het grote boze internet. Veilig-ish that is, in ieder geval tot het moment dat er een efficiente oplossing wordt gevonden om te factoriseren (ontbinden in factoren heet dat in het Nederlands overigens).

[Reactie gewijzigd door Nieknikey op 28 juli 2024 00:39]

Lijkt me dat de priemgetallen die hier gevonden hebben daar echter weinig mee te maken hebben?
Het grootste gekende priemgetal is momenteel 2^82,589,933-1, oftewel een 82-miljoen-bits getal.
De huidige gebruikte encryptie-keys zijn slechts 2048 bits lang, dus het geeft nog niet echt een verklaring over waarom het vinden van een groter priemgetal nut heeft.
Precies. Priemgetallen van deze omvang hebben volgens mij geen praktisch nut.
Ga je daarvoor een maand energie verbruiken? Zonde van je geld en zonde van het klimaat.

Ik neem aan dat er wel projecten tussen zitten waar we nu ook iets aan hebben. Zou mooi zijn als iemand die eruit kan halen.

[Reactie gewijzigd door Jago2 op 28 juli 2024 00:39]

Installeer BOINC eens en kijk hoeveel projecten je aan mee kan doen.
Hier een wiki met boinc projecten
Up to date list

[Reactie gewijzigd door Mel33 op 28 juli 2024 00:39]

Zeer waarschijnlijk wel :)
Bijvoorbeeld werd vorig jaar bij rosetta@home veel van de rekenkracht besteed aan het doorrekenen van eiwitten voor de covid-vacins.
Het kan het inzicht in getallen en wiskunde in het algemeen vergroten. Juist bij problemen als het vóórkomen van priemgetallen, of bijvoorbeeld bij Collatz Conjecture is er nog zoveel niet begrepen dat dit soort zoektochten uiteindelijk kunnen helpen het begrip van abstracte wiskunde te vergroten.

Dus niet zomaar een praktisch toepassinkje, maar zelfs fundamentele wetenschap. :+
Naast dat het meer informatie oplevert over priemgetallen (waar nog weinig over bekend is). Levert het ook een goeie graadmeter voor algoritmes en optimalisaties. Het probleem blijft hetzelfde naarmate je verder komt, echter duurt het elke keer net iets langer om het te checken. Wil je enige hoop hebben moet je dus blijven sleutelen.

Bij medicijnen e.d. wordt het probleem steeds een klein beetje verandert. Als je het ene medicijn hebt gevonden ga je het volgende (vergelijkbare maar niet identieke) probleem oplossen.

Ik vind zelf het zoeken naar objecten in het heelal niet zoveel toevoegen. Afgezien van dat het interessant is kun je er praktisch minder mee naar mijn idee.
Priemgetallen worden veel gebruikt in security, zie hier voor jip en janneke uitleg, de link met factorisatie (een getal opsplitsen in 2 priemgetallen die samen dat getal opleveren) is ook redelijk evident, zeker als je het onderzoek richt op priemfactorisatie.
En voor hen die graag eens een eenvoudige uitleg zien van hoe asymetrische encryptie werkt raad ik deze twee aan.
Encryptie

Hoe groter de priemgetalle hoe moeilijker te kraken (onder andere, er spelen veel meer factoren mee)
Is het trouwens bekend wat de invloed is geweest van het inzetten van rekenkracht voor de ontwikkeling van de diverse covid-19 vaccins?
https://www.worldcommunit...sArticle.do?articleId=680
Per project wil het nog wel eens verschillen hoe open ze hierover zijn. Ik ben bij World Community Grid gewend dat er per deelproject maandelijks een update is. Echter ook daar verschillen met betrekking tot de inhoud en of er details bij komen (vaak niet heel gedetailleerd).
Dat soort projecten zijn toch een stuk waardiger om rekenkracht aan te besteden dan aan crypto!
Wat ik ergens niet begrijp is, als al die cryptomunten zware berekeningen moeten verrichten om een balans te houden. Waarom gebruiken ze daar dan geen zinvolle berekeningen voor. Nu zijn al die farms digitaal lucht aan het bakken. Wat voor een zin heeft het ook als we zuiniger moeten gaan leven, minder uitstoot moeten veroorzaken... En ons als mensheid ondertussen massaal storten op dit soort planeetverwarmende onzin.

Zo moeilijk zal het toch niet moeten zijn om zinloze berekeningen te vervangen met zinvolle berekeningen? Laat ze lekker opdrachten afhalen bij 1 van de vele onderzoek projecten en het zo opzetten dat je elke hoeveelheid berekende flops een coin krijgt.
Omdat het protocol dat niet vereist. Het is nogal moeilijk om een transactievalidatie te programmeren die ook vereist dat je een bijdrage doet aan de wetenschap ofzo. En als het niet hoeft, waarom dan doen. Kost al genoeg CPU power.
BOINC doet of deed dit wel i.c.m. Gridcoin... (zie referentie Yoyo@home)
Ik heb het al jaren niet bekeken dus of het nog bestaat of vervangen is met een andere beloning weet ik niet maar dat was in mijn ogen ook best veelbelovend; om het zelfde punt wat jij nu maakt over zinvolle berekeningen.
Alleen zoals Tweekzor ook zegt moeten er ook transactieberekeningen e.d. bij/naast gedaan worden om het netwerk in stand en veilig te houden.
Het zou mooi zijn als ze konden samenwerken met 1 van de grotere crypto's en met een algoritme de waarde en beloning voor alle berekeningen juist verdelen en in stand houden om het aantrekkelijk te houden en toch meer aan nuttige berekeningen toewijden.
Wat voor een zin het het ook als we zuiniger moeten gaan leven, minder uitstoot moeten veroorzaken... En ons als mensheid ondertussen massaal storten op dit soort planeetverwarmende onzin.
Dat een klein groepje er rijker van wordt, ten koste van de rest. Privatiseer de winsten, socialiseer het verlies.
Er zijn coins die investeringen in dit soort projecten belonen. Curecoin deelt bijvoorbeeld coins uit voor het meedoen aan Folding@Home. Het probleem is echter dat je geen veilige munt hebt zonder de "zinloze" berekeningen. Het minen is een berekening waarmee de validiteit van transacties wordt gecontroleerd. Puur coins uitdelen voor berekening aan dit soort projecten betekend dat er geen controle achter je munt zit en iedereen kan claimen X aantal van te hebben.
Goede suggestie. Wellicht kun jij een crypto protocol ontwerpen dat dit doet?
En een robuust selectie process aan welke dingen gerekend zal worden, met behoud van de eigenschappen die je aan een crypto currency stelt.

Er is zeker markt voor, het is denk ik vooral heel lastig te ontwerpen als een structureel goed proces.
Een van de projecten is breken van RC5 met beperkte key lengte ... ik weet het niet lijkt mij ook vrij onzinnig.
Voor het klimaat kun je beter je computer uitzetten.
Dat lijkt me nu heel wat waardiger dan bijvoorbeeld het zoeken naar het grootste priemgetal.
Voor het klimaat kan je beter je computer niet bezitten.

Dit lijkt me waardiger dan bijvoorbeeld deze discussie... }:O
Jammer, ik heb nog wel een 128-bit encryptie probleem dat met een 128-bits computer tot een 34-bits encryptie kan worden gereduceerd, welke bovendien zich in een sparse ruimte bevindt.
Het moet iets zijn wat CPU en GPU gebruikt. Ik wil de systeem maximaal aan het werk zetten.
Je kan het ook combineren. Bijvoorbeeld World Community Grid op je CPU's draaien, en dan Folding@Home op je GPU. Beiden zijn medische projecten die zich o.a. met onderzoek naar Covid-19 bezig houden.

WCG, en dan specifiek OpenPandemics (het deel dat tegen Covid-19 werkt op dit moment) is wel bezig met een GPU-client, maar die is helaas nog niet beschikbaar, en ik weet ook niet of (en wanneer) die nog gaat komen.
Je kunt inderdaad doen wat @wildhagen zegt, maar wil je het simpel houden, Folding@Home kan beide tegelijk, dus zowel je gpu(s) en al je cpu cores laten werken.
Laat niet onverlet dat ik Folding@Home en World Community Grid en Rosetta@Home op een redelijk aantal systemen heb draaien.
Dit kan leuk worden :)
Weet nog dat ik 1999/2000 door iemand op Seti@home gewezen werd.
Toen nog een commandline programma.
Heb heel wat wat schoolcomputers misbruikt met programma's als Seti queue. Niemand controleerde of de pc's 's avonds uitstonden.

Na de intro van BOINC ook begonnen met Climate prediction en andere projecten. Eerlijk gezegd staat het al een tijdje op een laag pitje.

Misschien met mij bescheiden pc toch eens mee doen.

Op dit item kan niet meer gereageerd worden.