Distributed.net rondt zoektocht naar OGR-25 af

Distributed.net heeft zaterdagochtend bekendgemaakt dat het OGR-25-project is afgerond. Er was ruim acht jaar nodig om een wiskundige reeks van 25 cijfers te vinden; de Dutch Power Cows leverden daaraan de grootste bijdrage.

distributed.net-logoGolomb Rulers zijn wiskundige reeksen die voor uiteenlopende toepassingen als radioastronomie, de constructie van röntgendiffractiemicroscopen en cryptografie bruikbaar zijn. Een Golomb Ruler is gedefinieerd als een reeks positieve gehele getallen waarbij het verschil tussen elke twee verschillende getallen uit de reeks uniek is. Bij een Optimal Golomb Ruler is het hoogste getal uit de reeks zo laag mogelijk, en de zoektocht naar dergelijke series is een zeer rekenintensief np-volledig probleem.

De langst bekende OGR telde 23 cijfers, toen Distributed.net zich medio 2000 op het probleem wierp. Eind 2004 werd OGR-24 gevonden en de Optimal Golomb Ruler van 25 cijfers wordt naar verwachting deze zaterdag nog gepubliceerd. Er zijn 3006 dagen en 124.387 deelnemers voor nodig geweest om te bewijzen welke cijferreeks de kortste is. OGR-25 was een zusterproject van de RC5-cryptografieprojecten van Distributed.net, en mocht dus net als die twee op ruime aandacht van de Dutch Power Cows rekenen.

DPCUiteindelijk leverde het distributed-computingteam van Tweakers.net ongeveer acht procent van de benodigde rekenkracht, meer dan tweemaal zoveel als de op een na beste deelnemer, het Russische BugTraq.Ru Team. Net zoals bij het OGR-24-project eindigde DPC daarmee met grote overmacht op de eerste plaats van de ranglijst. Opmerkelijk was ook de prestatie van subteam NoizyCows, dat meer dan de helft van het DPC-rekenwerk voor zijn rekening nam en daarmee als veruit de beste individuele deelnemer uit de bus kwam.

Het is weliswaar nog niet bekend hoe de vijfentwintigste Optimal Golomb Ruler eruitziet, maar vermoed wordt dat de in 1984 ontdekte reeks 0, 12, 29, 39, 72, 91, 146, 157, 160, 161, 166, 191, 207, 214, 258, 290, 316, 354, 372, 394, 396, 431, 459, 467, 480 inderdaad de kortste is. Distributed.net heeft nog niet bekendgemaakt op welk probleem het zich nu zal richten, maar meldde wel dat de voorbereidingen voor een nieuw project al bijna zijn afgerond. Momenteel rekent de organisatie alleen nog aan het RC5-72-probleem. DPC zal zoals gebruikelijk geen nieuw project aanwijzen; de leden zwermen na afloop van een project doorgaans uit naar de andere projecten waar het team aan bijdraagt.

Door René Wichers

Eindredacteur

25-10-2008 • 17:11

72

Reacties (72)

72
67
20
11
0
0
Wijzig sortering
OK, nieuwe poging, zonder rekenmachine. Het is toch redelijk simpel om zelf een reeks op te bouwen? of zie ik nog iets over het hoofd en gaat het mis bij grotere getallen?

Reeks ----- Toegevoegde tussenwaardes

0
1 ----- 1
3 ----- 2, 3
7 ----- 4, 6, 7
12 ----- 5, 9, 11, 12
20 ----- 8, 13, 17, 19, 20,
30 ----- 10, 18, 23, 27, 29, 30
44 ----- 14, 24, 32, 37, 41, 43, 44
65 ----- 21, 35, 45, 53, 58, 62, 64, 65
80 ----- 15, 36, 50, 60, 68, 73, 77, 79, 80
96 ----- 16, 31, 52, 66, 76, 84, 89, 93, 95, 96
122 ----- 26, 42, 57, 78, 92, 102, 110, 115, 119, 121, 122


Tussenwaardes 22 en 25 ontbreken nog, hoe verder je komt, hoe lastiger het wordt.... ;)

(krijg de UBB codes niet goed, maar het is gelukkig wel leesbaar O-) )

[Reactie gewijzigd door Fiber op 22 juli 2024 23:56]

Ja, maar je hebt nu 12 getallen gebruikt en de grootste is 122, echter, de beste van 12 getallen is:

0 2 6 24 29 40 43 55 68 75 76 85

Met dus 85 als hoogste getal en daar gaat het dus om, dat het hoogste getal zo laag mogelijk is, want dan is de 'ruler' korter en de kortste 'ruler' is optimaal, vandaar de naam Optimal Golomb ruler.

Sterker nog, die van 13 getallen is zelfs korter dan die van jou.

0 2 5 25 37 43 59 70 85 89 98 99 106

[Reactie gewijzigd door Proxy op 22 juli 2024 23:56]

Ik durf toch zeker wel mijn twijfels te stellen bij de `wetenschappelijkheid' van dit project. Nu ben ik geen expert op gebied van radioastronomie of röntgendiffractiemicroscopen, maar volgens het bovenstaande stukje zijn Golomb Rulers belangrijk voor deze takken van wetenschap.

Er staat echter nergens dat het ook belangrijk is dat de gebruikte Golomb Ruler ook daadwerkelijk de kortste is en die vraag maakt nou net uit of dit project weggegooid geld en verspilde energie is, of niet. Wellicht voldeed de in 1984 gevonden Golomb Ruler (die nu waarschijnlijk de kortste blijkt te zijn) prima en waren wetenschappers uit de genoemde velden helemaal niet op zoek naar een kortere reeks?

In dat geval is het hele project meer een prestige project: kijk eens wat we kunnen met distributed computing! In dat geval is het weggegooid geld en is er ook een hele hoop energie verspild (ja, 30-40 watt per pc, 8 jaar lang, laten we zeggen minimaal een paar uurtjes per dag is ook een hoop energie, misschien niet voor de eindgebruiker, maar wel op mondiaal niveau).

Ik ben dus eigenlijk wel nieuwsgierig of het ook belangrijk is om daadwerkelijk de kortste en dus de optimale Golomb Ruler te kennen. Als iemand een linkje weet naar een mooi wetenschappelijk artikel, dan kun je mij misschien overtuigen. Maar linkjes naar wikipedia of opmerkingen dat Golomb Rulers voor bepaalde takken van wetenschap belangrijk zijn voldoen niet.

edit:
typ foutjes

[Reactie gewijzigd door The Flying Dutchman op 22 juli 2024 23:56]

ja hoor helemaal. want wikipedia bevat voldoende info over [insert random scientific topic here]? nee dus :P

ik kan me zo voorstellen dat het gebruik van hogere reeksen een exponentieel zwaardere berekening veroorzaakt, bijvoorbeeld.
en dan is het niet altijd praktisch er meer power tegenaan te smijten, zeker bij grotere zaken.

ten slotte: wat nou prestigeproject? zoek maar eens het belang van fundamenteel onderzoek op. op wikipedia, ofzo :+

edit ik gaf aan dat jij aannames maakt op basis van de afwezigheid van informatie. da's dwaasheid. puur daarop wijzen verplicht mij niet met wiskundig bewijs van het tegendeel te komen, da's aan iemand die er net effe wat meer van af weet :P

[Reactie gewijzigd door iceheart op 22 juli 2024 23:56]

Volgens mij wil je net als mij zeggen dat Wikipedia niet de betrouwbaarste bron is voor informatie over wetenschappelijk onderzoek. Maar het lijkt alsof je mij hierop aanvalt, echter ik zie Wikipedia niet als een betrouwbare bron (in veel gevallen zal de informatie wel grotendeels correct zijn, maar je kunt er gewoon niet 100% op vertrouwen). Of begrijp ik je eerste zin niet goed?

Bedoel je in je tweede alinea met hogere reeksen de niet optimale Golomb Rulers? Of bedoel je dat het vinden van langere Golomb Rulers (bijvoorbeeld van lengte 26) meer rekenkracht kost? Dat laatste is zeker waar (want door meer getallen in je Golomb Ruler te stoppen, verkrijg je meer combinaties die je moet onderzoeken), als je dat eerste bedoelt, dan geef je zelf al aan dat je niet weet of het waar is (jij zegt dat je het je kunt voorstellen dat het zo is). Ik zou dan dus graag willen weten waarom het belangrijk is om de optimale Golomb Ruler te kennen. Ik heb daar nog geen overtuigende verklaringen voor gezien.

Tenslotte is je laatste regel niet onderbouwd. Fundamenteel onderzoek is belangrijk, ik doe zelf ook fundamenteel onderzoek en ik zie het belang er wel van in. Maar nog niemand heeft mij uit kunnen leggen waarom het vinden van optimale Golomb Rulers fundamenteel onderzoek is.

Leg mij uit dat het vinden van de optimale Golomb Ruler (want daar gaat het hele project om, er was al heel lang een goede Golomb Ruler bekend die ongetwijfeld in de verschillende wetenschappelijke velden gebruikt werd) zo belangrijk is. Leg mij uit waarom de niet-bewezen kortste Golomb Ruler niet voldoet/niet goed genoeg is. Als hier aannemelijke argumenten voor zijn, prima, dan is het een nuttig project geweest. Als hier geen aannemelijke agumenten voor zijn, dan is het wat mij betreft gewoon een prestige project met weinig wetenschappelijke waarde.
mwah... als je met bijvoorbeeld een telescoop hogere resolutie plaatjes kan maken omdat de spiegels optimaler op elkaar zijn afgesteld, of dat je minder afstand nodig hebt om een duidelijker/scherper beeld te krijgen met een radio-telescoop... (mijn opa *werkte* bij sterrenwacht westerbork...)
Een Golomb Ruler is gedefinieerd als een reeks positieve gehele getallen waarbij het verschil tussen elke twee verschillende getallen uit de reeks uniek is.
(reeks 1,2,4)
2-1=1, 4-1=2,
4-2=2
(2* een verschil van 2 dus afgewezen)

(reeks 2,4,7,11)
11-7=4, 11-4=7, 11-2=9,
7-4=3, 7-2=5
4-2=2
yeah!!

(reeks 2,4,7,11,16)
16-11=5, 16-7=9, 16-4=12, 16-2=14,
11-7=4, 11-4=7, 11-2=9,
7-4=3, 7-2=5, 4-2=2
jammer maar helaas 2* verschil van 9 ... weer niet, laten we 2 maar vervallen...

(reeks 4,7,11,16)
16-11=5, 16-7=9, 16-4=12
11-7=4, 11-4=7,
7-4=3
yeah!!, maar 2,4,7,11 is een lagere combinatie van 4 getallen in de verzamling.

Zoals je hier boven misschien al zag is de omvang van de reeks eigenlijk min ofmeer beperkt door het begingetal van je reeks. houd daarbij in gedachten dat je ook nog dat de hoogste waarde in je reeks zo laag mogelijk moet zijn.

De truuk en het werk is om een zo lang mogelijke combinatie uit te werken, of in ieder geval een verzameling van 'x' getallen.

[Reactie gewijzigd door Atmosphere op 22 juli 2024 23:56]

Hier is heel erg simpel een programmaatje voor te schrijven. Het is werkelijk niet meer dan twee korte lusjes in elkaar.

Alleen, zoals het artikel al beschrijft, het gaat ongelofelijk lang duren voordat het programmaatje klaar is! :)
Ja, als php-programmeur kan ik dit idd met twee lussen maken, maar je hebt niet de PK's in je pc om zo'n berekening/wat het is te maken. Laat staan dat een server dat heeft. Zelfs de mooiste crysis-pc's willen dat nog niet in een jaar doen.
quote:
(reeks 1,2,4)
2-1=1
4-1=2
4-2=2
(2* een verschil van 2 dus afgewezen)
Eh, volgens mij is 4-1 gelijk aan 3, dus zou deze reeks wel degelijk goed zijn.
<Kuch> je hebt gelijk .. {1,2,4,7} (en ook {1,2,4,6}, {1,2,4,5}) loopt stuk en die had ik nog in gedachten.
Lekenvraag: Waarom voldoet de simple reeks 1, 2, 4, 7, 11, 16, 22, 29, 37, 46, etc. niet? O-)
Bijvoorbeeld omdat tussen 1 en 7 een afstand van 6 zit en tussen 16 en 22 ook. In een Golomb ruler zijn alle afstanden uniek, ook tussen cijfers die niet direct naast elkaar liggen.
Ah.. dat was me uit het nieuwsitem totaal niet duidelijk.
Dit is waarschijnlijk een domme vraag en het wordt kort toegelicht in de inleiding, maar wat levert dit resultaat nou concreet op? Op de site van wikipedia wordt wel iets genoemd over radio antennes, maar meer kon ik er niet over vinden. In ieder geval gefeliciteerd DPC ;).
Ik heb even op Wikipedia gekeken en ik heb het vermoeden (maw ik weet het niet zeker) dat deze reeksen bepalend kunnen zijn voor hoe een radio antenne array zoals Westerbork, Very Large Array (VLA), Australia Telescope Compact Array (ATCA) en waarschijnlijk in de toekomst Square Kilometer Array (SKA) geplaatst kunnen worden ten opzichte van elkaar.

Wanneer je maar 1 schotel hebt is het vrij makkelijk. Met een array van schotels kun je interferometrie toepassen. Daarbij combineer je het signaal van de verschillende schotels. De kortste afstanden tussen de schotels zorgen voor informatie over de grootste schalen van melkwegstelsel, terwijl de langste afstanden (Westerbork ongeveer een kilometertje, maar met behulp van bijv. Very Long Baseline Interferometry (VLBI) ter grootte van de Aarde) voor de resolutie (en dus de kleinste elementen) zorgen. Als je slechts 1 keer zo'n lange afstand in je configuratie hebt is natuurlijk de sterkte van het signaal daar vrij zwak, terwijl op de korte afstanden je meestal heel veel hebt. Met zo'n Golomb Ruler heb je een reeks afstanden waarbij je van elke "afstand" er eentje hebt en dus een gelijkmatige verdeling van het signaal over alle schalen.
En valt hier nu nog voor de rest iets mee te doen? Kunnen hierop dingen gebaseerd worden of is dit gewoon leuk om bewezen te hebben ?
Het is een methode van nummer-encodering. Stel dat je een serie nummers wilt encoderen in zo weinig mogelijk data-eenheden. Via een vaste golomb (die je evt. eenmalig in een header kan plaatsen) kun je een serie nummers (of laten we als voorbeeld een enkel nummer nemen) encoderen in minder bits. Stel dat ik een 25-order golomb ruler heb, dan kan ik in een nummer (bv 480, het maximale nummer van deze ruler) encoderen als een integer: 480, dat kost me 9 bits (max. val. 512). Ik kan het ook encoderen als de distance op de golomb, in dit geval 0 en 25: 25-0=25, wat me 5 bits kost (uitgaande van 0 als default start; max. val. 32). Een serie nummers kan dus dus onafhankelijk van de eigenlijke data gecomprimeerd worden, terwijl bv. bij zip je compressie afhankelijk is van data (text beter dan binair, bv.). Wat is het doel van ruler-finding hierin? Je ruler hoeft niet perfect of optimaal te zijn voor elke toepassing, maar dat helpt wel in de average %loss/number, vandaar het nut. Uiteindelijk gebruikt iedere praktische toepassing z'n eigen rulers.

Dit is handig als een stap in video-encoding, waar minimale dataloss (de golomb is niet perfect, i.e. niet elk getal is lossless te encoden) niet al te merkbaar is voor het oog. H.264 gebruikt golomb coding bijvoorbeeld voor entropy-encoding.
Anoniem: 225253 25 oktober 2008 17:56
vermoed wordt dat de in 1984 ontdekte reeks inderdaad de kortste is
Betekent dat dan dat gewoon bewezen is dat die uit 1986 de kortste is of zo?
Ja. Er zijn heel veel (semi-) Optimal Golomb Rulers bekend maar van maar weinig is bewezen dat ze ook echt de meest optimale zijn. Als de nu gevonden reeks getallen inderdaad dezelfde is als de in 1984 'ontdekte' dan is dus bewezen dat die reeks het meest 'Optimal' is/was.
Anoniem: 134975 @IceStorm26 oktober 2008 08:31
Voordeel van een reeds ontdekte reeks is natuurlijk ook dat je alleen kortere reeksen door hoeft te rekenen, dat scheelt al een hele slok op de borrel. Verder zijn er al immens veel reeksen waarvan bij OGR-24, OGR-23 etc. is gebleken dat het geen GR is. Die reeksen hoef je dus al niet proberen uit te breiden naar 25 getallen. Verder weet je dat het kleinste getal 0 moet zijn.

Nou ja, ik zal niet zeggen dat het piece of cake is, er blijven nog enorm veel mogelijke combinaties over. Maar vrij geringe optimalisaties kunnen hier wel veel brute force rekenkracht schelen!

Goed, mijn punt was dus eigenlijk: je gaat niet een reeks zoeken en kijken of dat toevallig dezelfde is als die uit 1984. Je gaat die van 1984 als uitgangspunt nemen en zoeken of er nog een kleinere is.
Niet bewezen, alleen maar iets waarschijnlijker gemaakt.
Anoniem: 22659 @Hensz25 oktober 2008 19:59
Nee bewezen, aangezien alle mogelijke linialen berekend zijn. Er is geen kortere gevonden en derhalve is bewezen dat die specifieke liniaal het kortste is.
Anoniem: 41820 26 oktober 2008 03:25
Die 50 watt extra is misschien niet veel, maar:

124.387 gebruikers * 50 watt extra verbruik = 6.2 MW ongeveer

6.2 MW is toch heel wat energie. Als het resultaat voor een wetenschappelijke vooruitgang kan zorgen is het wel verantwoord, maar toch :)

Als je € 0.20 rekent voor een kw/h, dan kost een uurtje in totaal dus een 1240 euro aan energie. Het project liep 3006 dagen, natuurlijk heeft niet iedereen die meewerkt constant zijn pc aanstaan, en als die aanstaat is die niet constant numbers aan het crunchen, maar dan zul je nog steeds aan verschillende miljoenen euro aan energie komen. (Als je rekent dat iedere pc 3006 dagen 24/7 numbers stond te crunchen kom je aan een bedrag ergens eind de 80 miljoen euro)

Maargoed, alles voor de wetenschap!
Anoniem: 111378 25 oktober 2008 18:55
kuur voor kanker lijkt mij een goed doel of aids, zie het doel van dit onderzoek niet zo.
Heel goed dat we allerlei aandoeningen de wereld uit willen hebben, maar op die manier overbevolken we onszelf nóg meer/sneller.

Laat er dan ook wat geld gestoken worden in wat meer abstract onderzoek, misschien vinden we zo wel een planeet die geschikt is om te koloniseren. Opdat het voortbestaan van de soort gegarandeerd is, voor het geval we ons zelf hier op déze aardkloot uitroeien.
Totdat je naaste, familielid of iemand anders van dichtbij aan kanker of aids overlijdt, dan piep je wel anders...
Wat een vreemde onderbuikgevoelens hier, mijn opa is ook gestorven aan longkanker. Natuurlijk ben ik daar verdrietig om geweest, hij was mijn meest favoriete familielid zelfs. Nu ben ik hier niet meer of minder kwaad/onthutst/verdrietig/whatever dan ook als dit niet om kanker was.
In die zin die jij aanhaalt moet er ook direct vanallerlei rekenkracht besteed worden aan het principe van ouderdom. Hieraan gaan nog altijd meer mensen dood dan aan enige vorm van kanker dan ook.

Nee, dan ben ik het met Vos021 zeer eens. Reken maar naar andere gebieden die te koloniseren valt. Of naar precieze zenuwfrequenties om de mogelijkheid tot 'robotlichaamsdelen' te realiseren. Ik vind het persoonlijk zelfs prioritair om nog-levende indivduen hun levenskwaliteit te verbeteren door bijvoorbeeld een kunstmatige arm te kunnen produceren. Of gerichter kunstorganen te produceren die perfect op iemands lichaam zijn afgesteld.

Kortom; doe niet mee aan de 'hype' rond kanker, om elk mogelijk stukje leegte daarmee op te vullen, er zijn prioritaire dingen in de globale mensheid. (Begrijp mij niet verkeerd, ik bedoel NIET te zeggen alle kankerpatiënten te laten vallen. Ik zeg alleen dat dit geen overhyped bericht mag worden door Lance Armstrong met zijn gele armbandjes)
Kijk eens naar SETI@Home dan ;)
Als jij een programma kunt schrijven waarmee door stevig rekenwerk een kuur voor aids of kanker gevonden wordt, dan weet ik wel zeker dat je het hele distributed.net achter je hebt staan.

En er ligt dan ook een dikke boekenbon in Stockholm voor je klaar!
En grappig genoeg is folding at home een project dat daar op inspeelt, één van de eerste distributed computer projecten...
Ik hoop dat de OGR-25'ers nu naar WCG komen ;) daar kunnen we dringend extra hulp gebruiken!
Ik heb altijd het idee dat deze projectjes vooral veel energie gebruiken... Hoewel deze net iets zinniger klinkt dan de gemiddelde "laten we brute force een encryptie kraken"-projecten.
In de meest gevallen is het extra energiegebruik een watt of 30-50 ten opzichte van de pc wel aan hebben, maar niet meedoen met een DC-project. Een peertje minder in huis aanhebben heft dat energieverbruik dus al op.
Je hebt er wel gelijk in dat het aan laten staan van de computer speciaal voor dit soort projecten veel meer energie vraagt, tenopzichte van bijvoorbeeld 's-nachts de pc uit. Als ik bij mijn computers thuis kijk zie ik dat de traagste zo'n 150 watt trekt als ik hem volledig belast en de snelste zelfs zo'n 400 watt. Dat versus computer uit is natuurlijk wel een groot verschil.
Anoniem: 84969 @Bubbles25 oktober 2008 18:16
"Een peertje minder in huis aanhebben heft dat energieverbruik dus al op."

En een peertje minder in huis aan, én je PC niet mee laten rekeken, bespaart dus dubbel. Ik vind dit soort projecten maar onzin en pure energieverspilling. Want: de energie die erin gestopt wordt, wordt toch éxtra vebruikt (als in: het is niet energie die je 'toch wel zou gebruiken') en het resultaat is vaak waardeloos.
quote:

"En een peertje minder in huis aan, én je PC niet mee laten rekeken, bespaart dus dubbel. Ik vind dit soort projecten maar onzin en pure energieverspilling. Want: de energie die erin gestopt wordt, wordt toch éxtra vebruikt (als in: het is niet energie die je 'toch wel zou gebruiken') en het resultaat is vaak waardeloos."

Wat een onzin; zet je PC dan helemaal niet aan en post niet op T.net, dat bespaart veel meer. En uiteraard mag je het pure onzin en energieverspilling vinden, maar dat is het zeker niet. Wie wetenschappelijk onderzoek (en bijbehorende resultaten) onzin noemt, begrijpt duidelijk niet hoe technologische vooruitgang tot stand komt ... |:(

Een gemiddelde PC verstookt voor CPU crunchen - zoals al eerder genoemd - ongeveer 30 tot 60W meer dan "idle". Een beetje gamen verstookt al snel 50 tot 100W meer (net zoals crunchen op je GPU). 1 non-spaarlamp dus ... En die 30~60W is ongeveer 10% van het totale stroomverbruik van PC + monitor + etc. Want als je een hele dikke CPU hebt, heb je meestal ook bijhorende andere "dikke" componenten.

Dus een beetje gamen verbruikt meer dan crunchen en een 5" grotere LCD tv kopen kost ook meer dan crunchen. De kachel een halve graad lager zetten bespaart ook vele malen meer. Waar hebben we het dan over ?

Wees liever blij dat er mensen zo onbaatzuchtig zijn vrijwillig mee te werken aan dergelijke goede doelen van "algemeen belang" (medicijnen, encryptie, simulatie-berekeningen die juist fysieke tests (en dus veel meer energie) besparen, etc.) ...
Ik vind de vraag eigenlijk wel interessant. Bij dit soort projecten is het idee dat de PC er toch is. En er dus geen kosten zijn van het project. Echter, de extra energiekosten zijn er natuurlijk wel (nu ja, niet als je een 286 gebruikt. Die verbruikt hetzelfde idle als onder volledige belasting)

De vraag is dus, hoeveel zijn die energiekosten, de extra belasting op het internet om de data bij de deelnemers te krijgen, de kosten van de herberekeningen omdat er data verloren gaat en de extra ontwikkelkosten. Als dit alles meer kost dan een eigen systeem bouwen is het dus "verspilling". Echter, de onderzoekers betalen die rekening niet, dus kan het voor hen economisch toch aantrekkelijk zijn.

De vraag is of het gewenst zou zijn als er een extra milieubelasting plaats vind omdat de onderzoekers derden de rekening laten betalen. Maar goed, dat is een als. Als blijkt dat dit kostentechnisch beter is (dus globaal, niet alleen voor de onderzoeker) en/of beter voor het milieu zijn we direct klaar. Dat weten we echter niet. En de vele kleine beetjes extra stroom maker uiteindelijk toch een flinke hoop gebruikte energie om deze nummers uit te rekenen.
Nou ja, wat jij zegt zet mij weer aan het denken... Wat als je nou ipv een supercomputer gewoon 10.000 man betaald voor hun rekenkracht van hun idle PC/ps3? Wat zou goedkoper zijn? Wat zou minder energie verbruiken?
Als ik nou mijn pc 100 euro per jaar laat verstoken voor een project of als ik die 100 euro rechtstreeks op de bankrekening zet van de onderzoeker, wat zou het meeste opleveren?
Want uiteindelijk is ook 30-60watt niet gratis. Maargoed, ik vind dit soort iniatieven prima en ben er ook niet op uit om dit af te kraken. Laten we daar maar uit concluderen dat Nederlanders helemaal niet zo gierig zijn als we bovenaan staan! ;)

Nog iets, waarom wordt dit soort software niet gewoon als benchmark software gebruikt? Het zou een prima benchmark zijn en daardoor ook populariteit winnen.

[Reactie gewijzigd door poepkop op 22 juli 2024 23:56]

Supercomputers zijn in gebruik wel voordeliger, maar de aanschaf... da's hopeloos. Ik geloof dat er wel eens plannen waren voor een betaalsysteem voor rekenkracht, maar dan zul je alle scammers/valsspelers heel goed in de gaten moeten houden. Nu is het 'alleen maar' voor stats, en dan staat er toch iets minder op het spel.

Prime95? Wordt veel als stabiliteitsbench gebruikt, maar da's omdat ie al bewezen data checkt. Foutjes kun je er dan uit halen. Mis jij toevallig een korte OGR-lineaal, dan is dat vervelend (ja, er is een controle, maar toch). Uiteraard kun je het wel als langetermijn-test gebruiken.
uiteraard mag je het pure onzin en energieverspilling vinden, maar dat is het zeker niet.
Het orakel heeft gesproken? :+

Anyway, misschien is het een idee om anderen wat meer in hun waarde te laten. Doe je vast niemand kwaad mee... een ander ding wat mij opvalt is dat je vooral erg vóór deze oplossing bent, zónder dat je echte harde feiten geeft waarom dit nou de beste manier is.

Wat als bijvoorbeeld blijkt dat al het extra energie-verbruik van zulke projecten de uitstoot van schadelijke stoffen verhoogd, waardoor we over 15 jaar een woekering van huidkanker hebben? Dan kan je blij zijn met je cijferreeks, maar het loodje leggen doen we dan toch allemaal.

Anders gezegd; het nut is er wel, het is alleen niet erg tastbaar en daarom wel erg vatbaar voor kritiek.
wat is dat nou voor onzin, er komen tastbare resultaten uit die van aantoonbaar wetenschappelijk belang zijn, dus pure onzin is het zeer zeker niet. vind je dat dan wel, oke. ga je dat echter rond lopen bazuinen, is het niet meer dan logisch dat je daarin even recht wordt gezet.

en als je toch hoog van stapel loopt, voor een reactie als de jouwe hebben we ook een term: hot air.
Anoniem: 175233 @iceheart26 oktober 2008 09:11
Je kunt je heel sterk afvragen of die resultaten nou werkelijk zo belangwekkend zijn... Of dat het onder de categorie "nou, leuk hoor" in het archief verdwijnen.

NB: Er wordt hier wel gigantisch veel rekenkracht, en dus ook gigantisch veel energie verbruikt om dit soort dingen te berekenen... Als we even uitgaan van 100W per persoon per dag, dan zitten we hier op 37000 MW/h. Dat is al iets van 7 miljoen euro aan energie kosten...

Dat zijn geen geringe kosten, en dan is de vraag best gerechtvaardigt of dat het nu allemaal waard is.

Natuurlijk is dat niet altijd vooraf goed te zeggen... Maar bij dit soort zaken lijkt he er ook vooral heel erg sterk op, dan men gewoon iets zoekt wat veel rekentijd kost, zonder dat er eigenlijk uberhaupt enige behoefte aan is. Het valt op dat bij de vraag naar de mogelijke toepassing, er vrijwel nooit een duidelijk antwoord komt.

En laten we wel wezen... het zou niet de eerste keer zijn dat er totaal nutteloos rekenwerk gedaan wordt. Denk aan het berekenen van Pi in zoveel miljoen decimalen. Daarvan weet je zelfs bij voorbaat dat het absoluut totaal nutteloos is. Toch doet men het. Dit hier begint er ook op te lijken.


De enige die wel duidelijk nut had, was folding at home, die eiwit structuren liet berekenen. Dat is dan ook iets dat overal op de wereld door wetenschappers met supercomputers wordt gedaan.
wel eens van fundamenteel werk gehoord? juistem.

verder: juist projecten die net niet de funding voor een supercluster kunnen krijgen zijn hierbij het meest gebaar. F@H vervangt eigenlijk gewoon wat clusters die anders wel ergens in een begroting waren verschenen is mijn idee soms (ik reken overigens al een aardige tijd bij F@H mee hoor, het is inderdaad wel het meest onmiddelijk nuttige project...) terwijl projecten als dit gewoon niet af zouden komen zonder DC-efforts.
Op het totaalverbruik van de pc valt dat echt wel mee. Als je de pc aan hebt staan en het toetsenbord, muis, webcam, monitor (kortom, alles wat echt nodig is om met de computer te werken en de apparatuur die gevoed wordt door de pc). Het zou een kwart van het gebruik uitmaken.

Als je bewuster bezig bent met het uitzetten van de pc als je hem niet gebruikt, bespaar je ook veel en dan kun je ook de pc mee laten rekenen met nuttige pc- projecten als je ermee werkt. Het ding staat toch aan, dus waarom zou je hem dan ook niet iets nuttigs laten doen?

En wat nuttig is, is wel persoonlijk voor iemand, maar er zijn ook andere distributed computing projecten met een medische inslag, zoals d2ol, folding@home en rosetta@home.

[Reactie gewijzigd door Jaap-Jan op 22 juli 2024 23:56]

Ik laat mijn pc aanstaan om de simpelste reden: Windows Vista wil te traag afsluiten. Laat liever mijn pc dan aanstaan, kan ik ook nog wat downloaden en andere dingen doen die PK's nodig hebben. (niet dat dat veel uit maakt met een quadje tegenwoordig er in als processor)
Hoezo te traag afsluiten? Moet je er dan naast zitten als je je computer afsluit?
Thomasvk, de volgende keer als je je been breekt neem ik aan dat je bv ook niet vraagt naar een rontgenfoto. En ik neem aan dat je ook geen gsm gebruikt of bv televisie kijkt? Al deze technieken maken gebruik onderandere van deze cijferreeksen. Misschien dat jij ergens geen practisch nut ervan in ziet, net zoals sommige mensen het practisch nut van dierentesten niet zien, maar sta er dan ook even stil bij welke technieken je allemaal gebruikt. Sterker nog de kans dat je heden ten dagen nog leeft dankzij deze technieken is vrij reeel, als je bedenkt dat in de middeleeuwen 1 op de 3 mensen overleed bij een breuk.
De bedoeling hiervan is de tegenwoordige technologie verbeteren.
Anoniem: 231832 @anoko26 oktober 2008 08:53
Ik denk dat het rendement van een mainframe wel hoger zal liggen. Als je je PC speciaal alleen maar voor dit soort projecten aan laat staan ben je denk ik verkeerd bezig. Maar als je alleen aan het tekstverwerken bent en dergelijke kun je er een nuttige bijdrage aan leveren die bijvoorbeeld geneeskunde kan helpen, waar veel mensen bij gebaat zijn.
de meeste van die krengen die aan wetenschappelijke projecten rekenen bevatten tegenwoordig gewoon dual xeon nodes oid. leg mij eens uit waarom mijn dual xeon quadcore WS minder rendement heeft :+

oke, slechte vergelijking, niet doorsnee. gewoon systeem, zuinige CPU, 1 of 2 HDDs en mobo, verder niet zo veel aan te drijven heeft een vijfde van de oomph van zo'n bak, ook een 5e van het verbruik. nougoed, iets meer wellicht. maar dan nog, hierdoor hoeft er minder hardware aangeschaft te worden, wat gewoon goedkoper is.

zelfs voor die (irritante) milieufanatici onder ons: denk dan voor de grap eens aan de impact die een computer minder produceren (en daarmee dus ook afvoeren, uiteindelijk) heeft? mehh, denk dat het sommetje best aardig uitkomt hoor :)

je moet alleen niet je PC met P4 en 18 disken er apart voor aan laten staan, maar da's net zo goed een uitzondering :+ (en bovendien waarsch. een fileserver die toch al 24/7 aan staat, in which case het denk ik nog wel te prefereren is m aan het rekenen te zetten.)

Op dit item kan niet meer gereageerd worden.