Pi tot 5 biljoen decimalen uitgerekend

Het wereldrecord voor het berekenen van pi is verbeterd. Op een desktopcomputer is het getal door een Japanner en een Amerikaan tot 5 biljoen cijfers achter de komma bepaald, waarmee het vorige record met 2,3 biljoen cijfers is verbeterd.

Het record werd gevestigd op een door de Japanner Shigeru Kondo speciaal voor dat doel vervaardigde desktop-computer, in combinatie met een door de 22-jarige Amerikaan Alexander J. Yee geschreven programma. De twee zetten het systeem op 4 mei aan het rekenen en konden op 3 augustus het resultaat van 5 biljoen cijfers noteren.

Volgens de twee was er 22TB schijfruimte nodig om de berekening te kunnen vervolmaken en nog eens 3,8TB zou zijn gebruikt voor de opslag van de gecomprimeerde uitkomst. Het systeem bevatte in totaal zestien 2TB-schijven van Seagate en nog eens drie 2TB-hdd's van dezelfde fabrikant voor de opslag van de uitkomst. Voor de raid-opstelling werden twee LSI MegaRaid SAS 9260-8i-kaarten gebruikt. Een Hitachi-schijf van 1TB diende als bootdrive. Twee Xeon X5680-processors, en daarmee twaalf fysieke cores die samen aan 24 threads kunnen werken en die op 3,33GHz opereerden, namen het rekenwerk op zich. Het Asus Z8PE-D12-moederbord werd daarnaast voorzien van 96GB 1066MHz-ddr3 van Samsung.

De software was het programma y-cruncher, dat de rekenlast over verschillende threads verdeelt. Een variant van deze code, y-cruncher BBP, werd ingezet voor de verificatie. De Amerikaan en de Japanner kwamen op het idee voor een poging nadat eind vorig jaar de Fransman Fabrice Bellard zijn record van 2,7 biljoen vestigde op een relatief goedkoop desktopsysteem.

Pi record Pi record

Door Olaf van Miltenburg

Nieuwscoördinator

05-08-2010 • 16:47

285

Submitter: Redinox

Reacties (285)

285
277
161
11
0
0
Wijzig sortering
Het gaat er dan ook niet zozeer om wat je er mee kan, maar dat dit soort zaken al mogelijk zijn met 'gewone' consumentenhardware. Daar hadden we een paar jaar geleden toch niet van kunnen dromen.

Van de site zelf:
Purpose... Why?
Because it's Pi... and because we can!

On a more serious note:
After Fabrice Bellard's announcement of 2.7 trillion digits on a "relatively cheap" desktop, it was pretty clear that the limit of personal computing was a lot higher.

Shigeru Kondo and I wanted to see how much better we could do if we used some more powerful hardware.
Both of us are hardware fanatics. And both of us (especially Shigeru Kondo) had some very powerful machines at our disposal.

So with that, we decided to see how far we could push the limits of personal computing using personally owned hardware.
in die screenshot staat dat het 46 uur geduurt heeft... Kun je nu ook stellen dat als ze het algorithme 100 uur hadden laten draaien dat ze 10 biljoen decimalen hadden kunnen bereiken? In dat geval is deze prestatie an sich misschien niet zo spannend

edit: @hieronder oja kek :D foutje. een maand of 4 dus. Naja goed, nog 4 mnd er bij en week 5 miln toch?

[Reactie gewijzigd door Garma op 24 juli 2024 19:11]

Ja, en kijk nu eens GOED naar dat screenshot... bijna 2000 uur hoor! :D
Hoe betrouwbaar is dit resultaat, als ik diep in mijn geheugen graaf herinner ik me vaag iets over 'cignifikante cijfers' en 'de uitkomst van een berekening kan nooit meer cignifikante cijfers bevatten als de input'. En hoe ze aan die input gekomen zijn lijkt me veel interesanter dan de specs van de pc waarmee de berekening is uitgevoerd.

Ze moeten het volgende hebben gedaan:

1) Een perfecte cirkel gemaakt.
2) De omtrek van deze cirkel tot minimaal 5 biljoen decimalen nauwkeurig hebben opgemeten.
3) De diameter van deze cirkel tot minimaal 5 biljoen decimalen nauwkeurig hebben opgemeten.

Bovenstaande lijkt me een grote prestatie dan een 'simpele berekening'.
Dat van die significante cijfers heeft niets te maken met betrouwbaarheid. Het klopt dat bij de berekening van bv. een cirkelomtrek met de pi met 5 biljoen decimalen de straal ook tot op 5 decimalen gekend moet zijn om een even significant resultaat te bekomen. In de praktijk dus onmogelijk. Indien de straal echter wel met deze nauwkeurigheid gekend zou zijn, bekom je effectief een omtrek die exact is tot op 5 biljoen decimalen.

Dit om te zeggen dat de 5 biljoen berekende decimalen van pi wel allemaal gewoon correct zijn.
Hoe dit in de praktijk berekend wordt is niet helemaal zoals jij het beschrijft, dit is in de comments hierboven al aan bod gekomen. Zie bijvoorbeeld http://en.wikipedia.org/w...ation_in_the_computer_age :)
Pi is een onderdeel van een berekening, en dus niet een uitkomst van iets. Het hoeft dus niet significant te zijn...
en hoe weten ze dat het klopt.
Door het te vergelijken met een controleberekening die een geheel andere formule gebruikt.

Als je het artikel leest, dan zie je dat er zelfs 2 controles zijn uitgevoerd.
Hoe weten ze dat dìe dan kloppen?

Eerlijk is eerlijk, het kàn toeval zijn dat de resultaten overeenkomen. O-)
De kans dat het 1ste getal @random goed is is maar 1 op 10. Laat staan hoe de kansen zijn dat er 5 biljoen getallen achter elkaar goed gegokt zijn. Daar bestaat letterlijk nog geen getal voor ;)
Echt nieuws zou zijn geweest als er niets meer kwam na 4 biljard cijfers
In het book 'Contact' (er is ook een boek van met Jody Foster in de hoofdrol),
blijkt uiteindelijk dat ergens ver weg in de van PI (in base 11) een blokje
staat met alleen maar enen en nullen die een perfecte cirkel vormen
als je ze in een vierkantje zou neerzetten... ;)

Over de implicaties van zo'n ontdekking moet ieder voor zich maar even nadenken...

Zie: http://en.wikipedia.org/wiki/Contact_(novel)
enen en nullen die een perfecte cirkel vormen als je ze in een vierkantje zou neerzetten
Behalve dan dat je in een vierkant raster dus geen "perfecte cirkel" kunt maken...
En tja, als de huidige verwachting dat pi "normaal" is (elke reeks van n cijfers tref je gemiddeld 1 op de base^n keer aan) inderdaad klopt, dan is het volstrekt logisch dat zo'n reeks voorkomt; gewoon ver genoeg zoeken (en pi is oneindig lang, dus plek zat om te zoeken). Overigens komen reeksen met een "mislukte cirkel" dan ook voor (en nog veel vaker ook), da's dan wel weer een beetje jammer.
rant: Het boek heb ik niet gelezen, maar de film blaat een eind weg over "hydrogen times pi". Waarom....!? Als je gewoon pi neemt heb je een universele constante, waarom ga je dan eerst vermenigvuldigen met de massa van waterstof, dat is namelijk geen universele constante (op Aarde bepalen we de massa van atomen aan de hand van het ijkpunt koolstof-12 = 12 u, terwijl het veel logischer, maar (op Aarde) minder practisch, zou zijn om te zeggen waterstof-1 = 1 u).
Haha, de hele wiskunde zou als een kaartenhuis ineenstorten. Dus ja, dat zou idd nieuws zijn! :P
Kan dit eigelijk niet sneller mbv CUDA ofzo? Want het lijkt me toch steeds min of meer dezelfde berekening die heel snel achter elkaar uitgevoerd wordt...
Kan dit eigelijk niet sneller mbv CUDA ofzo? Want het lijkt me toch steeds min of meer dezelfde berekening die heel snel achter elkaar uitgevoerd wordt...
De berekening van Pi is toch maar 1 berekening en niet 5 biljoen gelijksoortige berekeningen? ;) Pi = omtrek van een circel gedeeld door de diameter van diezelfde circel... ;)

Jammer dat het nieuwsbericht er niet over rept en de comments ook niet:
Hoe lang zou deze PC er over hebben gedaan om dit te berekenen?

[Reactie gewijzigd door CH4OS op 24 juli 2024 19:11]

De berekening van Pi is toch maar 1 berekening en niet 5 biljoen gelijksoortige berekeningen? ;)
Er is (als je binair of hexadecimaal werkt) een directe formule voor het n-de cijfer van pi (zo'n formule bestaat niet voor decimale notatie voor zover ik begrepen heb). Dus je zou in theorie parallel kunnen werken. Aangezien ze hiervoor niet gekozen hebben neem ik aan dat die aanpak (aanzienlijk) minder efficiënt zou zijn.
Anoniem: 271262 @CH4OS5 augustus 2010 17:46
@CptChaos:
Jammer dat het nieuwsbericht er niet over rept en de comments ook niet:
Hoe lang zou deze PC er over hebben gedaan om dit te berekenen?
In het artikel staat:
De twee zetten het systeem op 4 mei aan het rekenen en konden op 3 augustus het resultaat van 5 biljoen cijfers noteren.
91 dagen naar mijn berekening. :)

[Reactie gewijzigd door Anoniem: 271262 op 24 juli 2024 19:11]

[...]
De berekening van Pi is toch maar 1 berekening en niet 5 biljoen gelijksoortige berekeningen? ;) Pi = omtrek van een circel gedeeld door de diameter van diezelfde circel... ;)
Hoe ga je de omtrek en straal ve cirkel zo nauwkeurig meten dat je pi nauwkeurig tot op 5 biljoen decimalen kan berekenen?

Het werkt andersom: als je de straal weet kan je dmv pi de omtrek berekenen (en vice versa), maar dan moet je dus eerst pi zo nauwkeurig mogelijk weten.
Jammer dat het nieuwsbericht er niet over rept en de comments ook niet:
In de comments hier op tnet is het wel genoemd:

sleeplift in 'nieuws: Pi tot 5 biljoen decimalen uitgerekend'
nee, je hebt de geheugen bottleneck, grafische kaarten komen lang niet in de buurt van normaal geheugen en de snelheid tussen een gpu en je ram is te traag waardoor dat ook gaat bottlenecken. je zou eerder een 64gb grafische kaart nodig hebben en daar zijn we nog ver van verwijderd.
Ik vraag me eigenlijk af waarom ze dit record niet es breken met een echte supercomputer. Die zou hier toch losjes over kunnen gaan of is dat nu gewoon iets waar de wetenschap zich niet echt wilt mee bezig houden?
Ik denk dat supercomputers iets te duur zijn voor dit soort zaken, en dat die voor nuttigere dingen kunnen worden ingezet.

Want wat is nu in de praktijk het voordeel van zo'n lang nummer? Waar zit de wetenschappelijke waarde, die het rechtvaardigt om een supercomputer hiervoor in te zetten?
Als ik het zo bekijk is het ondertussen (redelijk) zeker dat pi een transcendent (niet te schrijven als oplossing van een veeltermfunctie) getal is. Ik vermoed dat er echter wel degelijk nog steeds een aantal (pseudo-)wetenschappers zijn die zoeken naar patronen in pi om de transcendentie te ontkennen of bepaalde conclusies te kunnen trekken over wiskunde in het algemeen.

Zie bijvoorbeeld een aantal pi facts. Zo komt het getal 0 bijvoorbeeld niet voor in de eerste 31 digits :Y) Verder zoeken ze waarschijnlijk o.a. naar plaatsen waar een getal meerdere malen na elkaar voorkomt bv. 9 keer 9 achter elkaar, enz.

Tenslotte, worden er speciale algoritmes ontworpen (in het artikel gaat het louter over efficiënt programmeren) om pi zo snel en accuraat mogelijk te berekenen. Dit zorgt er voor dat nieuwe wiskundige technieken (bv. versnellen van convergentie) ontwikkeld worden die dan weer andere toepassingen van computersimulaties, bv. stromingsleer, ten goede komen.

Dit zijn maar een paar algemene zaken, hiermee wil ik zeker niet zeggen dat dit rechtvaardigt om er een supercomputer voor in te zetten :)

[Reactie gewijzigd door sleeplift op 24 juli 2024 19:11]

Als ik het zo bekijk is het ondertussen (redelijk) zeker dat pi een transcendent (niet te schrijven als oplossing van een veeltermfunctie) getal is.
Niet redelijk zeker, maar echt zeker. Staat ook in het door jou genoemde artikel:
In 1882, Ferdinand von Lindemann published a proof that the number π is transcendental.
Welja, ik zag dat het bewezen is vanwege het theorema van Lindemann–Weierstrass. Dit betekent dus wiskundige zekerheid, maar ik laat gewoon de kans bestaan dat eventueel alle wiskunde tot hiertoe fout was :P Zoals bijvoorbeeld alle fysica verkeerd zou zijn als het Higgsboson niet gevonden wordt in de LHC (of het upquark for that matter ;))
Zowel wiskunde als natuurkunde zijn afhankelijk van definities (zo is de seconde gedefineerd, evenals de meter etc). Wiskunde is ook gedefineerd. Het bewijzen van een fout in de definitie van getallen (al is het alleen maar 1+1=2) gaat verder terug dan alleen wiskunde.

Je zult in dat geval to het diepste van filosofie en de werking van het menselijk brein moeten gaan, omdat de definities in de wiskunde die wij kennen, minstens even ver terug gaat.

Maar als je bewezen hebt dat de definities fout zijn? Wat doe je dan? Met nieuwe definities komen is minstens even moeilijk als bewijzen dat de oude niet kloppen (en anderen kunnen bovendien vervolgens je beweringen weer onderuit schoppen).

Maar dat probleem laat ik even liggen, ik schat de kans dat de definities fout zijn gelijk aan 0. Met behulp van de definities die we nu kennen, kunnen we werken. Zowel in het dagelijks leven (handig voor zo'n beetje elk wiskundig computerprogramma dat we kennen), als in de wiskundige bewijsvoering.
Als er een deeltje niet gevonden wordt door de LHC kan het ook zijn dat ze beter moeten zoeken he...
Gelukkig zijn de Amerikanen alweer een nog betere machine in elkaar aan 't prutsen ;)
Ik vermoed dat er echter wel degelijk nog steeds een aantal (pseudo-)wetenschappers zijn die zoeken naar patronen in pi om de transcendentie te ontkennen
Ik denk dat dat inderdaad de reden is:
en nog eens 3,8TB zou zijn gebruikt voor de opslag van de gecomprimeerde uitkomst
Voor de mensen die het niet snappen: je kunt alleen iets comprimeren als er een patroon inzit; pure random noise (en pi, in binaire/hexadecimale notatie) kun je niet comprimeren.
Ja ja, dat zal vast gaan over de decimale notatie, waar compressie wel iets mee kan, maar het klinkt zo raar.

[Reactie gewijzigd door robvanwijk op 24 juli 2024 19:11]

Ik kan me toch wel voorstellen dat bepaalde combinaties getallen vaker voorkomen (ook al staan die op "willekeurige" plaatsen), waardoor je het toch kan comprimeren
Dan zal die gecomprimeerde versie maar weinig schelen met de ongecomprimeerde versie.
Je kunt pi comprimeren tot een programma wat pi berekent.
Pi is wel te schrijven als een reeks. de reeks van leibniz is de simpelste.
Er zijn oneindig veel decimalen van Pi.
Voor alle practische toepassingen hebben we er nu al ruim voldoende.
Iedereen die beschikking heeft over een supercomputer heeft wel iets beters te doen dan nog meer decimalen uit te rekenen.
22 TB voor 5 biljoen decimalen? Gewoon in ASCII opslaan komt neer op 5 TB lijkt mij. Als je meeneemt dat een decimaal slechts 10 verschillende waarden kan hebben, zou het zonder compressie in 2,1 TB passen.
Dus zeg, 5 bits per decimaal getal
Aangezien 10 binair geschreven 1010 is, doen we er nog een 0 voor als controle bit ;)

Dan krijg je dus 5.000.000.000.000 x 5 bit = 25.000.000.000.000 bit = 3.125.000.000.000 byte

Eventjes doorgerekend (steeds delen door 1024) kom ik uit op: 2,84 TB (afgerond)
Nu krijg ik bijna het idee dat hier een typfout is gemaakt, want het is toch eerder 2,8 TB (op 1 decimaal dus) dan die 3,8 (een 2 of een 3 typen is snel gedaan ;) )


REPLY op antwoord hieronder:
Door ChevyVan79, donderdag 5 augustus 2010 17:26

Nu verward je TB (terabyte) met TiB (tebibyte).

1 terabyte staat gewoon voor 1.000.000.000.000 (één biljoen) bytes.
1 tebibyte staat voor 1.099.511.627.776 bytes.
Vervolgens staat op diezelfde wiki-pagina:
In de praktijk wordt de terabyte echter ook gebruikt voor 1024 GB = 1.099.511.627.776 B

Sterker nog, als je het letterlijk uitrekend in TeraByte en niet als een Tebibyte, dan krijg je:
3.125 TB (als macht van 10) dit lijkt nog steeds niet bepaald op een 3,8 TB (als macht van 10)

Conclusie: In de tweakers post wordt gesproken over TeraByte (als macht van 2) en lijkt het een typfout te zijn.

[Reactie gewijzigd door pimovietc op 24 juli 2024 19:11]

Nu verward je TB (terabyte) met TiB (tebibyte).

1 terabyte staat gewoon voor 1.000.000.000.000 (één biljoen) bytes.
1 tebibyte staat voor 1.099.511.627.776 bytes.

Dit is in 1998 bedacht door de IEC om de verwaring (hd fabrikanten maken hier vooral gebruik van) uit de wereld te helpen.
Maar ik snap goed dat je die twee verward, want dat doet iedereen.

OT
Ik vind het knap dat ze zoiets hebben gepresteerd, maar wat het nut ervan is? Ik denk niet dat een rekenmachine nu een 5 biljoen lang getal gaan gebruiken om de omtrek van een cirkel te berekenen? 8)7

[Reactie gewijzigd door ChevyVan79 op 24 juli 2024 19:11]

Dit is in 1998 bedacht door de IEC om de verwaring (hd fabrikanten maken hier vooral gebruik van) uit de wereld te helpen.
Maar ik snap goed dat je die twee verward, want dat doet iedereen.
(setq *rant* 1)
Waardoor dus de verwarring alleen maar toenam. In de computerwereld was 1 TB altijd een macht van twee, het waren alleen de fabrikanten die de tiendemacht variant gebruikten omdat je disk dan groter lijkt. Dat in andere werelden het tientalligstelsel gebruikt werd, en daarom de boel omgedefinieerd moest worden is alleen maar het achteraf goedpraten van marketing over brains.
(setq *rant* 0)

@allemaal hieronder, Jaja, het was een rant :) maar toch

[Reactie gewijzigd door durian op 24 juli 2024 19:11]

In de computerwereld was 1 TB altijd een macht van twee, het waren alleen de fabrikanten die de tiendemacht variant gebruikten omdat je disk dan groter lijkt.
BLIEP fout. "In de computerwereld" is er helemaal geen eenduidigheid. De factor 1024 variant is een beetje gegroeid door intern geheugen dat steeds vaker met machten van 2 werd geproduceerd omdat dat nou eenmaal handiger is aangezien binaire geheugenadressering dan gewoon door kan lopen over meerdere chips. Echter, in dezelfde tijd werden ook nog gewoon geheugenchips gefabriceerd met bijvoorbeeld 1000 bytes wat gewoon correct werd aangeduid met 1kB, en ook externe opslag is dat blijven gebruiken. Waardoor de moderne hardeschijf dus ook gewoon die notatie aan heeft gehouden. Ook in de telecommunicatie is een snelheid van 64 kilobit gewoon 64000 bits per seconde, en 100 mbit is gewoon 100.000.000 bits/s.

Heeft compleet niets van doen met een één of andere opzettelijke naaistreek van hardeschijffabrikanten, maar gewoon met een wildgroei van systemen om dingen in te noteren, en het feit dat de meeste operating systems standaard gewoon de factor 1024 gebruikten bij weergave van geheugen- en bestandsgrootten.

Maar goed, dat klinkt allemaal natuurlijk lang niet zo spannend als een of andere conspiracy theorie om de consument op het verkeerde been te zetten 8)7

[Reactie gewijzigd door .oisyn op 24 juli 2024 19:11]

Das niet waar, netwerken zijn bijvoorbeeld al vanaf het begin in tientallig stelsel gemeten, zo was een 9k6 modem altijd 9600 baud, en 1 Mbit/s altijd 1e6 bits/s. Alleen geheugen was het buitenbeentje dat in tiendemachten werd gerekend.

[Reactie gewijzigd door Dreamvoid op 24 juli 2024 19:11]

Als je dan rant, doe het dan goed; als de fabrikanten van netwerk-apparatuur het over een "gigabit per seconde" hebben bedoelen ze ook 1.000.000.000 bits/sec. In nagenoeg alle gevallen kun je met een halve seconde nadenken zelf al inzien of een bepaalde toepassing 2-machten of 10-machten gebruikt (kort door de bocht: dingen die "in 2-machten" worden opgebouwd, zoals chips gebruiken 2-machten, bijna al het andere gebruikt 10-machten). De enige echte verwarring is er bij je OS, bij het weergeven van bestandsgrootte en schijfgrootte.
Maar Gb is géén macht van 2, dus het was sowieso onduidelijk en onlogisch.

De verwarring is net gekomen omdat men in de computerwereld te lui was om zich aan de standaarden te houden omdat het verschil bij kleine getallen toch zo klein was.
Dat in andere werelden het tientalligstelsel gebruikt werd, en daarom de boel omgedefinieerd moest worden is alleen maar het achteraf goedpraten van marketing over brains.
Terra is altijd één biljoen of 10^12, of je nu een twee-, drie- of tientallig stelsel gebruikt. Daar is toch niets vreemd aan? Een dozijn eieren worden er toch ook niet opeens 10 als je een tientallig stelsel gebruikt?
Al eens gedacht aan de ruimtevaart? Bedenk maar aan het berekenen van trajecten over miljarden en meer kilometers, of het schatten van de grootte van planeten op basis van de gegevens van ruimtetelescopen? Komt daarbij dat het ook mooi op je cv staat indien je op je 22-jaar het internationaal nieuws haalt? Redenen genoeg dus.
Een lichtjaar is ongeveer 9,46 × 10^12 km. Dus zelfs als je rekent met afstanden van honderden lichtjaren dan heb je aan 20 cijfers genoeg om dat op de millimeter (!!) nauwkeurig te doen. Ja, zo hard groeien getallen in het tientallig stelsel.

@StarWars: Okee, jij je zin; het universum heeft (volgens WolframAlpha) een middellijn van ongeveer 8,8 x 10^26 m. Dus met minder dan 40 cijfers kun je het universum tot op de laatste picometer atomen zijn enkele tientallen pm groot nauwkeurig opmeten. Is dat dan overtuigend genoeg om te zeggen dat meer dan enkele tientallen cijfers achter de komma volstrekt zinloos is?

[Reactie gewijzigd door robvanwijk op 24 juli 2024 19:11]

Ahum... ons piep kleine melkwegstelseltje is al 100.000 lichtjaar in doorsnede. Maar het is ook niet zo dat we morgen over ruimteship kunnen beschikken die ruimte en tijd kan vouwen om zich te verplaatsen... helaas. ;(

Maar dankzij deze PIoniers kunnen we in iedergeval de navigatie computer programmeren voor een reisje, over 10.000 jaar.

[Reactie gewijzigd door StarWars op 24 juli 2024 19:11]

Maar als je de ruimte vouwt, dan wordt die afstand toch weer kleiner? En dan heb je aan een paar decimalen weer genoeg ;).
De ruimtevaart heeft geen drol aan een zo nauwkeurige benadering van PI. Hun eigen metingen hebben namelijk maar een gelimiteerd aantal significante cijfers, die bij lange na niet in de buurt van de 5 biljoen komen (denk eerder aan 10 of 20 ofzo). Het heeft dus ook geen nut om in berekeningen een zo nauwkeurig getal te gebruiken, aangezien de invoer de limiterende factor is.

[Reactie gewijzigd door .oisyn op 24 juli 2024 19:11]

Ik denk niet dat een rekenmachine nu een 5 biljoen lang getal gaan gebruiken om de omtrek van een cirkel te berekenen? 8)7
Dan zou die rekenmachine een paar TB aan opslag nodig hebben alleen al om zijn constante op te slaan...
Zelfs in theorie schiet je rekenmachine er niks mee op: het heeft alleen zin om 5 biljoen (of, in het algemeen: "x") cijfers aan nauwkeurigheid te gebruiken als beide factoren x cijfers nauwkeurigheid hebben. Zoek het natuurkundige begrip "significante cijfers" maar eens op: 1,0 * pi = 3,1 en 1,00 * pi = 3,14; het is zinloos om te zeggen dat 1,00 * pi = 3,14159... omdat de straal (1,00 in dit geval) niet nauwkeuriger bekend is.
Los daarvan, zelfs al ken je de straal op 5 biljoen cijfers nauwkeurig met ongeveer 10 a 15 cijfers zit je trouwens al op atoom-schaal te meten, maar dat terzijde, de cirkel is toch niet perfect rond genoeg om de berekening in de praktijk te laten kloppen.

Het heeft gewoon geen nut (zie ook de post van Redinox iets verder naar onder), behalve dan "omdat het kan", als je dat als "nut" vindt tellen.
Dit is in 1998 bedacht door de IEC om de verwaring (hd fabrikanten maken hier vooral gebruik van) uit de wereld te helpen.
Nee, het is een suggestie geweest, met de kanttekening dat zij daar niet over gaan. Er staat iets van 'het zou ons inziens beter zijn als de IT ook onze definitie gaat gebruiken, maar dat valt buiten onze definitie, wij bepalen alleen het gebruik binnen de wiskunde".
Er staat expliciet in de SI-definitie dat deze niet voor eenheden van informatie, zoals bytes, geldt.

Maar het was een duidelijk gevalletje waarbij de bakker en slager beiden verschillende 'worstenbroodjes' verkopen een de slager zegt dat het beter zou zijn als de bakker zijn worstenbroodjes anders zou noemen.

Ze hadden beter 2 geheel nieuwe termen kunnen pakken in plaats van proberen bij een van de 2 partijen een bestaand begrip te hernoemen. Dan was verwarring voorkomen in plaats van groter geworden.

PS. Harddiskfabrikanten zijn omstreeks de 800MB overgeschakeld van het gebruik van 1024 naar 1000 bytes per kilobyte.
Er kan ook nog compressie over de data heen gaan; denk aan een Huffman codering (http://en.wikipedia.org/wiki/Huffman_coding) dit kan goeie resultaten opleveren bij dit soort data.
Volgens mij werkt compressie helemaal niet goed op zulke data, mits het al binair gerepresenteerd is. Het is namelijk een random (niet voorspelbare) verzameling van getallen, en volledig random data is niet comprimeerbaar. Nouja, het gebruik van het pi-teken ipv de uitgeschreven reeks is sort of compressie ;)
Compressie werkt goed op de representatie van het getal omdat je per groep bits (4 of 8 ) maar een beperkt aantal mogelijkheden (10) daadwerkelijk gebruikt. Maar als je de data zelf al zo efficient mogelijk opslaat, met bijvoorbeeld 3 cijfers per 10 bits zoals ik al eerder zei, dan helpt de compressie idd nog maar weinig omdat de cijfers van PI zo goed als random zijn.

[Reactie gewijzigd door .oisyn op 24 juli 2024 19:11]

Anoniem: 125126 @.oisyn5 augustus 2010 20:31
Als je het getal opslaat als IEEE754 getal met oneindig lange mantissa heb je dus de meest efficiente opslag.
2tb schijven x3 - raid 5 anyone = is nogaltijd 4tb blijkbaar hebben ze het een beetje ruim genomen ... want 1tb schijven had wel wat weinig ruimte gelaten. ;) en anderhalf 1tb had dan weer wel gekunt (maar was redelijk krapjes geweest. ik snap die keuze dus wel...
Ascii lijkt me inefficient. Ascii werkt dacht ik met 1 byte per karakter (8 bits: 2^8=256 mogelijkheden). Je hebt er maar 10 nodig. Dit krijg je al met 4 bits (2^4=16 mogelijkheden) per karakter. Kom je dus uit op een bestandsgrootte van de helft. Als je daar nog een compressie overheen gooit, zal je wel op nog wat lager uitkomen.

Verder was die 22 TB niet gebruikt voor het opslaan, maar voor het doen van de berekening opzich. Pi werd uiteindelijk opgeslagen op bijna 4 TB.

Wat ook leuk is, is dat er staat 'last digits of pi'. Ik vind, als ze nu al zover zijn, mogen ze de rest ook wel even doen!
Het beste zou het natuurlijk zijn om het gewoon binair op te slaan... dan heb je aan 64 bits al ruim genoeg(wat bijna alle processors tegenwoordig wel zijn). Je hoeft alleen het gedeelte wat nog niet berekend is op te slaan. Dus je hoeft slechts 3 biljoen mogelijkheden op te slaan ofzo.
Ehm.. nee, met 64 bits kun je maar iets van enkele tientallen decimalen precicie krijgen ;-). 3 biljoen mogelijkheden, dus 10^12 mogelijkheden, is niet hetzelfde als 3 miljoen cijfers (10^(3*10^6) mogelijkheden).
Het beste zou het natuurlijk zijn om het gewoon binair op te slaan... dan heb je aan 64 bits al ruim genoeg(wat bijna alle processors tegenwoordig wel zijn).
Euh nee. Een 64 bits getal is voldoende om aan te geven uit hoeveel cijfers het getal bestaat, maar niet om het hele getal op te slaan. Een getal van 5 biljoen cijfers is namelijk in de orde van grootte van 105.000.000.000.000. In een 64 bits getal passen hooguit 64*log(2) ~= 19 cijfers, en is dus in de orde van grootte van 1019.
2^4 != (0,5) * 2^8

Het is de vierkantswortel ervan ;)
Dat klopt, maar Nemesix beweert helemaal niets van zulks. Waar Nemesix het over heeft is dat je een digit in een nibble (4 bits) kunt coderen, waardoor je, itt de ASCII variant (8 bits per digit), maar half zoveel data nodig hebt om het hele getal op te schrijven.

Het aantal mogelijkheden per groepje bits doet helemaal niet terzake, het was alleen even om aan te geven dat je een digit in 4 bits kunt coderen omdat je met 4 bits 16 mogelijkheden hebt.

Een nog efficientere methode is overigens om in 10 bits 3 digits op te slaan.

[Reactie gewijzigd door .oisyn op 24 juli 2024 19:11]

2^4 is niet de helft van 2^8. Je probeert een exponentiele functie lineair te bepalen. Dit is onmogelijk (behalve dan met een "oneindige" taylor-reeks).
2^4 is niet de helft van 2^8
Dat is precies wat hij zegt. != is het symbool voor 'ongelijk aan' in veel programmeertalen :)
Anoniem: 147126 @jvo5 augustus 2010 17:00
Volgens mij werd die 22 TB als soort 'cache' gebruikt? Want er staat ook: "en nog eens drie 2TB-hdd's van dezelfde fabrikant voor de opslag van de uitkomst". Dat is dus maximaal 6 TB voor de uitkomst (lijkt me dus dat ze de uitkomst gewoon in ASCII hebben opgeslagen en dus inderdaad 5 TB is)
Op zich een knappe prestatie, maar wat is nu het praktische nut c.q. toepassing van zo'n lang getal?

Tuurlijk kan je hem wel voor encryptie etc gebruiken, maar minder dan 5 biljoen getallen volstaat dan ook wel lijkt me?
Onze aanname is dat pi een oneindig aantal cijfers achter de komma kent en daardoor nooit exact bepaald kan worden. Alle formules waarin pi voor komt kennen daardoor slechts benaderingen als uitkomst. Stel nu dat er een patroon te herkennen is in de cijfers achter de komma, dan is pi dus toch exact te bepalen. In een klap zijn we dan al die benaderingen kwijt. Een patroon hebben we nog niet kunnen ontdekken, dus blijven we pi verder benaderen, al is het maar omdat daarmee ook die benaderde uitkomsten steeds nauwkeuriger worden...
Onze aanname is dat pi een oneindig aantal cijfers achter de komma kent en daardoor nooit exact bepaald kan worden. Alle formules waarin pi voor komt kennen daardoor slechts benaderingen als uitkomst. Stel nu dat er een patroon te herkennen is in de cijfers achter de komma, dan is pi dus toch exact te bepalen. In een klap zijn we dan al die benaderingen kwijt. Een patroon hebben we nog niet kunnen ontdekken, dus blijven we pi verder benaderen, al is het maar omdat daarmee ook die benaderde uitkomsten steeds nauwkeuriger worden...
Dit is bogus. Je kunt wiskundig bewijzen dat pi een irrationaal getal is. Het is dus niet exact te bepalen. Ook niet als je verder "achter de komma" blijft zoeken.

Bovendien heeft ieder getal " een oneindig aantal cijfers achter de komma".

[Reactie gewijzigd door z.jeroen op 24 juli 2024 19:11]

Anoniem: 299568 @z.jeroen5 augustus 2010 23:19
Straffer nog, Pi is transcendent, niet gewoon irrationaal...
Wortel 2 is irrationaal, het is een oplossing van de vergelijking x²-2 = 0.
Pi is niet te schrijven als de oplossing van een veeltermvergelijking.

Transcendent

Al vraag ik mij af of er nu geen fout staat op de nederlandse wikipedia: hier staat dat n>=1 mag zijn, en Pi is toch echt wel een oplossing van x - Pi = 0.
Iemand die dit weet?
Al vraag ik mij af of er nu geen fout staat op de nederlandse wikipedia: hier staat dat n>=1 mag zijn, en Pi is toch echt wel een oplossing van x - Pi = 0.
Iemand die dit weet?
Ja, een transcendent getal is geen oplossing van een vergelijking met rationale coëfficiënten. Er is bewezen dat pi irrationaal is, dus mogen we het zeker niet als coëfficiënt van x0 gebruiken ;)
Al vraag ik mij af of er nu geen fout staat op de nederlandse wikipedia: hier staat dat n>=1 mag zijn, en Pi is toch echt wel een oplossing van x - Pi = 0.
Er staat:
voor n ≥ 1 met geheeltallige of meer algemeen rationele coëfficiënten ak,
waarbij geldt dat an ≠ 0.
Jij hebt in de vergelijking gekozen voor ak = a0 = π.
En dit is eigenlijk gelijk het antwoord: π is geen geheeltallige of rationele coëfficiënt.

Dat π niet geheeltallig is lijkt me duidelijk.
Dat π niet rationeel is, is omdat het niet te schrijven is als een breuk van gehele getallen.

Zonder de voorwaarde zou ieder getal alsnog te schrijven zijn als een oplossing van die eindige algebraïsche vergelijking van willekeurige eindige graad.

:)

[Reactie gewijzigd door VOODOO_WILLIE op 24 juli 2024 19:11]

Aha, oké, blijkbaar heb ik er dus te snel overgelezen...
Juist. En dat wiskundige bewijs grijpt terug op axioma's en theorems. Ik wil ook niet zeggen dat dit bijzonder veel kans van slagen heeft ofzo. Je kan beter proberen te bewijzen dat God al dan niet bestaat, of dat 1 + 1 toch niet altijd 10 is ;). Dat betekent niet dat mensen dat niet alsnog proberen. En ach, wie weet vinden ze ergens een leuk deelpatroontje en gaan ze daarmee de geschiedenis in. Leuk toch voor ze als het lukt?

Vroeger moest je echt heel diep de wiskundige theorie in om een nieuwe eigenschap van iets als pi te ontdekken, of te bewijzen dat pi juist ergens niet aan voldoet. Tegenwoordig kun je met een handjevol duiten een PC in elkaar zetten, pi bepalen tot een absurd aantal cijfers achter de komma en dan gaan kijken of je iets interessants tussen al die cijfers kan ontdekken, wederom met voornoemde PC. Het is niet alsof je je leven vergooit aan het vierkant maken van cirkels ;)
wat een onzin. duik jij de boeken maar eens in over getallen die niet te berekenen zijn maar alleen te benaderen het meest simpele is even lastig als het grootst bekende wortel 2 bijv. pi is slechts een van deze getallen. als je een beetje van goniometrie weet (en dat doe jij duidelijk niet) snap je dat dit toch echt wel van belang is. Ik zeg niet dat er veel mensen zijn die hier direct mee te maken krijgen, maar indirect is dit een stap vooruit voor iedereen.
Ik snap bij benadering niet wat je bedoelt, kan er geen patroon in ontdekken.
Als je neerbuigend doet is het wel fijn helder te zijn.
Tss, alsof er ook maar één wiskundige op deze aardkloot rondloopt die 'zijn' vak kan uitleggen in lekentermen :+. Kijk maar naar wikipedia en haar wiskundige artikelen. De aanname bij veel van de wiskundige artikelen is dat je als lezer redelijk 'technisch' onderlegd moet zijn om het te kunnen lezen, althans dat was enkele jaren geleden zo. Veel artikelen begonnen veelbelovend, om daarna te vervallen in 5 schermen formules met minimale of geen uitleg.

Nu heb ik over het algemeen geen grote problemen met zulke zaken, maar wikipedia is een encyclopedie, en als je naar zo'n pagina gaat om snel even iets op te zoeken over iets waar je weinig/niets vanaf weet (wat wel het doel is lijkt mij zo), dan wordt je niet veel wijzer zonder erg diep het onderwerp in te duiken :P
Hier haal je toch wat dingen door elkaar. Het berekenen van pi is gewoon voor de sport voor die jongens. Het ziet er allemaal wel cool uit moet ik zeggen.

In RSA-codering maakt men gebruik van priemgetallen. En hiervoor zoekt men dan ook naar grote priemgetallen met de juiste eigenschappen.

[Reactie gewijzigd door Wouter.S op 24 juli 2024 19:11]

Anoniem: 310408 @Wouter.S5 augustus 2010 17:43
In RSA-codering maakt men gebruik van priemgetallen. En hiervoor zoekt men dan ook naar grote priemgetallen met de juiste eigenschappen.
Hoor je vaker, maar denk je echt dit soort getallen (5 biljoen cijfers) hiervoor bruikbaar zijn?
Als iemand mij een RSA sleutel van 5 biljoen digits geeft heb ik die zo gekraakt; zoveel priemgetallen zijn er niet bekend die lang genoeg zijn om zo'n lengte te halen...
Bovendien, was het niet 1024 bits voor banken, 2048 voor militaire doeleinden en 4096 heeft alleen maar de omschrijving "paranoid"? Dan lijkt een sleutel van zelfs maar een miljoen bits me enigszins "overkill".
computers worden steeds sneller
dus ook 4096 bits is over een aantal jaar makkelijk te kraken
Een 256-bit key "kraken" duurt niet twee keer zo lang als het kraken van een 128-bit key, maar 2^128 keer zo lang. Een 129-bit key is twee keer zo sterk als 128-bit.

Als 1024-bit keys (i.c.m. een goed algoritme natuurlijk) nu al praktisch niet te kraken zijn dan 2048 helemaal niet, en 4096 he-le-maal niet. Natuurlijk, als computers steeds sneller worden dan kan het misschien allemaal, maar dan zou intel morgen met een processor moeten komen die 100x zo snel draait als de huidige, en amd overmorgen met eentje die 100x zo snel is als die.

Dus, de beste manier om de 1024-bit key van een bank te kraken is door naar de bank zelf te gaan met een paar machinegeweren.
nfm schreef:
Een 256-bit key "kraken" duurt niet twee keer zo lang als het kraken van een 128-bit key, maar 2^128 keer zo lang. Een 129-bit key is twee keer zo sterk als 128-bit.
Dat dit voor alle ciphers opgaat is een misverstand dat ik wel vaker zie. Lang verhaal kort: dat geldt zeer zeker niet voor RSA keys; het toevoegen van één bit aan een RSA key voegt slechts enkele procenten toe aan de cryptografische sterkte van de key.
Als 1024-bit keys (i.c.m. een goed algoritme natuurlijk) nu al praktisch niet te kraken zijn dan 2048 helemaal niet, en 4096 he-le-maal niet.
Zoals je in dit tweakers artikel kunt lezen is het kraken van 1024-bit RSA keys redelijk dichtbij (laten we zeggen, nog een jaartje of 10-15); het wordt dan ook sterk afgeraden nog 1024-bit RSA te gebruiken.

RSA-2048 is waarschijnlijk nog wel een acceptabele tijd veilig, maar ik zeg: als je de kans hebt RSA-4096 te gebruiken, waarom dan niet? Beter te veilig dan niet veilig genoeg.

Bij datzelfde tweakers artikel heb ik een uitgebreide post gedaan over de cryptografische sterkte van RSA. Omdat ik geen zin heb dat verhaal opnieuw te houden herhaal ik mijn hele post hieronder:

----
Overigens gebruikt vrijwel iedereen RSA-1024. Uitgaande van een beetje gelijkmatige spreiding van priemgetallen, kun je stellen dat:

als RSA-768 in 2,5 jaar te kraken is dan, uitgaande van dezelfde hardware, ...

duurt RSA-769 ongeveer 5 jaar
duurt RSA-770 ongeveer 10 jaar
duurt RSA-771 ongeveer 20 jaar
...
duurt RSA-1024 ongeveer... eh 2,5 * 2^256... jaar.
Nee, zo werkt dat niet; één bit toevoegen aan de key betekent niet dat het aantal berekeningen om de key te kraken verdubbelt, dat is alleen (ongeveer) zo voor bepaalde symmetrische ciphers.

Van Wikipedia:
In cryptography, key size or key length is the size (usually measured in bits or bytes) of the key used in a cryptographic algorithm (such as a cipher). An algorithm's key length is distinct from its cryptographic security, which is a logarithmic measure of the fastest known computational attack on the algorithm, also measured in bits. The security of an algorithm cannot exceed its key length (since any algorithm can be cracked by brute force), but it can be smaller. For example, Triple DES has a key size of 168 bits but provides at most 112 bits of security, since an attack of complexity 2112 is known.
Door één bit aan een RSA key toe te voegen gaat de key length met één omhoog, maar de cryptographic security gaat met een stuk minder omhoog, zoals ik wat verderop zal laten zien.

Het Wikipedia artikel gaat als volgt verder:
This property of Triple DES is not a weakness provided 112 bits of security is sufficient for an application. Most symmetric-key algorithms in common use are designed to have security equal to their key length. No asymmetric-key algorithms with this property are known; elliptic curve cryptography comes the closest with an effective security of roughly half its key length.
Wat al suggereert dat één bit extra key length minder dan één bit cryptographic security genereert (RSA is een asymmetric-key cipher).

De cryptographic security van RSA is ongeveer sqrt(ln(2k)*ln(ln(2k)))/ln(2) bits, voor RSA sleutels van k bits. (bron: Fundamentals of Cryptology - het boek gebruikt overigens niet alle truukjes om de rekentijd te verkorten, dus dit geeft nog een optimistische schatting van de cryptographic security; deze RSA pagina geeft een paar waarden van ongeveer 25% bits minder. Maar dat is geen ramp voor deze uitleg)

Uitgaand van bovenstaande formule heeft een 768-bit RSA key een cryptographic security van 83.40 bits, en 769-bit RSA 83.46 bits. Dat betekent dus dat het toevoegen van één bit aan een 768-bit RSA key slechts 20.06 - 1 = 0.04 = 4% extra benodigde rekentijd toevoegt. Om de benodigde rekentijd te verdubbelen moet je van een 768-bit key naar een 784-bit key gaan.

1024-bit keys hebben een cryptographic security van 98.48, wat een vooruitgang is van 98.48 - 83.40 = 15.08 bits. Het kost dus ongeveer 215 = 32768 keer zoveel rekenkracht om een 1024-bit key te kraken t.o.v. een 768-bit key.

Hier begin je trouwens wel te merken dat mijn formule voor de cryptographic security niet 100% nauwkeurig is; In het artikel staat dat ze verwachten RSA-1024 binnen 10 jaar te kraken. In 10 jaar tijd is de rekenkracht ongeveer een factor 1024 toegenomen (uitgaande van een verdubbeling per jaar), geen factor 32768. Maar om duidelijk te maken dat de relatie tussen key length en cryptographic security voor RSA niet lineair is, is het goed zat ;)

edit:
Ah, tweaker ProfPi heeft verderop in deze discussie een link gepost naar de paper die beschrijft wat ze gedaan hebben om de RSA-768 modulus te factoriseren.

Uit de paper:
The number RSA-768 was taken from the now obsolete RSA Challenge list [37] as a representative 768-bit RSA modulus (cf. [36]). This result is a record for factoring general integers. Factoring a 1024-bit RSA modulus would be about a thousand times harder [...]
Dat maakt mijn schatting van "een factor 1024 meer" aardig in de buurt, en bevestigt nog meer dat mijn formule voor de cryptographic security van RSA niet 100% toereikend is.

[Reactie gewijzigd door deadinspace op 24 juli 2024 19:11]

totdat je een transister (nano transistor) ontdekt die bijv: semi-biologische eigenschappen heeft,

heb je enig idee hoeveel Core i7's je nodig hebt om het brein van een 'minder bedeeld' zoogdier te evenaren? juist!

dus een RSA sleutel van 100.000+ bits kan best nog wel eens nodig gaan zijn voordat mijn klein kinderen oud genoeg zijn om met pc's te spelen (FTR ik heb zelf nog geen kinders).

een 1M keys zullen dan wellicht als 'alleen voor de extream praranoids' worden gezien,

5 biljoen is dus voorlopig nog verre van nuttig, totdat je ineens iets ontdekt wat een verband legt tussen alle priemgetallen en uiteindelijk de sleutel tot.... <insert fiction here> blijkt te zijn.


--- update : overigens - in dit geval pi, lijkt het me prettig om dit soort getallen te kunnen gebruiken, immers hoe groter de schaal hoe groter de afweiking (hoe onvoorspelbaarder je bekerekeningen in airo-dynamics ruimtevaard en andere 'astronomische' wetenschappen kan men best blij worden van Pi tot de zoveel ziljardste dicimaal...

[Reactie gewijzigd door i-chat op 24 juli 2024 19:11]

Ik denk niet dat er een wetenschapper is die hier blij van wordt. Meer dan 50 (ik zeg maar iets) cijfers na de komma zijn gewoon zinloos.

Alles is immers gebaseerd op metingen en die zijn misschien maximaal 30 cijfers na de komma. Bovendien heb je ook nog de beperkingen van double-precision in computerberekingen. Dus als iemand met 5 biljard cijfers na de komma komt aankloppen zullen de wetenschappers eens goed lachen, behalve een wiskundige misschien die patronen zoekt in de staart van pi ;)

[Reactie gewijzigd door Wouter.S op 24 juli 2024 19:11]

sorry, maar dit is dus redelijk onzinnig. het hangt er helemaal vanaf wát je aan het berekenen bent, en op welke manier, voordat je ook maar iets zinnigs kunt zeggen over het aantal significante cijfers van een uitkomst.

In de astronomie is het op zich niet zeldzaam dat er astronomisch kleine of grote getallen bewerkt worden. 50 relevante cijfers zijn peanuts daarvoor.

Aan de andere kant heb je wel gelijk dat voor berekeningen in praktische alledaagse toepassingen er geen enkel voordeel zit in een ongelofelijk preciese bepaling. Het probleem in de alledaagse situaties is namelijk wat Dasiro bovenaan al schreef; je begint met een aantal meetwaarden die maar een beperkte nauwkeurigheid hebben.

In de astronomie zijn de beginwaarden van veel berekeningen juist ontzettend nauwkeurig, want ieder voor zich een gevolg van combinaties van zeer nauwkeurige metingen en berekeningen.
>In de astronomie is het op zich niet zeldzaam dat er astronomisch kleine of grote >getallen bewerkt worden. 50 relevante cijfers zijn peanuts daarvoor.

Sorry, maar da's volstrekte onzin. Vriendinlief is astronoom en die zijn vrijwel altijd blij als de onnauwkeurigheid onder de 10% zit (1 decimaal). Bij de meest nauwkeurige berekeningen zitten ze op 3 decimalen, preciezer wordt 't gewoon niet. 5 decimalen is onzin, 50 is larie, zelfs voor fundamentele natuurkunde.

Slechts wiskundigen doen ooit iets met getallen met meer dan een decimaal of 5.
Floating point heeft inderdaad zijn beperkingen. Daarom gebruiken mensen die echt nauwkeurig willen rekenen geen floating point getallen. Een simpele oplossing is om getallen in integers te stoppen en zelf een vaste komma te bepalen. Is dat niet genoeg, kun je altijd nog met strings gaan werken. Daar zijn genoeg bibliotheken voor. Natuurlijk is een getal met 5 biljoen bytes niet echt handzaam maar de beperkingen van floating point zijn in ieder geval te omzeilen.
Anoniem: 175233 @Wouter.S6 augustus 2010 11:22
Je komt zelfs niet tot 30 significante cijfers... 10 significante cijfers is al heeeeel erg veel. Voor de meeste metingen kom je niet verder dan 6 significante cijfers!

En dat gaat dan om best case scenario's, waarbij externe ruis nauwelijks een rol speelt, en je alleen afhankelijk bent van je instrumentatie. In de praktijk ben je meestal al blij met 3 significante cijfers....
Jammer dat het bewezen is dat er geen patroon zit in de staart van pi :(
Anoniem: 346066 @Jeroen6 augustus 2010 08:59
Misschien herhaalt het patroon zich bij de 5 biljoen + 1 decimalen :P
Anoniem: 159350 @i-chat5 augustus 2010 20:35
Als quantum computers er ooit eens gaan komen, dan pas moet je je zorgen gaan maken over de huidige methoden van versleuteling.... (tenzij de versleutelingstechniek zelk natuurlijk een kwetsbaarheid - voorspelbaarheid - heeft)
Anoniem: 317676 @i-chat5 augustus 2010 22:04
@i-chat: Heb je enig idee hoeveel energie er nodig is om alle mogelijk waarden van een 256-bit sleutel te doorlopen? De tweede wet van de thermodynamica impliceert hiervoor een theoretische ondergrens. Met de complete hoeveelheid energie die de zon bevat lukt het niet om 2^256 waarden te doorlopen. Je gevoel zegt misschien dat een 100.000+ bits sleutel best nog wel eens nodig gaat zijn, maar als je iets verder nadenkt zul je zien dat het niet simpelweg een kwestie is van de uitvinding van een "nano transistor met semi-biologische eigenschappen" of quantum computers of computers die oneindig veel sneller zijn dan de huidige computers. Zie bijvoorbeeld http://www.schneier.com/b...9/09/the_doghouse_cr.html
Ik ben geen specialist maar was rekenen nou net iets waar onze binaire cpu's het beste in zijn. En hoe anders dat in real live is. Er komt een bal op mij af, en ik wil hem vangen. komt bij mij geen getal aan de pas.
@i-chat: En toch is die Core i7 beter in dit soort berekeningen als jou minder bedeeld zoogdier.
(Verkeerd gereageerd? :S)

[Reactie gewijzigd door Jory op 24 juli 2024 19:11]

Bedenk wel dat de snelste super computer uit 1987 ongeveer evenveel rekenkracht heeft als een mobiele telefoon van tegenwoordig.

Als rekenkracht elke 2 jaar exponentieel groeit en het duurt bijv 100 jaar om een key te kraken, is dat over 10 jaar iets meer dan 3 jaar ;)
Anoniem: 290800 @Drexz5 augustus 2010 20:36
mijn mobiel heeft een snellere processor dan mijn eerste computer die ik kocht in 2002
kloksnelheid does not equal rekenkracht
daarom houd ik het bij 8192 bit keys ;)
offtopic:
wat zou 't kosten om een botnetje te huren voor zo'n taak?

[Reactie gewijzigd door himlims_ op 24 juli 2024 19:11]

Afgezien van wat het kost, wat brengt het op? Zet een DPC-project op met een mooie naam, en iedereen doet vrijwilleg mee. Dan duurt het nog steeds wel een paar jaar...
Lezen? Volgens wikipedia heeft het grootste priemgetal maar 12,978,189 nummers. PI is geen priemgetal en wordt dus niet gebruikt ;)
Het grootste BEKENDE priemgetal.
Er zijn namelijk oneindig veel priemgetallen.
Dat klopt vast wat je zegt, maar zolang niemand het tegendeel heeft bewezen blijft dat betreffende priemgetal van bijna 13 miljoen cijfers het grootste.

Je zegt toch ook niet dat de aarde rond is voorzover bekend?
Het is al bewezen dat er oneindig priemgetallen zijn, dus die van bijna 13M lang is niet het grootste priemgetal maar toch zeker wel de grootste bekende tot nu toe.

Bewijs dat er oneindig priemgetallen zijn is simpel trouwens, of eigenlijk het bewijs dat er niet een eindig aantal is.
Als er namelijk een eindig aantal zijn en je berekent ze allemaal en vermenigvuldigt ze allemaal met elkaar en telt er vervolgens 1 bij op dan zou je een nieuwe gevonden hebben. Het nieuwe getal is namelijk dan door geen enkel ander priemgetal deelbaar. (het geeft allemaal rest 1)
Anoniem: 313847 @PiepPiep5 augustus 2010 22:51
Lijkt mij onzin, een priem getal is oneven, als je n priemgetallen vermenigvuldigd zal het antwoord altijd oneven zijn, als je er 1 bij opteld is het even => geen priem getal!
@fdev: 2 is ook een priemgetal mijn beste ;) Dus de uitkomst na +1 zal altijd oneven zijn.
(2*7)+1= geen priemgetal
Toch is het bewezen dat er oneindig veel zijn, op meerdere manieren blijkbaar zelfs:
http://www.kennislink.nl/...eindig-veel-priemgetallen
Mis 2 is een even priemgetal en de theorie lijkt op het eerste zicht op te gaan als je het met een korte reeks priemgetallen uitprobeert.
We weten vrijwel zeker dat er priemgetallen zijn die groter zijn, al weten we nog niet welke.
hoezo kun je dit gebruiken voor encryptie? daar hebben ze toch al priemgetallen voor?

je kunt in elk geval nu de omtrek van een willekeurige een cirkel (ok, ok, waarvan je wel de straal weet) berekenen met overdreven precisie. wat wil je nog meer?
Dacht dat ze om de zoveel jaar nieuwe nodig hebben omdat de mainstream pc's dan snel genoeg zijn geworden en het dan binnen paar dagen/weken kunnen kraken.
Ja, dat gaat dus over priemgetallen, niet over de cijfers van pi.
en waarom laten ze niet gewoon 2 of 3 quadro/tesla/geforce gpu's dit doen die zijn zo klaar dan 2 xeon 6core cpu's
Ik denk niet dat hier de echte bottleneck bij de rekenkracht ligt maar meer bij de hoeveelheid werk en opslag geheugen aangezien het 'slechts 2 xeon's met 12 fysieke core's' zijn maar wel 96GB werkgeheugen en 22TB opslaggeheugen.
Anoniem: 201824 @arnoo15 augustus 2010 22:00
Dan kun je net zo goed een distributed actie opzetten zoals SETI, vraag DPC anders ;)
wat is nu het praktische nut c.q. toepassing van zo'n lang getal?
je cirkels waren nog nooit zo rond! :Y)
:z

Phi heeft alleen niets te maken met hoe rond een cirkel is.
Maar hij is wel grappig.
Wat je wel weet is bij benadering hoe groot je zojuist getekende cirkel is.
Want zo lang niet alle cijfers van Phi bekend zijn blijft het natuurlijk maar een benadering :+
Phi heeft alleen niets te maken met hoe rond een cirkel is
En phi heeft weer niets te maken met pi.

[Reactie gewijzigd door .oisyn op 24 juli 2024 19:11]

Een reden om een hele dikke PC in elkaar te zetten ;)
Volgens mij is het nu gewoon een sport/uitdaging geworden.
Praktisch nut? Dat is er niet... maar dit is gewoon een typisch gevalletje: "because we can".
Wat is het praktisch nut van met 22 man tegen een bal schoppen om hem in een netje te krijgen... :+

Volgens mij is het allebei 'voor de sport'.
wacht maar tot het gedrukt staat in schoolboeken. Dan heeft de leraar de perfecte overschrijf straf gevonden...
Anoniem: 363569 @MazeWing5 augustus 2010 17:24
En dan ook nog moeten controleren of het klopt zeker?
Daar hebben we OCR i.c.m. een MD5 hash voor :)
Je hebt dan wel iets van 1.8 miljard bladen papier nodig
Als je maar klein genoeg schrijft dan heb je er minder nodig }>
Je hebt dan ook nog de achterkant en als je klein genoeg schrijft de zijkanten en de boven en onderkant 8)7
geen probleem er is nog een stukje regenwoud over :)
Anoniem: 201824 @MazeWing5 augustus 2010 21:53
Hehe, dan wordt het voor de nazaten! 8)7

Maar het lijkt wel of het reclame is voor de hardware fabrikanten het halve artikel?

Verder is het natuurlijk interessant dat je dit met slimme software en relatief goedkope hardware kunt bereiken.
Je moet dat getal dan gebruiken om de omtrek van een cirkel te berekenen. Uiteraard moeten er dan evenveel decimalen achter de komma overblijven. Afronden mag dus niet }>
je moet de nauwkeurigheid van de minst nauwkeurige factor in een vermenigvuldiging gebruiken, dus als de straal 1cm is, is de omtrek 6cm

in you face mr ik kan pi tot 5 biljoen cijfers na de komma berekenen }>
Als ik zeg dat de straal 1,000000000000000000000000000000 cm is dan is het al 6,283185307179586476925286766559 cm. In your face, mr. ik heb lak aan precisie. 8)7
meten is weten, veel succes met je meetlat die tot 10^-28 m gaat

FYI: de kern van een atoom is maar 15 fm groot = 15 x 10^-15m
1 != 1,000000000000000000000000000000
"1" betekend, als je teveel wis/natuurkunde doet, dat het tussen de 0.5 en 1.4 ligt, terwijl "1.000" betekend dat het tussen de 0.9995 en 1.0004. Met de extra nullen wordt dus aangegeven hoe precies er gemeten / berekend is.
In de wiskunde betekent 1 gewoon 1, zonder enige afwijking.
En ook in de natuurkunde voor zover het de theorie betreft.

Pas als je dingen in de echte wereld gaat meten krijg je afwijkingen. Lelijk.
(En natuurlijk ook als je op die meetgegevens vervolgens de theorie loslaat)
Geekomatic, da's niet waar, in de wiskunde is 1 inderdaad exact hetzelfde als 1,00000000000000000.

Maar bij natuurkunde is dat niet zo.
In de natuurkunde is het zo dat 1 zowel 0,5 als 1,4 kan zijn. 1.0 Is dus nauwkeurige, aangezien het tweede cijfer achter de komma is gegeven...

Tsja, ik ben pas zestien, klas 4 vwo. Maar dit wordt er bij natuurkunde ingeramd. Significantie heet dat :)
Is het dan zo dat de Pi contanste zoals we die kennen uit de boeken (3,141592) een afronding is?
Dan zitten er er eigenlijk altijd naast :) Is dat dan niet link voor hele grote berekeningen? Of gebruiken ze dan meer decimalen.

[Reactie gewijzigd door enveekaa op 24 juli 2024 19:11]

Het is per definitie een benadering (afronding) omdat het een irrationaal getal is. Er is geen decimale notatie mogelijk die de waarde exact weergeeft. Dus ze kunnen nog we even voort ... op naar de 10 biljoen decimalen...
Op naar de liggende acht!
Nouja, nu kun je tenminste wel je cirkels wat preciezer maken, ik dacht al, hoe komt mijn cirkel op het terras toch zo scheef. Maar blijkbaar heb ik te vroeg afgerond, ik had bij 2,3 biljoen door moeten gaan ;)
Nee, oppervlakte = straal^2 * pi. Inhoud van een cilinder met hoogte a en straal z, geeft dus pizza als inhoud.

Verder heb je wel gelijk. Elk getal van pi dat we gebruiken is een afronding. Het is namelijk geen rationeel getal, net als 2^1/2 en e.

[Reactie gewijzigd door Blokmeister op 24 juli 2024 19:11]

Ja, dat is uiteindelijk een afronding, want er volgen dus veel meer decimalen (oneindig veel) na de 6 die jij daar noemt (momenteel weten ze er dus 5 biljoen).
En zelfs daar zit een afrondingsfout in als ik het goed heb, ik heb altijd geleerd Pi = 3,1415927, dus jouw afronding klopt ook niet helemaal ;)
haha, ik heb altijd 3,1415926535 geleerd, dus we kunnen nog wel even doorgaan met decimalen :D, maar je hebt gelijk, enveekaa heeft afgekapt ipv afgerond :D

Hoe voeren ze die berekening eigenlijk uit, ik heb 1 truukje ondekt (zie hieronder), maar die is niet zo nauwkeurig.

Mijn oplossing
stel, je hebt een cirkel, dan is volgens ons systeem de omtrek 2*pi*straal. Laat de cirkel nou onderverdeeld zijn in 8 driehoeken (dus eigenlijk is het een achthoek), dan kun je met de sinusregel de zijde van een van de "kanten" uitrekenen, vermenigvuldig dit met 8 en deel dit door 2*straal, en je hebt "pi". Als we dan die achthoek een n-hoek maken (met n naderend naar oneindig), dan kunnen we pi toch uitrekenen?


Maar volgens mij doen ze dit anders....

[Reactie gewijzigd door windwarrior op 24 juli 2024 19:11]

Jij hebt exact gelijk. Maar jij wil n naderen naar oneindig. Op dat moment zit je niet op oneindig, en heb je een benadering van pi, maar niet helemaal pi. Op het moment dat je echt oneindig gebruikt, moet je oneindig veel handelingen doen. Dit kost oneindig veel tijd.
En das best wel veul. :+
Ja klopt idd, ik heb een klein programmatje gemaakt voor mijn grafische rekenmachine, die deze methode gebruikt, maar ik moest n best wel groot hebben voordat mijn benadering gelijk was aan de benadering van de rekenmachine.
Ik denk dat je ongeveer een vereenvoudigde versie van de methode van Archimedes beschrijft.

Algemeen genomen zijn er extreem veel manieren om pi te berekenen. Vroeger werden vooral methodes gebruikt die steunen op goniometrische formules, zoals die van jou :)

Met de komst van de computer worden er tegenwoordig vaker reeksen gebruikt denk ik. Zie bv. Monte Carloreeks.
En dan zul je zien dat de uitkomst van sinus(n) met n -> oneindig ook weer lekker veel tijd kost om te berekenen omdat dat vast geen mooier (lees: simpeler, gestructureerder) getal zal zijn dan pi zelf ;) , naast dat n -> oneindig ook een benadering is. Kan je beter pi direct berekenen.

Ik ken het hoor, die methode heb ik ook eens over nagedacht maar ik kwam er snel achter dat het niet werkt. Over dat soort dingen ga je dan nadenken en achteraf dacht je dat je het maar beter niet had kunnen doen. Ik zal mezelf er nog wel eens op betrappen dat ik tòch een functie voor priemgetallen ga zoeken. :P

[Reactie gewijzigd door bwerg op 24 juli 2024 19:11]

Hadden ze deze berekening niet beter door meerdere gpu's kunnen laten berekenen? Ik dacht teminste dat een gpu beter met zo'n berekening om kon gaan?
1. GPUs have very poor double-precision support. Double-precision is required.
2. The computation is almost entirely memory bound. It is not very limited by CPU. So the power of a GPU would largely be wasted.
3. GPUs require massive vectorization to be efficient. Currently, y-cruncher is not scalable to large SIMD vectors.
4. GPUs don't have enough memory. The bandwidth between GPU memory and main memory is far from sufficient to efficiently use main memory in place of GPU memory.
5. There is no common standard for GP-GPU programming.
Question: Why don't you use the GPU? They are much more powerful and cheaper than high-end CPUs.
Answer:
GPUs have very poor double-precision support. Double-precision is required.
The computation is almost entirely memory bound. It is not very limited by CPU. So the power of a GPU would largely be wasted.
GPUs require massive vectorization to be efficient. Currently, y-cruncher is not scalable to large SIMD vectors.
GPUs don't have enough memory. The bandwidth between GPU memory and main memory is far from sufficient to efficiently use main memory in place of GPU memory.
There is no common standard for GP-GPU programming.

Question: Some of the higher-end video cards have a LOT of memory. The Nvidia Fermi-based Quadro cards have a whopping 6GB of ram. Why can't you use those?
Answer: Expensive would probably be an understatement... And for large swap computations, 6GB of ram would be a sure bottleneck. Something like 64GB or 128GB would more useful, but I don't see that happening anytime soon - let alone at an affordable price...

Question: You mention that you can't use GPU because of poor double-precision support. Why can't you use single-precision?
Answer: Because some of the algorithms used by y-cruncher will fail if there isn't enough precision. To some extent, single-precision can be forced, but the penalty in performance and memory will be obscene.

Op dit item kan niet meer gereageerd worden.