Bedrijf maakt 'supercomputer' van 750 Raspberry Pi's

Het Los Alamos National Laboratory, een Amerikaans onderzoekscentrum dat zich bezighoudt met nationale veiligheid, heeft een systeem in gebruik genomen dat bestaat uit 750 Raspberry Pi's. Het systeem is gemaakt door BitScope.

Het onderzoekscentrum schrijft dat het hiermee mogelijk is om software voor supercomputers te schrijven zonder dat het nodig is om een dergelijk systeem daadwerkelijk in huis te halen, wat grote kosten met zich mee zou brengen. Gary Glider, directeur van de hpc-afdeling, meldt: "Het is net alsof je een petascalemachine bij de hand houdt voor r&d-werk in software voor schaalbare systemen." Het Raspberry Pi-cluster is gebouwd door BitScope, dat het systeem toonde op de Super Computing-conferentie in de VS.

Op een eigen pagina legt het bedrijf uit dat het systeem gebruikmaakt van vijf modules met elk 150 Raspberry Pi's met geïntegreerde netwerkswitches, waarvan zes back-upsystemen. Het totale aantal kernen komt daarmee uit op drieduizend, aangezien het om Raspberry Pi 3-systemen met quadcores gaat. Het verbruik komt neer op ongeveer 5W per systeem en 6kW voor duizend systemen, claimt BitScope.

De huidige pilot, waaraan het Los Alamos National Laboratory en de universiteit van New Mexico deelnemen, is een eerste stap in een langer proces. Zo bestaat de mogelijkheid om na verloop van de pilot een groter systeem te bouwen met tienduizend Raspberry Pi's en dit aantal uiteindelijk op te voeren naar vijftigduizend. Het grootste systeem dat het bedrijf hiervoor bouwde, bestond uit veertig nodes. Een team van de universiteit van Southampton bouwde eerder al eens een cluster van 64 Raspberry Pi's en Lego-blokken.

RasPi-clusterRasPi-cluster

Door Sander van Voorst

Nieuwsredacteur

15-11-2017 • 12:07

65

Reacties (65)

65
64
45
4
0
8
Wijzig sortering
Het zal wel aan mij liggen maar zo'n cluster aan raspberry pi's is toch totaal niet efficient? Natuurlijk verbruiken ze weinig en zijn ze goedkoop, maar ze hebben ook een rekenkracht van een gehaktbal. Het zal me niet verbazen dat je voor 6kW een sterkere PC kan neerzetten, gebaseerd op een paar Intel Xeon Phi's ofzo, of gewoon een hoop threadrippers

edit: Yes, het gaat dus vooral om een development machine om schaalbaarheid te testen

[Reactie gewijzigd door Gamebuster op 26 juli 2024 09:43]

Het lijkt me toch echt dat het om de schaalbaarheid van software voor supercomputers gaat, zonder daadwerkelijk een supercomputer te gebruiken om dit te testen.
Waarom dan niet een hoeveelheid VMs opspinnen?
Denk ook dat je daar schaalbaarheids/performance problemen mee gaat krijgen. De bedoeling van een test cluster is ook om te kijken hoe goed je software draait op veel nodes. Waarbij je nodes gelijke resources krijgen van de pool. Met VM's zijn deze resources geshared en lijdt tot een minder performant cluster. Wat dan de resultaten van de test eigenlijk niet te vergelijken is met de werkelijkheid.
Je kan natuurlijk per fysieke core een VM pinnen. Maar ik snap de logica maar voor een deel, een ARM cpu is heel wat anders dan een volledige Xeon core. En de bus van een Pi is heel wat anders dan een Infiniband netwerk.

Maar leuk is het wel.
Naast de al genoemde redenen: communicatie.

Het verdelen van het rekenwerk over duizenden cores is niet het enige probleem bij supercomputers, ook het snel genoeg verwerken van data (invoer aanleveren en uitvoer verzamelen) is vaak behoorlijk lastig. Als je op één zware workstation tientallen VMs draait, dan gaan die via virtuele netwerkadapters met elkaar communiceren, wat uiteindelijk redelijk vergelijkbaar is met communicatie via gedeeld geheugen. Met deze machine gaat de communicatie tussen de nodes via echte, hardwarematige verbindingen, die compleet andere eigenschappen zal hebben dan zo'n gesimuleerd netwerk.
Snap ik, het gekke is alleen dat een RPI zover verwijderd is van een Xeon met een Infiniband fabric dat het simuleren van loads en het verdelen van werklasten bij een Hyper Visor natuurgetrouwer lijkt te zijn.

Ik bedoel: Infiniband RDMA is shared memory en een Xeon heeft een redelijk hoge IPC ten opzichte van een RPI.
Maar het doel lijkt niet om Xeons op Infiniband te na te spelen....
Eerder om workload design te doen. Hoe hak je een taak zo efficient mogelijk in onafhankelijke delen.
de taak is dan bv. een paar "relatief" eenvoudige C-routines. En of de overhead in rekenwerk of communicatie zit....
Wat je daarvoor nodig hebt is met name een platform dat voorspelbaar gedrag heeft, en voldoende omvang. (10 core simulatie is niet vergelijkbaar met een 1000 code simulatie).

En als je voorspellingen wil doen over doorlooptijded op de "grote broer" met 1M cores oid. Dan is dat een kwestie van benchmark testen om te zien hoe een workload van dit platform naar op de grote broer schaalt.
En dan is een uurtje CPU tijd op dit platform "ietsje" goedkoper dan een uurtje op de grote broer.
Omdat je dan niet 'echt' over 3000 core's schaalt waardoor je je software niet echt kan testen. Laat dat nu net het doel zijn van deze cluster.
Naar alle waarschijnlijkheid omdat je dan vooral te maken krijgt met issues die tussen de VMs zitten. Juist het afstemmen van de programmatuur over het cluster, vinden hoe en waar je problemen tegenkomt in het vertalen van je functionele wensen naar de technische architectuur lijkt mij moeilijker op een cluster VMs.

Er zit zo minder afstand tussen je programmatuur en de hardware die het draait.
De kosten voor een x86 core zijn vele malen hoger dan een ARM core, het energie verbruik van een x86 core is vs. een ARM core is vele malen hoger. Een x86 bordje is vele malen groter dan een ARM bordje, ook zijn de kosten stukken hoger omdat er veel lose chips nodig zijn voor dingen die je in zo'n cluster toch niet gebruikt (denk aan de sata, pcie, geluid etc) en dat alles maakt zo'n bord ook weer een stuk duurder dan een arm bord.

Vandaar een PI cluster omdat het een hele erg goed gedocumenteerde chip is op een standaard erg stabiel bord dat met alle nodige aansluitingen komt en zeer weinig energie verbruikt of ruimte in neemt.
Als performance niet een vereiste is maar simpel weg een flink aantal cores nodig hebt dan is de PI een geweldige oplossing omdat je met een klein budget (zo wel om te bouwen als in gebruik) en met een beperkte footprint toch een "super computer" kunt bouwen met duizenden cores.
Maar hier gaat het dus om het ontwikkelen van software, dus dan is snelheid/efficiëntie niet heel belangrijk. Het doel is te weten of je software schaalt naar X cores, en om te zien of je de performance van een testcase kunt verbeteren. En bij verbeteren zijn de verschillen belangrijk - dus langzaam naar minder langzaam is ook prima.
Wellicht domme vraag... Maar zou het dan niet veel logischer zijn om gewoon even een hele stapel VM's te huren bij je favoriete cloud provider, zodat je gewoon je test kunt draaien?

- 750 RPI's -> 25K eur. (-/- overige TCO)
- 1 uur 750 quad-core VM's bij Azure (https://azure.microsoft.com/en-us/pricing/calculator/) -> 150,-

Ik bedoel, de werkelijke software wil je neem ik aan draaien op een echte supercomputer; het gaat hier om praktijk-ish tests voor ontwikkelwerk. Ik ga er vanuit dat dat niet full-time beslag legt op een RPI cluster.


Yes, domme vraag. VM's hebben natuurlijk overhead die je parallele algoritme in de weg zitten - en dus heb je fysieke cores nodig. Check.

[Reactie gewijzigd door atlaste op 26 juli 2024 09:43]

Hoe bedoel je?

Supercomputing klinkt chique, maar is eigenlijk best lomp. Je hebt alleen in totaal veel meer rekenkracht door aantallen waarbij vervolgens de grootste uitdaging in de software zit die alles kan verdelen over de chips.


Dit is ook een voorbeeld van supercomputing,
http://folding.stanford.edu
Dan kun je helpen door het doneren van een stukje rekenkracht van je eigen pc.
Volgens mij niet alleen lomp, ook onhandig...

't Idee van supercomputing is natuurlijk dat je een berekening kan uitsplitsen in meerdere onafhankelijke, kleine deelberekeningen. Die verdeel je dan over al je systemen en dan wacht je tot je het antwoord terug krijgt. Een supercomputer is niet 1000 cores die samen 1 super-core vormen. Software moet er dan ook geschikt voor zijn, anders kost 't alleen moeite en levert het niks op.

Ik heb in een grijs verleden ooit een beowulf cluster(tje) in elkaar geklust, maar het lastigst was nog het vinden van een applicatie die er ook daadwerkelijk gebruik van kon maken. Het uitrekenen van Pi was er eentje, al bleek snel dat opzoeken op internet een beter antwoord gaf ;)

[Reactie gewijzigd door Tukkertje-RaH op 26 juli 2024 09:43]

Anders lees je de tekst even:
>>
Het onderzoekscentrum schrijft dat het hiermee mogelijk is om software voor supercomputers te schrijven zonder dat het nodig is om een dergelijk systeem daadwerkelijk in huis te halen, wat grote kosten met zich mee zou brengen
<<
Ik heb de tekst gelezen, waaronder ook:
Het Los Alamos National Laboratory, een Amerikaans onderzoekscentrum dat zich bezighoudt met nationale veiligheid, heeft een systeem in gebruik genomen dat bestaat uit 750 Raspberry Pi's.
Dit liet me denken dat het meer is dan een experimentje
Ja, het is ook meer dan een "experimentje". Zie: "Het onderzoekscentrum schrijft dat het hiermee mogelijk is om software voor supercomputers te schrijven zonder dat het nodig is om een dergelijk systeem daadwerkelijk in huis te halen, wat grote kosten met zich mee zou brengen."

Ze gaan hier dus daadwerkelijk software voor schrijven, die dan gewoon naar een "echt" HPC cluster schaalt.

edit: typo

[Reactie gewijzigd door dehardstyler op 26 juli 2024 09:43]

Dit liet me denken dat het meer is dan een experimentje
Het is meer dan een experimentje. Het is mogelijk om software hiermee te testen. Stel dat ik op mijn computer algoritmes voor automatisch rijdende auto's schrijf. Daarvoor gebruik ik mijn core i3 en een hele reeks vooropgenomen sensordata, bijvoorbeeld videobeelden. De software kan ik prima draaien op mijn PC, het hoeft immers niet realtime te reageren. Mijn PC is daarmee weldegelijk een systeem dat 'in gebruik' is: meer dan een experimentje. Maar mijn PC, of een vergelijkbaar systeem, gaat natuurlijk nooit in een echte auto ('in productie') gebruikt worden. Daar is het een verkeerd systeem voor (verkeerde formfactor, verkeerd OS, onbetrouwbaar realtime gedrag, te lage performance etc.).
Het zal ook meer zijn dan een experiment.
Je zult waarschijnlijk bedoelen dat een groot en belangrijk onderzoeksinstituut als het Los Alamos National Laboratory (waar ze o.a. supercomputers inzetten om nucleaire explosies te simuleren, als vervanging van verboden atoomproeven) wel de middelen heeft om software te ontwikkelen met een 'echte' supercomputer.
Voor het 'echte' werk door de onderzoeksmedewerkers zelf zal dat voor een groot deel zo zijn. Maar op zo'n instituut wemelt het ook van de studenten en stagiaires, die wel moeten leren te programmeren voor een supercomputer, maar daar niet allemaal toegang toe kunnen krijgen.
Anoniem: 343906 @wswart15 november 2017 14:50
Tegenwoordig hoef je geen supercomputer meer aan te schaffen om er toch gebruik van te kunnen maken. Een bedrijf als Rescale van Joris Poort is niet zo maar zo succesvol: https://www.rescale.com Cloudcomputing is erg booming omdat het veel voordeliger is voor ondernemingen die betreffende rekenkracht nodig hebben gedurende bepaalde fases van de ontwikkeling van hun producten. Grote rekenkracht wordt meer en meer aangeboden als service.
Volgens het artikel zijn deze systemen bedoeld om applicates voor supercomputers te kunnen testen tijdens de ontwikkelfase. Daarvoor is het vooral van belang dat het parallelisme goed doorgetest wordt, en niet zozeer dat de berekeningen supersnel klaar zijn. Het opschalen van de hoeveelheid werk per machine is veel makkelijker dan het opschalen van het aantal machines.

Een Raspberry Pi is uiteindelijk een erg goedkope node. Dit is dus een prima manier om relatief goedkoop veel nodes in te zetten.
750 gehaktballen maakt blijkbaar een prima super computer
Zou Doom draaien op een gehaktbal ;) ?
Met slim programmeerwerk denk ik dat DOOM 2016 ook wel zou draaien :)

en je kunt natuurlijk altijd updaten naar Pi4 als die uitkomen :)

Wat een prachtige klus om aan te werken een cluster van zo veel pi's geweldig.
De gehaktbal waar Doom destijds goed op draaide was een 80486 processor met 66 MHz. Die deed ongeveer 54 miljoen instructies per seconde.
De Raspberry Pi 3 doet ongeveer 2400 miljoen instructies per seconde.

Zou je Doom dus native draaien, dan zou deze grofweg 40 keer zo soepel draaien als op het systeem waar het origineel voor bedoeld was. Best wel goede gehaktbal dus.
Draaide ook vlekkeloos op mijn 486DX33 hoor. Technisch kon je hem draaien op een 386, maar dat was toch wel een soort van zelfmarteling.
het draait zonder problemen op een geldautomaat of een koelkast en quake draait zelfs op een analoge scope. dus geef het wat tijd en het lukt iemand vast wel. :+
Maar waarom dan niet gewoon een hele lading VM's? Al dan niet op andersmans hardware?
Om effectief parallelle software te draaien, heb je ook de fysieke cpu's nodig. Een hele lading VM's op een paar cpu's gaan op elkaar zitten wachten; en dan kun je schaalbaarheid naar meerdere threads/processen niet testen. Raspberry's geven dan beperkte performance, uiteindelijk is testen/schaling/ontwikkelen goed te doen en te testen.
Een hele lading VM’s in Azure draaien niet op een paar CPU’s, maar op een hele lading CPU’s, dus dat is het probleem niet.

Wellicht is dichter op de hardware wel gewenst.
Maar als er dus een hele lading CPU's gebruikt wordt, is het voordeel van dit systeem, namelijk dat goedkoop is, verdwenen....

Met VM's zou de aangeschafte hardware natuurlijk op meer manieren ingezet kunnen worden, dus dat bespaart weer wat, maar dat is niet handig: om te testen hoe software naar X cores schaalt, moet het wel zeker zijn dat alle cores beschikbaar zijn voor de software. Als core nummer 16 nog met een andere VM bezig was, staat de rest te wachten en kan er niet gemeten worden hoe goed de boel schaalt naar veel (heel veel) cores.

En dan is er nog wat overhead, maar dat lijkt me een beperkt probleem.
Maar bij Azure krijg je een dedicated logical Core. En goedkoop, als je wilt testen, breng je 500 quadcore VMs de lucht in en 3 uur later breng je ze weer naar beneden. 500 Basic 4-core VMs kosten dan zo’n 86 euro per uur.

Denk dat als je dit vaak wilt doen, dat je liever de Raspberry oplossing wilt. Het is sowieso wel mooi, dat je direct op de hardware zit en het utliem in een CI omgeving meteen je code kan testen.
Interessant, daar had ik niet over nagedacht.
Omdat je nog altijd de fysieke cores moet hebben om mee te kunnen schalen. Op 1 enkele host kan je geen 100 VMs draaien tenzij je een CPU hebt met enorm veel cores. Anders zit de ene VM altijd te wachten op de andere.
Bij VM's heb je altijd overhead. Trouwens die PI's hebben allemaal quadcore cpu's, 3000 cores totaal dus. Om het dan goed te doen met VM's mag je dus liefst niet overcommiten dus dan heb je die cpu's toch nog steeds allemaal nodig ook op VM's. Stuk duurder dus.
Anoniem: 84766 @Oeroeg15 november 2017 12:22
Of Docker containers in dat geval.
Omdat dit leuker is :)
Wat ik me vooral afvraag: waarom een Pi gebruiken? Als je toch al zelf hardware aan het ontwikkelen bent, is het dan niet eenvoudiger om snel een eigen ontwerp te maken voor je bordjes? Je zou alle I/O naar 1 enkele connector kunnen brengen zodat de bordjes echt plug-in zijn en alles veel efficienter kunnen bouwen voor waarschijnlijk een gelijkaardige prijs.
Inderdaad, ze zijn goedkoper, makkelijker te koelen indien nodig en je hebt alle extra stroom verbruikende shit zoals USB / Ethernet / HDMI er niet opzitten. CPU, RAM en NAND of SD, klaar.Ook nog een stuk compacter. Dan krijg je er wel 300 in een 2u enclosure :)
CPU, RAM en NAND of SD, klaar.Ook nog een stuk compacter.
De systemen zullen met elkaar moeten communiceren, en dat zullen zij waarschijnlijk niet draadloos gaan doen. Ik denk dat USB de meest praktische en snelste bus aanbiedt.

[Reactie gewijzigd door The Zep Man op 26 juli 2024 09:43]

Die was ik al helemaal weer vergeten :) . Die zou volgens mij inderdaad zeer geschikt zijn voor dit soort projecten. Veel grotere densiteit mogelijk door het ontbreken van de grote, lompe connectoren.
Dat is pas mogelijk als je dit in productieruns gaat maken. Tot die tijd is het veel kosteneffectiever om gewoon een off-the-shelf minimachine te gebruiken.
Ik betwijfel dat ze een nieuw bordje kunnen designen an fabriceren voor dezelfde prijs als het aankopen van een bulk aan Pi's...
Ik vermoed dat dat weer te maken heeft met de beschikbaarheid, een kapotte Pi heb je zo vervangen.
Hey platform is geleverd door een bedrijf dat dit vaker doet. Dat is een heel stuk goedkoper en sneller klaar dan vanaf 0 beginnen met iets nieuws.
Een connectorblokje maken waar stroom en ethernet op zitten waar een off-the-shelf bordje op past lijkt me een stuk goedkoper dan het wiel opnieuw uitvinden.

De raspi is zo goedkoop omdat er miljoenen van worden verkocht. Dat is niet te verslaan qua prijs. Komt bij dat de maker van Raspi een stichting is die winst niet als doel heeft, dus het is ook niet zo dat er nou enorme marge op de Raspi's zit.
Wat een onduidelijk verhaal met het stroomverbruik:
"...het systeem gebruikmaakt van vijf modules met elk 150 Raspberry Pi's....Het verbruik komt neer op ongeveer 5W per systeem en 6kW voor duizend systemen"

5W per systeem betekent 5kW voor duizend systemen. Geen 6kW.

En het verbruik zal geen "5W per systeem" zijn, al er net boven staat dat een systeem uit 750 Pi's bestaat.
Het zal wel 5W per Pi zijn, dus 3,75kW per systeem.
NIet geheel duidelijk inderdaad, maar mogelijk dat de randapparatuur een rol speelt. Met 1 unit heb je natuurlijk geen netwerk, verder hoeft een enkele Pi niet echt koeling te hebben. Stop je er echter duizend in een doosje, dan wil je ertussen netwerkapparatuur en koeling hebben.

Dan nog lijkt me 1kW wel wat veel, maargoed het zou dit deels kunnen verklaren.

Edit: het was zelfs een behoorlijk goede gok. Volgens Bitscope:
"At less than 5W/node in typical operation you need only 6kW to run 1000 nodes including network fabric and air flow."

[Reactie gewijzigd door vlaaing peerd op 26 juli 2024 09:43]

Volgens mij heeft het niets met de snelheid van de Pi's te maken maar meer met structuur van het syteem. een super computer zal op zijn beurt weer uit heel veel kleine pc bestaan.
Helaas heb ik er geen budget voor... maar ik ben nieuwsgierig hoeveel meer krachtig een cluster van 350 van deze combo zou zijn :
pricewatch: ASRock H81M-VG4 R3.0
pricewatch: Intel Celeron G1820 Boxed

Het zal wel meer stroomverbruik hebben natuurlijk... maar de veel betere ethernetverbinding 1 Gbit ipv 100 Mbit van de Pi alleen al lijkt me al gauw de performance omhoog doen laten schieten... laat staan de processors zelf! Je zou misschien de GPIO kunnen gebruiken, maar tja dan kun je ook iets customs bouwen voor PCI-e.

(Edit : ik was nog DDR3 geheugen vergeten bij de intel x86 config, maar dat is iets van een tientje per node)

[Reactie gewijzigd door AtariXLfanboy op 26 juli 2024 09:43]

Cool om te zien, maar welke performance mag je verwacht van 750 Pi's?. Volgens mij staat dit niet in verhouding met een paar servers welke gezamenlijk 6KW verbruiken?.

Om de schaalbaarheid te testen is dit natuurlijk een perfecte en goedkope oplossing.

[Reactie gewijzigd door Tortelli op 26 juli 2024 09:43]

Dat is ook helemaal niet de bedoeling. De bedoeling is om supercomputer software te testen zonder een supercomputer te hoeven aanschaffen.
Dat was me ook duidelijk, maar ik was wel benieuwd naar de efficiency tozv een x86 gebaseerd systeem.

Dat performance helemaal niet het doel is in dit geval was mij al duidelijk ;).

[Reactie gewijzigd door Tortelli op 26 juli 2024 09:43]

Nou, het draait heel beroerd als je er Office op probeert te runnen, werkt slecht in games, en misschien als je rendering software geschikt is voor ARM dat het kan... maar performance is een algemeen woord.
De performance van een Ferrari op de A2 op maandagmorgen is minder dan die van een leuke Volkswagen, want minder comfort.
As for FLOPS/Watt, ik denk dat het ongeveer gelijk is aan x86. Raspis zijn heel zuinig, maar traag.

https://raspberrypi.stack...-raspberry-pi-3-in-gflops dus zeg 2.5 GFLOPS/5 Watt. You do the math ;)
https://www.top500.org/green500/lists/2017/11/ (it's just fresh!) zegt dat de toppers 17 GFLOPS/Watt doen, met alle overhead erop en eraan, en het zakt al heeeel snel naar 10. Let wel, die Raspi is zonder overhead, dus verdubbel het verbruik maar.

[Reactie gewijzigd door FreezeXJ op 26 juli 2024 09:43]

Klopt, waarbij de 17GFlops/W door speciaal hiervoor ontworpen chipsets worden gehaald:
https://en.wikichip.org/wiki/zettascaler

waarna NVIdia GPU's komen... @15GFlops/W Kortom geen vergelijking met een general purpose CPU.
Vergelijk het met Bitcoin processors.., kon je daar een paar jaar geleden nog voldoende met een reguliere CPU aan de gang, dat moet nu al met FPGA's om mee te komen. (Zelfs GPU's redden het niet meer om de efficientie in die wereld).
een paar jaar is inmiddels al een jaar of 5-8, en fpgas tegenwoordig is zinloos, een ASIC is iets anders dan een FPGA :+
Daar gaat het hier niet om. Het gaat er om dat je heel veel nodes hebt (net als in een supercomputer) en je met programmeren tegen voor- en nadelen hiervan aanloopt. Een soort leeromgeving dus.

[Reactie gewijzigd door sys64738 op 26 juli 2024 09:43]

klopt deels, maar dan kun je niet testen met 3000 cores.
~

[Reactie gewijzigd door Gamebuster op 26 juli 2024 09:43]

Voor bepaalde problemen zullen ze het beter doen dan 6kW aan PCs (dat zijn maar 60 PCs trouwens...), zoals bijvoorbeeld fractals berekenen of encryptiekeys brute-forcen.

Los van de voor de hand liggende brute gigahertzen zijn er veel verschillen tussen de systemen. Zo is de architectuur van de ARM (in de PI) veel simpeler dan die van de x86, de x86 is meteen op de hoogte als een PCIe kaart een stuk geheugen heeft beschreven met nieuwe data, maar daarentegen moet op de ARM de CPU meestal zelf even wat administratiewerk doen als een device wat in het RAM gezet heeft. De x86 kan meer dan een instructie uitvoeren per cycle, kan "unaligned" data processen, heeft meer en grotere caches met uitgebreidere controllers.

Voor bepaalde workloads is een x86 veel efficienter dan de ARM. Voor gewoon simpel number-crunching met niet al te veel geheugentoegang levert de ARM per Watt meer rekenkracht.
Wat mij betreft hebben ze de beste supercomper al 18 jaar terug gemaakt dmv het SETI@HOME project. Tegenwoordig onderdeel in het Boinc gebeuren.

Maar vind het wel tof dat ze die raspies gebruiken intresant, software programeren voor supercomputing is behoorlijk ingewikkeld daar valt zeker wat te halen.
750 x 40€ - da's een paar ton peanuts. :+

Op dit item kan niet meer gereageerd worden.