Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 135, views: 81.694 •
Submitter: Balance

Adapteva heeft de eerste versie getoond van zijn Parallella-moederbord, dat met ARM-soc en Epiphany accelerator-chip met 16 of 64 cores uitgerust gaat worden. De goedkoopste versie van de kleine 'supercomputers', ter grootte van een creditcard, moet 99 dollar gaan kosten.

De eerste tien Parallella-borden arriveerden afgelopen week bij Adapteva. De Parallella bevat een Zynq-7020 Cortex A9-dualcore en Epiphany accelerator-chip met 64 cores. Daarnaast zijn 1GB werkgeheugen, een microsd-kaart, twee usb 2.0-poorten, gigabit-ethernet en hdmi aanwezig. Het bord moet voor 90GFLOPS aan rekenkracht kunnen zorgen, terwijl het verbruik tijdens normaal gebruik op 5W zou liggen.

Dit model moet in de zomer beschikbaar komen voor een bedrag van 199 dollar. Tegen die tijd moet ook de variant met 16core-Epiphany verschijnen, die 26 gigaflops kan leveren en 99 dollar moet kosten. Geïnteresseerden die de Kickstarter-campagne van Adapteva gesteund hebben komen eerst in aanmerking voor aanschaf.

De Parallella-borden meten 8,6x5,3cm en worden geleverd met Ubuntu 12.04. De Epiphany-multicores bestaat uit risc-processors die in C of C++ programmeerbaar zijn. Adapteva wil, geïnspireerd door het succes van Raspberry Pi en Arduino, met de goedkope systemen parallelle rekenkracht naar de massa brengen en ongetwijfeld zijn accelerator-chips daarbij onder de aandacht brengen. Gebruikers zoals hobbyisten en academici kunnen het open platform inzetten voor taken waarbij parallelle rekenkracht nodig is, zoals onder andere gezichts- en gebarenherkenning, vingerafdrukken matchen en objecten tracken, schrijft Tech2. Ook zijn de borden bruikbaar voor encryptie en realtime analyse van datastreams.

Adapteva Parallella Adapteva Parallella 2

Reacties (135)

Reactiefilter:-11350132+191+216+31
Het wordt met de dag kleiner en kleiner, wat wel weer veel voordelen heeft :)
Ter vergelijking, we zitten nu op het niveau van de top-500 van 1993

Iets zegt me dat die computer een tikkeltje duurder was, een fractie groter en een beetje meer energie verbruikte :)

Ik ben eigenlijk wel benieuwd of dit qua rekenkracht de huidige super-computers voorbij kan streven als je kijkt naar aanschafprijs, en/of benodigd energie per Gflop.
Dit is single precision. De top500 van 1993 was double precision, dus is nog altijd heel wat sneller dan dit.

edit: 9.54 is single precision.

9.191948234382383 is double precision (53 bits precisie in de mantissa)

Dus je kunt niet veel berekenen met deze epiphany - maar handige marketing kreet.
In de kickstarter video gebruikte hij zijn kleine dochterje ook om de zaak te marketeeren en keek hij met al dan niet gephotoshopte blauwe ogen in de camera om een zo eerlijk mogelijk gezicht te laten zien.

Heel handig zichzelf gemarketeered - qua co processor stelt het geen drol voor.
200 dollar voor 64 trage cores single precision is ook veel te duur joh.

[Reactie gewijzigd door hardwareaddict op 21 april 2013 18:09]

Ik heb geen idee wat de concurrentie biedt, maar ik kan je wel zeggen dat als je iets van een real-time applicatie voor beeldbewerking gaat maken (zoals in het nieuwsbericht genoemd wordt) dat je met single precision meer dan genoeg nauwkeurigheid hebt. Zelfs voor real-time PC applicaties voldoet single precision. Het heeft de voorkeur boven double precision omdat het simpelweg sneller is en de extra nauwkeurigheid voor de meeste toepassingen niet relevant is.

Dit is kan natuurlijk anders zijn als je klimaatmodellen gaat doorekenen of anderssoortige chaotische systemen.
Dat zijn nog is snelheden die dit kleine en weinig watt CPU kan tevoorschijn toveren.

Mijn 6 Core Intel Core i7 980 3.33GHz kan 130.72 GFLOPS tevoorschijn toveren, maar dan wel op 130 Watt, dat is nog is een verschil.

http://ocaholic.ch/modules/smartsection/item.php?itemid=387&page=6

[Reactie gewijzigd door AmigaWolf op 22 april 2013 01:05]

Met deze vergelijking sla je de plank mis, een core i7 is een cpu die op breed gebied ingezet kan worden. Je kan dit soort bordjes beter vergelijken met een gpu.

Als je het goed bekijkt heb je gewoon een arm cpu en dan 64 cores als coprocessor die voor 1 specifieke taak gemaakt zijn. Ga je nu eens kijken hoevel gflops een gpu kan leveren dan kom je op vergelijkbare waardes per watt uit.

Verschil is dat als je nu een bijv een nvidia gtx 660ti neemt komt deze uit op 2460 gflops bij 150 watt. reken je dat terug naar 5 watt is dit 82 gflops per watt en zit je dus op het niveau wat ze nu aanbieden.

Kijk je dan naar de prijs dan heb je dus 30 van deze kleine bordjes nodig om aan hetzelfde aantal gflops als nvidia te komen. Kijk dan naar de prijs van 199 dollar dan is de conclusie heel snel gemaakt. Een pc met gpu kaart is goedkoper, verbruikt evenveel.

conclusie leuke marketing maar veel te duur voor wat ze bieden.
Kom kom, licht CPU, moederbord, geheugen enz. met redelijke GPU voor 99 dollar te duur? Laat me even een Intel alternatief zien in die prijsklasse...
Hangt er van af wat je er mee doet toch? Als je iets doet wat geen floating point vereist maar alleen integer math gebruikt dan heb je geen last van die precisie.

Ik kan me voorstellen dat dit voor bijvoorbeeld encryptie brute-forcen of bitcoints berekenen erg aantrekkelijk kan zijn.
Als je een soortgelijk product voor een 16/64 core cpu weet dan had je daarvan ook wel een link mogen posten.

Duur zijn ze echt niet volgens mij.
Voor een soortgelijk dev-board van de concurrent (bv Tilera of ST) moet je val vaak het 5 voudige neertellen. De specs zijn dan ook wel beter.

Verder zit er ook nog een Xilinx Zync7020 cpu op het bord.
Dat is een dual-core cpu + FPGA in 1. Ook een leuk concept om mee te spelen.
Een normaal devboard zoals het Zed-Board kost je alleen al 395$ dus als je bijna hetzelfde voor 99$ kan kopen dan kan ik dat toch niet echt duur noemen

Verder kan je een hoop zaken best met single precision floating points doen.
De PS3 doet het ook en veel libraries voor mpeg encoding/decoding zijn er ook in single precision floating point variant.

En alles is open source dus je bent ook daadwerkelijk vrij om te doen en laten wat je wilt.
Dat was ook wel mijn eerste idee toen ik het filmpje zag, maar het kan volgens mij wel handig zijn voor mensen om te leren / experimenteren met parallele computers, MPI etc.
Nee, hij kan kwa rekenkracht de huidige supercomputers niet voorbij streven. Eén kern van een Xeon E5 2670 levert bijvoorbeeld 2600*8= 20,8 Gflops. Er zitten 8 kernen in een processor en 2 processoren in een server, dat levert 332,8 Gflops op per server.

Een x86-server wint het dus al ruimschoots van dit bordje. Nu is dit bordje goedkoper en gebruikt minder stroom.

Maar het wordt pas echt interessant als je kijkt wat er gebeurt als je er een supercomputer van gaat bouwen. Dan is niet alleen de rekenkracht per server van belang, maar ook het netwerk. In een x86-server kan ik een infinibandkaart prikken, waardoor de processoren supersnel kunnen communiceren. Bij een supercomputer van 100 teraflops ben je dan slechts 1 á 2% van je rekenkracht kwijt aan communicatie.

Dit bordje moet het doen met de ethernetpoort die erop zit (waarbij nog maar de vraag is of de ethernetchipset even goed is als die in PC"s gebruikt worden). Ga je daar een supercomputer van 100 teraflops van bouwen, dan schat ik dat je tussen de 50 en 90% van je rekenkracht kwijt bent aan communicatie. Bovendien wordt de prijs en het verbruik van je ethernetswitchen dan een factor. Dat hakt er hard in, waardoor de voordelen in prijs en energieverbruik verloren gaan.

Voorlopig denkt niemand erover om een supercomputer met dit soort bordjes te bouwen. Er zit echter wel toekomst in dit soort bordjes, maar dan moet eerst het communicatieprobleem aangepakt worden.

[Reactie gewijzigd door dmantione op 21 april 2013 20:27]

Ik vind het maar raar om dit soort ingenieuse mini computertjes te vergelijken met een full blown dual cpu 16 core xeon bak. Uiteraard trekt deze minipc dan aan het kortste eind; het is echter nooit de bedoeling geweest om het uberhaupt te "winnen" van een xeon, of voor datzelfde geld powerpc, itanium of wat meer.

Het feit dat je voor een "prikkie" 90gflops, en dat bij een paar schamele watjes zo in huis kunt hebben er er mee kan doen wat je wilt, is ontzettend cool. Wie wil dat nou niet?

Zomaar een idee: het zou erg gaaf zijn wanneer iemand een goed werkend ultrahd h.265 decoder (uiteraard icm. xbmc) op dit bordje aan het werk krijgt. Dan is de decoding vs. benodigde rekenkracht issue van h.265 opgelost vóórdat h.265 mainstream is :) . Zomaar een gedachte, ik neem aan dat er genoeg tweakers zijn met spannende idee´s voor dit soort bordjes.
Tilera maakt soortgelijke processors (met wel betere specs en wel met een geheugen controller ingebouwd) en voor specifieke taken kan je de Xeon bak gerust het datacenter uitgooien.

Maar zoals met veel van dit soort technieken, het heeft zijn specifieke toepassing en in die gebieden zijn ze erg nuttig.
Voor het algemene werk zijn ze inderdaad een stuk minder geschikt.
Ik vind het maar raar om dit soort ingenieuse mini computertjes te vergelijken met een full blown dual cpu 16 core xeon bak
Dit is tweakers, toch? Waar alle wijsneuzen slim willen overkomen door te laten zien dat ze ook wat weten. Maar als ze niet eens het verhaaltje bij het Kickstarter project lezen zet ik mijn twijfels bij die kennis.
Inspired by great hardware communities like Raspberry Pi and Arduino, we see a critical need for a truly open, high-performance computing platform that will close the knowledge gap in parallel programing. The goal of the Parallella project is to democratize access to parallel computing.
Maar ja, we zijn het gewend onderhand, toch?
[...]

Dit is tweakers, toch? Waar alle wijsneuzen slim willen overkomen door te laten zien dat ze ook wat weten. Maar als ze niet eens het verhaaltje bij het Kickstarter project lezen zet ik mijn twijfels bij die kennis.
Maar ja, we zijn het gewend onderhand, toch?
Grappig, na alle berekeningen en 'net niet' mogelijkheden ( want negatieve punten aanmerken is zó super ) dacht ik precies hetzelfde ...

Al was mijn eerste gedachte "Wil it blend ?"
Je moet een cpu/gpu niet vergelijken met een cp zoals intel.

Je moet dit bordje vergelijkem met een intel cpu en zeg een nvidia gpu. Ga je dan naar het aantal gflops kijken krijg je vergelijkbare waarden echter tegen een prijs die heel veel lager is.
Eén kern van een Xeon E5 2670 levert bijvoorbeeld 2600*8= 20,8 Gflops. Er zitten 8 kernen in een processor en 2 processoren in een server, dat levert 332,8 Gflops op per server.
Het is de bedoeling dat je deze mini super computer niet los gaat draaien maar in cluster, als je dan voor het vermogen van wat de 1 xeon verbruikt(115W ) en kosten van zo systeem dan aantal kaartje koopt, dan zul je meer Gflops hebben dan met jou voorbeeld xeon.

Je kan ipv xeon($1552 voor de 1 Xeon E5 2670, alleen de cpu, rest van systeem niet meegerekend) te kopen ook 15 van dit soort kaartjes kopen en dan verbruikt het nog stuk minder ook. Dan heb 15 x 90 Gflops = theoretische 1350 Gflops wat cluster maximaal zou kunnen halen als je hem goed weet te tweaken, en dat met maar 75w verbruik, dat is heel stuk minder dan alleen de cpu verbruikt in zo xeon systeem.

Edit/
Voor duidelijkheid, Xeon word helemaal weggeblazen zowel qua prijs als verbruikskosten en ook in prestatie mits je goed gebruik maakt van een cluster. Wat vaak geen probleem is bij grote hoeveelheden data die op supercomputers gedraaid worden, kan je vaak prima opdelen over verschillende nodes.

[Reactie gewijzigd door mad_max234 op 21 april 2013 21:05]

Let op wat ik schreef: Je kunt geen 15 kaartjes kopen omdat je dan een enorm communicatieprobleem hebt. In theorie heb je wel 1350 Gflops, maar als het merendeel daarvan aan communicatie verloren gaat, wat heb je er dan aan?

Bij efficiënte communicatie zou ik liever 15 van deze machientjes kopen dan 1 Xeon, maar gezien dat wel een factor is, kan ik met die Xeon de klus toch echt sneller klaren en de elektriciteitsmeter daar minder mee laten oplopen. Dat maakt het lastig om een investering in dit soort bordjes te verantwoorden.
@dmantione:
In een x86-server kan ik een infinibandkaart prikken, waardoor de processoren supersnel kunnen communiceren.
Ach, dit Parallella ontwerp is ook niet in steen gehouwen.
Dus wat je stelt: gewoon infiniband op deze Parallella's en ze halen de Xeons gewoon in ;)
Dezelfde performance op pak-em-beet 20% van de materieel- als energiekosten.
Probleem is dat de infinibandkaart op dit moment duurder dan het bordje en de hoeveelheid switchen die je moet kopen enorm veel hoger ligt dan bij conventionele Xeons. Maar ik ben het wel met je eens, daarom zit er denk ik wel toekomst in dit soort bordjes. Ik denk dat je de rekenkracht per bordje nog een factor 3 á 4 zou moeten opvoeren om een redelijke verhouding tussen rekenhardware en netwerkhardware te krijgen. Dan een infinibandcontroller op de printplaat en je bouwt een lekker efficiënte supercomputer.
@TD-er : Ik zie het wel gebeuren dat er PCI-x en externe (Thunderbolt) versies van deze kaart komen om bepaalde berekeningen mee te versnellen van je thuiscomputer. Misschien dat ze zelfs interessant zijn voor beveiligingsdoeleinden.

Van de andere kant vraag ik me af of bijvoorbeeld justitie of juist kwaadwillende medemensen zulke kaartjes kunnen gebruiken om een brute-force aanval op je wachtwoorden door te voeren om zo Truecrypt containers geopend te krijgen.
Voordelen voor wie?

Als "gezichts- en gebarenherkenning, vingerafdrukken matchen en objecten tracken," de 'voordelen' zijn, dan zie ik niets in het "rekenkracht naar de massa brengen".

Wat staat daar precies? Iedere Jan met de korte achternaam kan spionnetje spelen. Meer parallelle rekenkracht hier betekent meer verlies van privacy.

Elke beveiligingsbedrijf kan dit gebruiken tegen lage kosten. Elke baas met 8 man personeel kan zijn personeel gaan tracken om te zien of ze wel efficiënt werken als ie even weg is. Het is onmogelijk om te bedenken hoe veel makkelijker het wordt en hoe mensen dit gaan misbruiken.
Dus hoe ik het goed begrijp, zijn deze ideaal om bitcoins mee te minen?
ik weet het niet, dat zijn wel heel specifieke berekeningen. aangezien zelfs een GPU tegenwoordig eigenlijk tekort schiet om serieus geld mee te verdienen.. (qua verhouding stroom/paardekrachtjes ;))

maar ik ben geen expert, dus 't zou kunnen :)
GPU's zijn ongeschikt omdat ze enorm veel energie gebruiken.
een moderne GFX kaart doet makkelijk 250Watt op 100% load.
Daarmee vergelijken is 5Watt van dit ding niks.
Maar die 90Gflops van deze dingen is ook weer niks, uit een GFX haal je een stuk meer.

[Reactie gewijzigd door A Noniem op 21 april 2013 17:55]

Maar een GFX wordt vaak met een x86 CPU gecombineerd, deze heeft dat helemaal niet nodig.
GPU's zijn uitermate geschikt voor number crunching en worden in de snelste supercomputers dan nu ook in toenemende mate meer gebruikt.

Vooral natuurlijk de Tesla lijn van Nvidia.

Vooral de performance per watt is erg gunstig van gpu's.
Een moderne GFX (GeForce GTX 690, 18,74 GFLOPS/W) haalt niet meer dan 20 GFLOPS/watt Deze $199 'supercomputers' verbruiken bij normaal gebruik 5 watt dus zeg 10 watt bij maximale belasting. 90/10=9 GFLOPS/W (zelfs bij 5 watt is het 18 GFLOPS/Watt). In elk geval is dit 'supercomputertje' dus minder efficiënt dan bepaalde moderne GPU's

Natuurlijk is zeggen dat 5W verbruik niks is ook een beetje onzin, het is gewoon 1/50 (2%) van die moderne GFX waar je het over hebt.

Deze reactie was trouwens bedoelt voor RocketKoen

[Reactie gewijzigd door klonic op 21 april 2013 21:09]

Deze creditcard kan alleen SINGLE precision dus 32 bits werken. Dus daar bereken je niets mee. Dat is alleen als videokaart geschikt.

Als je althans die 16 cores dus weet aan te sturen met 2 ARM cores (lukt wel maar is hele kunst hoor).

In de kickstarter video heeft hij het ook niet over de rekencapaciteiten van de chip. Hij zegt letterlijk: "je kunt er mooi mee browsen en een video mee bekijken vanuit je luie stoel", terwijl hij met zijn blauwe ogen in de camera kijkt en zijn kleine dochtertje op schoot heeft zitten.

Dus hij doet ook helemaal geen beloftes.

Je verkijkt je op de 64 core chip die nog niet bestaat maar waar hij al een jaar mee dweept.

Hij zou in mei/juni 2013 dus die 16 core co-processor leveren. De mensen gaan zich bekocht voelen hoor.

Kijk dit is een standaard bordje met een dual ARM erop kant en klaar in te slaan vanuit China als je wilt voor $15 inkoopprijs. Enige wat hij er dus bijplakt is een coprocessortjejejejeje met vectorbreedte 16.

De aansturing zover ik weet gaat via OpenCL, hij heeft wat zitten knutselen daar.

Niemand gaat hierop rekenen hoor - je kunt iets in de winkel halen wat 100x sneller is als GPU dan dit voor soortgelijke prijs.

Voor double precision hadden we al jaar of 10 geleden overigens kaartjes die 100 gflop leverden die je in je supercomputer nodes kon steken en die maar 25 watt waren.

Het is echt niet nieuw hoor dat gpu's weinig stroom verbruiken.

Stroomverbruik van zijn 64 core ding is natuurlijk compleet irrelevant. Je kunt er toch alleen over het internet op browsen net zoals op je mobieltje.

De grote vraag is waarom hij nog een 64 core versie bouwt als hij al HD filmpjes kan afspelen op zijn 16 core versie :)

Zou je overigens al die 64 cores straks gaan gebruiken dan wed ik dat het kaartje binnen een paar weken is opgebrand, want het lijkt er sterk op dat hij 'm niet koelt.

Een koelblok inslaan vindt hij vast weer te duur. Slimme commerciele jongen is het.

[Reactie gewijzigd door hardwareaddict op 21 april 2013 18:35]

Hoe meer cores, hoe minder continu vermogen... heb ik me eens laten vertellen.
Ehm je rond het natuurlijk wel heel erg gemakkelijk af he.
Een videokaart alleen kan namelijk totaal helemaal niets.
Er komt volgens mij een watt of 100 bij
De gemiddelde PC met een 690 heeft een energie slurpende CPU en een moederbord snoept ook wel wat watjes weg tevens efficiëntie van de voeding van een PC laat aardig wat te wensen over.
tegenwoordig heb je ook speciaal daarvoor ontwikkelde bitcoin mining hardware, van bijvoobeeld http://www.butterflylabs.com/. deze zijn rete-duur, maar in theorie heb je de kosten er in een maand of 2 uit.

en zelf ben ik ook geen expert op het gebied van bitcoin farmen, maar heb wel beperkte kennig (mine zelf ook). Maar wat ik er van begrepen had, is dat er gewoon duizenden kleine cores zoals het product hierboven gebruikt worden.

Ik zit bij verschillende bitcoin pools, en mijn huidige heeft een vermogen van 55 gigahash per seconde. Zo'n apparaat wat ik aan kan schaffen voor 1300$ geeft mij 25 gigahash per seconde. en dat is toch best veel voor zo'n klein kastje.
Minus dat ze enorm vertraagd zijn, al minstens een half jaar geleden geleverd zouden worden en de redenen die gegeven worden voor de vertraging twijfelachtig zijn op zijn minst. Oftewel het is geen hele vreemde gedachte dat het gewoon een scam is.

Dit ding is inderdaad totaal niet geschikt verder voor bitcoin minen, een GPU is een betere keuze. Ik begrijp ook niet waar dat 'supercomputer' in de titel vandaan komt. Omdat hij 64 cores heeft? Wat is een GPU dan? Een ultra-supercomputer ofzo? En hoe gaan we echte supercomputers dan noemen? Ik vind het iig nogal vreemd om alles wat redelijk wat cores heeft een supercomputer te noemen, ook al loop elke desktop PC er rondjes omheen.

(Dat laatste is in principe geen probleem, hij is immers goedkoper en verbruikt minder, echter het is wel een probleem als je het een supercomputer noemt).
Pre-order Terms: Bitforce SC (ASIC) products are in final stage development with initial shipping scheduled for the last half of April 2013. Products are shipped according to placement in the order queue, and delivery may take 2 months or more after order. All sales are final.
2 maanden of meer, een half jaar, 2 jaar....
Geniaal, dat ik daar niet op gekomen ben :) en de lachende 3de is butterflylabs, die verdienen pas echt aan Bitcoins

[Reactie gewijzigd door hellbringer op 21 april 2013 23:23]

Als het te mooi om waar te zijn lijkt, is het dat ook. Je verkoopt geen PC's die je eigenlijk gewoon in 2 maanden terug kan verdienen. Daarvoor laat je ze zelf wel zoemen.
Niet echt: een HD7850 levert ong 1.76 TeraFlops. Dit bordje daarentegen kan maar 90 GigaFlops leveren. Hoewel dit relatief interessant is in stroomverbruik, is dit helemaal niet interessant in aankoopprijs. Je zou heel wat meer betalen in aankoop om hetzelfde aantal TFlops te kunnen krijgen: $200 x (1760/90) => 3911.1 dollar.


Dit toont dus dat dit, op korte termijn iig, zeker niet rendabel is. Daarentegen is dit wel een goed begin, wanneer er gelijkaardige devices komen, met eerder 250 a 500 GFlops per board en een vergelijkbare prijs en powerconsumptie, zal dit een grote toename in bitcoin farmers worden :)

[Reactie gewijzigd door psycho202 op 22 april 2013 09:09]

Niet echt: een HD7850 levert ong 1.76 TeraFlops. Dit bordje daarentegen kan maar 90 GigaFlops leveren. Hoewel dit relatief interessant is in stroomverbruik, is dit helemaal niet interessant in aankoopprijs. Je zou heel wat meer betalen in aankoop om hetzelfde aantal TFlops te kunnen krijgen: $200 x (17600/90) => 39111 dollar.
Je hebt volgens mij een nul teveel in je berekening: 1.76 Tflops = 1760 Gflops; niet 17600.
Idd, vlug aangepast, dank je om dit op te merken!
Ik geloof die jullie teveel voor het Supercomputer gebeuren gevallen zijn. Tuurlijk als je Gigaberekeningen maakt kan een grotere processor voordeliger uit, maar je plaatje klopt niet als je alleen Raspberry-achtige toepassingen zoekt, zoals een HTPC. Dus zeker wel rendabel, alleen niet geschickt als supercomputer.
Nee, eigenlijk totaal niet. Sinds enkele maanden worden er al ASICs systemen verkocht.
Butterflylabs heeft als een apparaatje van 248 dollar welke 5000mh/s kan halen. Later dit jaar moet de BitForce Jalapeno komen welke hetzelfde vermogen heeft, maar voor 149 dollar. Ter vergelijking een HD7970 haalt 'slechts' 750mh/s maar daarvoor staat je GPU wel op 100% load te stampen en verbruik je aardig wat stroom. De Jalapeno verbruikt slecht 2 watt.

Nu de eerste ASIC systemen worden uitgeleverd zag ik juist op ebay opvallend veel AMD HD5xxx en AMD HD6xxx kaarten te koop staan, terwijl die kaarten 6 maanden geleden binnen een jaar alweer een nieuwe eigenaar hadden.

Een CPU is een hele algemene processor, een (GP)GPU is een processor met een beperkte instructie set en ASIC processors kunnen maar 1 ding, maar doen dat wel ontzettend snel. De Dolby surround chip in je versterker is een voorbeeld van een ASIC processor..

De reden dat men bij Folding @ Home nog niet is overgestapt naar ASIC systemen is omdat je dan hetgeen wat je wilt uitrekenen niet meer kunt veranderen, want dan zou vast liggen in de processor en daarom zie je dat Folding systemen nog steeds bestaat uit meerdere videokaarten, want die hebben honderden cores (De HD7970 heeft 1500+ cores) welke je parallel aan het werk kunt zetten..

Echter videokaarten zijn eigenlijk wel beperkt tot wiskundige of natuurkundige berekeningen. Het is juist deze rekenkracht welke ervoor zorgt dat games zoals BF3 en Crysis 3 op ultra nog steeds hoge framerates kunnen halen. Game engines weten steeds beter gebruik te maken van de parallelle processing power van een GPU..
dat mh/s is dus volledig gebaseerd bitcoin. Volgens mij zegt het helemaal niks. Ligt toch helemaal aan type hashes en gebruikt geheugen, hoe je tabellen aanmaakt en hoe je vult, uitleest en weer wist.
Volgens mij is het helemaal geen officiele eenheid.
Even voor de goede orde; Je laatste alinea is niet waar. Een GPU kan principieel alle berekeningen uitvoeren. Of anders gezegd: Ook de door jou genoemde wiskundige of natuurkundige berekeningen komen neer op optellen, aftrekken, vermenigvuldigen, delen etc. Andere berekeningen kennen we niet. ;)

Dat een GPU veel voorgebakken functies heeft voor transformaties (rotatie, translatie, scaling) van coordinaten, coordinatensystemen en vectoren is een ander verhaal. Dan zijn er nog de shader units bij die pixels uit rechthoekige textures op polygonen kunnen mappen rekening houdend met wat belichtingstruukjes. Ook die werken met de bekende bewerkingen en zijn zelfs programmeerbaar.

Misschien is het leuk dat je even uitlegt wat dan precies niet-wiskundige en niet-natuurkundige berekeningen zijn? Boekhoudkundige berekeningen? Die werken moeiteloos op een GPU :+
Nee, daar hebben we gespecialiseerde hardware voor tegenwoordig (Application Specific Integrated Ciruits, ofwel ASIC's).
Dus hoe ik het goed begrijp, zijn deze ideaal om bitcoins mee te minen?
Ja waarschijnlijk wel, op FPGA is de code ook te draaien. Is kwestie van code porten, bit coin code is in C++.
Krijgen we dadelijk mischien een slime portemonnee ;)
Ja. Namelijk gewoon je smartphone met NFC chip.
Ziet er uit als een opgeschroefde ( qua performance dan) Raspberry pi. En de raspberry kost de ongeveer de helft.
Raspberry pi heeft veel oudere processor die ook nog traag is geklokt en maar 1 core heeft.

Dit heeft een dual core ARM9 cpu net zoals in de meeste telefoons zit en een coprocessortje, de epiphany, voor het grafische werk neem ik aan, die 16 cores heeft in totaal (dat is een vector array). Zover ik weet kan hij alleen single precision rekenen.

Hij is heel slim want hij dweept al een jaar met de 64 core versie en eerst leek het erop alsof je voor die 99 dollar dus een 64 core kon krijgen. In de kleine lettertjes stond toen echter handig "16 or 64 cores".

Dus natuurlijk werd dat de toen al bestaande 16 cores.

Koeling doet hij niet aan, dus erg betrouwbaar gaat 't niet rekenen. Voor de rekenaars is het ueberhaupt nutteloos ding, want hij is alleen 32 bits (single precision) en niet 64 bits (double precision).
Dit is veeeeel meer dan een rasperry pi.
Lijkt me geweldig voor de toekomst! Op school/werk staan de monitoren klaar, iedereen neemt zijn eigen PC (ter grootte van een creditcard) mee en sluit hem aan. Eenmaal thuis sluit je hem aan op jou monitor en pc je lekker verder.

Ideaal
Ooit van "Cloud Computing" gehoord....
Ja.

Lekker, al je documenten die onder de wetgeving van een ander land vallen, je bent in sommige/veel gevallen (c) copyright All rights reversedop je werk kwijt, bij een storing aan de serverkant kan je er niet meer bij, zonder internetverbinding idemdito.

Het heeft ook voordelen, maar die wegen er lang niet altijd tegenop. Hier heb je dan een soort van 'je eigen cloud' bij je. :)
En als je die kwijt raakt? Als daar schade aan is?

Bij online cloud heb je nog kans alles terug te krijgen als het even niet beschikbaar is, met zo'n ding ben je het kwijt.
Ooit gehoord van backups? Dit schijnt best goed te werken.
Ja.

Lekker, al je documenten die onder de wetgeving van een ander land vallen, je bent in sommige/veel gevallen (c) copyright All rights reversedop je werk kwijt, bij een storing aan de serverkant kan je er niet meer bij, zonder internetverbinding idemdito.

Het heeft ook voordelen, maar die wegen er lang niet altijd tegenop. Hier heb je dan een soort van 'je eigen cloud' bij je. :)
Beetje cloud heeft overal mirror servers staan, is niet 1 server maar hele eco systeem van servers die elkaar taak kunnen opvangen, als er paar server uitvalt nemen de andere het naadloos over, soort raid op server niveau. En daarbij heeft beetje clouddienst ook altijd meerdere locaties met servers. Vaak hebben ze servers in verschillende werelddelen om eventuele wetgeving die nadelig uitpakt niet gelijk je data kwijt bent mocht een land zich keren tegen het bedrijf. Kwestie van juiste partij uitkiezen. ;)

En wil je niet dat iemand anders je data kan lezen zet je er toch paar lagen encryptie overheen.
Ooit van een laptop gehoord? :? |:(
Dat bestaat al, voor 30 euro haal je een Raspberry Pi.

Imho, zijn super computers nogal overkill voor "lekker PC'en" tenzij je net als ik het programmeren van paralelle analyse algoritmes lekker pcen vind.
Moet je een RPi voor de grap eens gebruiken als een computer. Je zal er snel van afstappen wegens veel te traag. Leuk als development platform, maar niet voor dagdagelijks gebruik.
Als XBMC dingetje voor achter de TV werkt het hier heerlijk.
Bij mij ligt ie sinds release niks te doen, haalde slechts 1fps met mn opencv app. Dus nu wachten op de parallella, 90 gflops zou voldoende moeten zijn :)
Hij was dan ook als een normale PC voor arme Britten ontwikkeld, waarom zou je dan iets heel groots en gestroomlijnds verwachten voor ¤30,- of ¤50,-.
Het enige verband tussen een supercomputer en dit is dan ook de titel die tweakers heeft bedacht. Gezien dat dit ding een fractie van de rekenkracht heeft van een beetje PC/laptop slaat het gewoon nergens op het een supercomputer te noemen.

Uiteraard is hij ook goedkoper en verbruikt minder, ik wil niet zeggen dat het een slecht apparaat is, enkel dat het niks met een supercomputer te maken heeft. Ik vraag me verder dan ook af wie dit nou zou gaan kopen. Wat moet je met parallelle rekenkracht voor de massa precies? Wat kan een hobbyist hiermee?
Ooit gehoord van een nieuwe uitvinding dat we noemen: Een Personal Computer?

Je gaat naar je werk, en dat ding staat gereed voor je. Ga naar huis, en je kan ofwel je gegevens meenemen, of met een internet verbinding aan je gegevens vanop je werk...

Het idee van een systeem dat je overal kan meenemen, en dezelfde taken altijd kan verrichten bestaat niet. Want er zijn altijd verschillen tussen wat je wilt doen op je werk, en wat je wilt doen thuis.

Gaming? Doe je niet op je werk... Weinig werk PC's hebben deftige GPU's. Opslag? De meeste PC's op een firma zijn beperkt in opslag, want je word/text documenten nemen niet zoveel plaats in ( zeker niet met die 500GB HD's dat bijna de minimum geworden zijn ). Thuis als je beetje "media" liefhebber bent, ... waar ga je je data opslagen?

En dan de "privacy" aspect... Ik neem aan dat je nu ook niet graag zou hebben, dat je collega's kunnen zien in de browser, dat je pikante webpagina's bezocht hebt thuis. Want dat is het effect dat je krijgt met één pc op beide plekken. Dubbel accounts zijn enkel maar goed tot op een bepaald niveau. Wat als iemand van de IT staf je systeem moet updaten ... ieeeeee ...

De meeste mensen met werk laptops beperken ook hun privé gebruik van die systemen voor dezelfde reden. Het zal niet de eerste keer zijn, dat er iemand ontslagen word, omdat men bepaalde zaken ontdekte op zijn "werk" laptop tijdens routine upgrades.

En dan het risico van infecties ... toestel verlaat firma, komt terug, aangesloten op netwerk ... hellloo Mr Trojan. Dat zelfde probleem heb je ook met laptops, maar over het algemeen zullen mensen meer voorzichtig zijn met een werk toestel.

Wat je opnoemt van een toestel dat ook ingezet word voor Privé gebruik... Zoals ik zeg, zal niet de eerste keer zijn dat mensen in de problemen gekomen zijn. Heb ook in het verleden al gezien hoe mensen met bepaalde zaken op hun werk laptop hadden, dat er niet op thuis hoorde. *oeps*

In het verleden hadden we een nieuwe werknemer, dat zijn persoonlijk laptop op de firma gebruikte, want zijn laptop was ingesteld voor hem, sneller, en bla bla bla. Heeft niet lang geduurd eer onze internet lijn plat lag, omdat meneer zijn bittorrent programma niet afgesloten had, en alles tot een trage boel herleide ( wat fun is als je met SSH & VI(m) bezig bent op remote servers. Klik key ... wacht 2 seconden, volgende, wacht 2 seconden ).

Na eerste waarschuwing, had hij niet beter gevonden om de boel nog te laten draaien, maar dan tegen tragere snelheid. Tja ... de volgende dag mocht hij al terug vertrekken. Er is een grondig verschil tussen een beetje privé zaken doen op je werk, en gewoon al je privé zaken uit te uitvoeren op de firma. En nog meer als dat gewoon gans de ontwikkeling team beïnvloed.

Ander voorbeeld, verkoper heeft probleem met zijn laptop. Onderzoeken het probleem... Tijdens het onderzoek, stoot je op ... juist. Porno... niet iets dat je graag ziet op een bedrijfslaptop. Blijkbaar op een "stoute" site geweest, met meer dan enkel "stoute" beelden, en hij had een virtuele STD opgelopen *lol*. Had ook zijn ontslag kunnen geweest zijn als dat doorgetrokken was. Willen of niet, grapje kost de firma geld voor onderhoud te moeten doen op een probleem dat eigen was aan het privé gebruik van zijn werk laptop.

Ik durft er niet aan denken, als mensen hun volledige computer mobiel voor werk & privé gebruiken. Is nu al erg genoeg met de laptops...

Als mensen met remote willen werken, dat ze dan VPN gebruiken of zo. Dan moet men een verbinding openen met het werk, en zijn ze in hun hoofd ook gefocust op dat werk ( m.a.w, ze weten dat ze niet stoute sites moeten bezoeken via die VPN verbinding ). *lol*
Dat is precies het idee met Ubuntu Phone. Deze kan ook een full-blown desktop-experience bieden wanneer je deze aansluit via een hdmi-kabel.

Verschil is: hun telefoon hebben de meeste mensen toch wel bij zich.
Interessant ding, enig wat ik me nog steeds afvraag is waarom de ethernet nog altijd zo 'groot' is ten opzichte van de rest. Je zou denken dat ze die dingen wel kleiner konden maken anno 2013. Maar goed, zo denk ik dan weer..
Om dat de stekkers niet kleiner zijn.
het is echter niet onmogelijk om een compactere of in ieder geval plattere connector voor ethernet te maken, het zijn ten slotte ook maar een aantal draadjes dus die zou je best op een andere manier kunnen monteren.
Je zou misschien nog mobiele connectoren kunnen gebruiken zoals mini-usb, mini hdmi e.d.
Ik denk dat het bij ethernet wat moeizamer gaat dan bij de meeste connectors om twee redenen:
1. De stekkers worden veelvuldig zelf aangezet i.p.v. kant en klaar gekocht, dat maakt een nieuw ontwerp ingewikkelder.
2. Ethernet kabbels maken deel uit van een infrastructuur de vaak iets complexer is dan bijv. PC->Beeldscherm. Je wordt er niet vrolijk van als je in een bestaande kast een nieuwe switch wil plaatsen en ineens verschillende stekkers moet gaan combineren.

Beide zijn natuurlijk overkomelijk, maar werken mogelijk remmend.
Je hoeft ook geen connector meer te gebruiken, wireless kan ook gewoon. punt is alleen dat een wireless controller weer wat extra geld kost, en bij dit soort initiatieven is een hogere prijs dodelijk.

Bovendien denk ik niet dat dit voor consumenten is bedoeld, en de kans dat een bedrijf dit op een wireless netwerk gaat zetten is nihil.
Wireless controller sla ik in voor 5 dollar (zender en ontvanger). Hij wilde echter zoveel mogelijk hierop verdienen dus er zitten alleen 2 usb poortjes op voor de communicatie over 't netwerk. Vrij knullig.
De stekkers zijn niet kleiner geworden. Wel zit er meer in!
De transformator die altijd nodig is, zit tegenwoordig *in* het stekkerblok van de RJ45 connector (die op het moederbord dan hè).

Een kleinere stekker ontwerpen alleen is niet voldoende aangezien je dan de transformator nog een plekje moet geven!
De moederbordjes van de Android mini computers zijn nog kleinere dan de grote van een credit card. Ik weet niet hoe goed de CPU is, maar ik verwacht en niet veel meer van dan al op de markt is, aangezien het een A9 dualcore is.

Kwa GPU weet ik helemaal niet of dit bordje nou echt zo krachtig is of het leuke verkoop praatjes zijn?
Qua GPU is hij al kleiner dan de meeste GPUs.
Eh het moederbord met A9 is slechts de host voor de 64 coprocessors, en hoeft alleen een os te runnen waar je je compiler op draait, jullie verwarren dit ding met een desktop dievjullie thuis hebben.

Het is een supercomputer, voor in je laboratorium. Of thuis op de keukentafel als je een tweaker bent.
Een goedkoop en snelle xbmc speler?
zeker niet goedkoop. 200 dollar straks voor co processortje met 64 kleine laaggeklokte cores is wel erg prijzig hoor.

p.s. edit: de vraag is hoe je 64 cores gaat aansturen met 2 ARM cores. Hij moest overal weer 't goedkoopste van 't goedkoopste inslaan voor deze embedded PC.

[Reactie gewijzigd door hardwareaddict op 21 april 2013 18:22]

Indrukwekkend $199 voor 90GFLOPS mijn i7-3630QM laptop heeft "maar" 68GFLOPS en die was een stuk duurder.
Je laptop is ook een stuk beter uitgerust, natuurlijk.
Tja parallel kan je er 90 gflops uit trekken, echter jouw i7 is veel leuker met zn integerbewerkingen.

[Reactie gewijzigd door jjkewl op 21 april 2013 18:19]

Gewoon op GFLOPs vergelijken is redelijk zinloze bezigheid, gezien dat dat automatisch wordt gewonnen door elke GPU. Mijn laptop zal samen met zijn processor richting de 700GFLOP gaan voor laten we zeggen rond de 1000 dollar. Dan heb ik dus hoop meer flopjes per dollar, en ook nog alle andere dingen die mijn laptop wel heeft en dit niet (een scherm bijvoorbeeld).

Dus nu heeft mijn laptop (ook met I7) meer dan 10x het aantal FLOPs tov van jouw laptop, is mijn laptop nu 10x beter? Of 10x sneller? Uiteraard niet, er zijn een hoop andere dingen naast flops belangrijker. (Nou ja technisch is hij 10x sneller in floating point berekeningen, maar in de praktijk voor de meeste dingen niet heel relevant, totdat je iets gaat doen waarbij de GPU echt belast wordt).
Mijn eigen betaalbare password cracking/bitcoin mining system. :)
16 laaggeklokte cores die single precision zijn en geen drol kunnen verder?

Een gpu core kan meer hoor, is sneller en je hebt er 100x meer van.

Handige marketeer is het meer niet. Is beetje opgeblazen dat Epiphany, want hij was eerst vaag wat hij beloofde te leveren en slim als hij was beloofde hij dat al vorig jaar.

Ondertussen zijn er tal van alternatieven goedkoper en beter.
Waarom vergelijkt iedereen de cores van deze Epiphany toch met GPU cores?
Het is niet eens appels en peren, het is meer ehhhm, een bak pinda's en een notensalade.
Een GPU core is gemaakt voor kleine kernels (code fragmenten) en er is bij mijn weten geen lokaal geheugen. Elke Epiphany core heeft een lokaalgeheugen (al is het maar enkele KBs groot) en heeft een intern netwerk om met naburige cores, zelfs op een andere chip, te communiceren.
Dit project is niet gestart om waar voor je geld te bieden, maar om een eerste stap te zijn op weg naar iets groters. http://www.adapteva.com/introduction/
Omdat het precies hetzelfde is. Elke GPU core heeft ook een eigen locaal geheugen, dat noemen we dan echter REGISTERS van een paar kilobyte.

Verder heeft elk SIMD van elke GPU nog shared memory per SIMD. Bij Nvidia is dat bijvoorbeeld 64KB L1 wat je kunt opdelen in instructiecache en datacache.

Pas daarna komt dus het globale geheugen (device memory) wat DDR5 is.

Grafische bewerkingen zijn meestal niet zo slim en hebben met name grote bandbreedte nodig naar de device memory.

Dat is waar deze epiphany's zwakke schakel dan ook ligt. DDR2 is niet zo heel snel. Over bandbreedte hoor je de man niet naar zijn co-processor, terwijl de bandbredte van de RAM naar de co-processor dus bepaalt hoe snel hij is als GPU voor grafische bewerkingen.

Ik vermoed dat hij minder dan een gigabyte per seconde bandbreedte daar heeft bij gebrek aan goede informatie.

Een beetje GPU heeft al snel meer dan 200GB/s daar en is DUS factor 200x sneller voor grafische bewerkingen dan de epiphany lijn co-processortjes.

Tegra4 van Nvidia heeft bijvoorbeeld DDR3 ram en is ook vet hoger geklokt en is DUS meer dan factor 5 sneller dan epiphany 64 core.

Verder is het zo dat CUDA dus meer instructies biedt dan OpenCL voor programmeurs van gpgpu. OpenCL is heel erg gelimiteerd omdat het ontwikkeld is door een AMD pipo en zoals we weten hebben de AMD gpu's heel weinig instructies.

Als het gaat om wiskundige berekeningen op een GPU aan de praat krijgen dan heeft CUDA allerlei voordelen. Zo kun je de carry sneller doen. Hoppa 20% winst alleen al op grond van de carry etcetera. Dat kan natuurlijk allemaal niet bij dit co-processortje.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013