Bedrijf toont 99-dollar-supercomputer ter grootte van creditcard

Adapteva heeft de eerste versie getoond van zijn Parallella-moederbord, dat met ARM-soc en Epiphany accelerator-chip met 16 of 64 cores uitgerust gaat worden. De goedkoopste versie van de kleine 'supercomputers', ter grootte van een creditcard, moet 99 dollar gaan kosten.

De eerste tien Parallella-borden arriveerden afgelopen week bij Adapteva. De Parallella bevat een Zynq-7020 Cortex A9-dualcore en Epiphany accelerator-chip met 64 cores. Daarnaast zijn 1GB werkgeheugen, een microsd-kaart, twee usb 2.0-poorten, gigabit-ethernet en hdmi aanwezig. Het bord moet voor 90GFLOPS aan rekenkracht kunnen zorgen, terwijl het verbruik tijdens normaal gebruik op 5W zou liggen.

Dit model moet in de zomer beschikbaar komen voor een bedrag van 199 dollar. Tegen die tijd moet ook de variant met 16core-Epiphany verschijnen, die 26 gigaflops kan leveren en 99 dollar moet kosten. Geïnteresseerden die de Kickstarter-campagne van Adapteva gesteund hebben komen eerst in aanmerking voor aanschaf.

De Parallella-borden meten 8,6x5,3cm en worden geleverd met Ubuntu 12.04. De Epiphany-multicores bestaat uit risc-processors die in C of C++ programmeerbaar zijn. Adapteva wil, geïnspireerd door het succes van Raspberry Pi en Arduino, met de goedkope systemen parallelle rekenkracht naar de massa brengen en ongetwijfeld zijn accelerator-chips daarbij onder de aandacht brengen. Gebruikers zoals hobbyisten en academici kunnen het open platform inzetten voor taken waarbij parallelle rekenkracht nodig is, zoals onder andere gezichts- en gebarenherkenning, vingerafdrukken matchen en objecten tracken, schrijft Tech2. Ook zijn de borden bruikbaar voor encryptie en realtime analyse van datastreams.

Adapteva Parallella Adapteva Parallella 2

Door Olaf van Miltenburg

Nieuwscoördinator

21-04-2013 • 17:40

135

Submitter: Balance

Reacties (135)

135
132
91
16
1
14
Wijzig sortering
Dus hoe ik het goed begrijp, zijn deze ideaal om bitcoins mee te minen?
Nee, eigenlijk totaal niet. Sinds enkele maanden worden er al ASICs systemen verkocht.
Butterflylabs heeft als een apparaatje van 248 dollar welke 5000mh/s kan halen. Later dit jaar moet de BitForce Jalapeno komen welke hetzelfde vermogen heeft, maar voor 149 dollar. Ter vergelijking een HD7970 haalt 'slechts' 750mh/s maar daarvoor staat je GPU wel op 100% load te stampen en verbruik je aardig wat stroom. De Jalapeno verbruikt slecht 2 watt.

Nu de eerste ASIC systemen worden uitgeleverd zag ik juist op ebay opvallend veel AMD HD5xxx en AMD HD6xxx kaarten te koop staan, terwijl die kaarten 6 maanden geleden binnen een jaar alweer een nieuwe eigenaar hadden.

Een CPU is een hele algemene processor, een (GP)GPU is een processor met een beperkte instructie set en ASIC processors kunnen maar 1 ding, maar doen dat wel ontzettend snel. De Dolby surround chip in je versterker is een voorbeeld van een ASIC processor..

De reden dat men bij Folding @ Home nog niet is overgestapt naar ASIC systemen is omdat je dan hetgeen wat je wilt uitrekenen niet meer kunt veranderen, want dan zou vast liggen in de processor en daarom zie je dat Folding systemen nog steeds bestaat uit meerdere videokaarten, want die hebben honderden cores (De HD7970 heeft 1500+ cores) welke je parallel aan het werk kunt zetten..

Echter videokaarten zijn eigenlijk wel beperkt tot wiskundige of natuurkundige berekeningen. Het is juist deze rekenkracht welke ervoor zorgt dat games zoals BF3 en Crysis 3 op ultra nog steeds hoge framerates kunnen halen. Game engines weten steeds beter gebruik te maken van de parallelle processing power van een GPU..
Even voor de goede orde; Je laatste alinea is niet waar. Een GPU kan principieel alle berekeningen uitvoeren. Of anders gezegd: Ook de door jou genoemde wiskundige of natuurkundige berekeningen komen neer op optellen, aftrekken, vermenigvuldigen, delen etc. Andere berekeningen kennen we niet. ;)

Dat een GPU veel voorgebakken functies heeft voor transformaties (rotatie, translatie, scaling) van coordinaten, coordinatensystemen en vectoren is een ander verhaal. Dan zijn er nog de shader units bij die pixels uit rechthoekige textures op polygonen kunnen mappen rekening houdend met wat belichtingstruukjes. Ook die werken met de bekende bewerkingen en zijn zelfs programmeerbaar.

Misschien is het leuk dat je even uitlegt wat dan precies niet-wiskundige en niet-natuurkundige berekeningen zijn? Boekhoudkundige berekeningen? Die werken moeiteloos op een GPU :+
dat mh/s is dus volledig gebaseerd bitcoin. Volgens mij zegt het helemaal niks. Ligt toch helemaal aan type hashes en gebruikt geheugen, hoe je tabellen aanmaakt en hoe je vult, uitleest en weer wist.
Volgens mij is het helemaal geen officiele eenheid.
Niet echt: een HD7850 levert ong 1.76 TeraFlops. Dit bordje daarentegen kan maar 90 GigaFlops leveren. Hoewel dit relatief interessant is in stroomverbruik, is dit helemaal niet interessant in aankoopprijs. Je zou heel wat meer betalen in aankoop om hetzelfde aantal TFlops te kunnen krijgen: $200 x (1760/90) => 3911.1 dollar.


Dit toont dus dat dit, op korte termijn iig, zeker niet rendabel is. Daarentegen is dit wel een goed begin, wanneer er gelijkaardige devices komen, met eerder 250 a 500 GFlops per board en een vergelijkbare prijs en powerconsumptie, zal dit een grote toename in bitcoin farmers worden :)

[Reactie gewijzigd door psycho202 op 23 juli 2024 14:29]

Niet echt: een HD7850 levert ong 1.76 TeraFlops. Dit bordje daarentegen kan maar 90 GigaFlops leveren. Hoewel dit relatief interessant is in stroomverbruik, is dit helemaal niet interessant in aankoopprijs. Je zou heel wat meer betalen in aankoop om hetzelfde aantal TFlops te kunnen krijgen: $200 x (17600/90) => 39111 dollar.
Je hebt volgens mij een nul teveel in je berekening: 1.76 Tflops = 1760 Gflops; niet 17600.
Idd, vlug aangepast, dank je om dit op te merken!
Ik geloof die jullie teveel voor het Supercomputer gebeuren gevallen zijn. Tuurlijk als je Gigaberekeningen maakt kan een grotere processor voordeliger uit, maar je plaatje klopt niet als je alleen Raspberry-achtige toepassingen zoekt, zoals een HTPC. Dus zeker wel rendabel, alleen niet geschickt als supercomputer.
ik weet het niet, dat zijn wel heel specifieke berekeningen. aangezien zelfs een GPU tegenwoordig eigenlijk tekort schiet om serieus geld mee te verdienen.. (qua verhouding stroom/paardekrachtjes ;))

maar ik ben geen expert, dus 't zou kunnen :)
GPU's zijn ongeschikt omdat ze enorm veel energie gebruiken.
een moderne GFX kaart doet makkelijk 250Watt op 100% load.
Daarmee vergelijken is 5Watt van dit ding niks.
Een moderne GFX (GeForce GTX 690, 18,74 GFLOPS/W) haalt niet meer dan 20 GFLOPS/watt Deze $199 'supercomputers' verbruiken bij normaal gebruik 5 watt dus zeg 10 watt bij maximale belasting. 90/10=9 GFLOPS/W (zelfs bij 5 watt is het 18 GFLOPS/Watt). In elk geval is dit 'supercomputertje' dus minder efficiënt dan bepaalde moderne GPU's

Natuurlijk is zeggen dat 5W verbruik niks is ook een beetje onzin, het is gewoon 1/50 (2%) van die moderne GFX waar je het over hebt.

Deze reactie was trouwens bedoelt voor RocketKoen

[Reactie gewijzigd door klonic op 23 juli 2024 14:29]

Anoniem: 338569 @klonic21 april 2013 19:54
Ehm je rond het natuurlijk wel heel erg gemakkelijk af he.
Een videokaart alleen kan namelijk totaal helemaal niets.
Er komt volgens mij een watt of 100 bij
De gemiddelde PC met een 690 heeft een energie slurpende CPU en een moederbord snoept ook wel wat watjes weg tevens efficiëntie van de voeding van een PC laat aardig wat te wensen over.
Deze creditcard kan alleen SINGLE precision dus 32 bits werken. Dus daar bereken je niets mee. Dat is alleen als videokaart geschikt.

Als je althans die 16 cores dus weet aan te sturen met 2 ARM cores (lukt wel maar is hele kunst hoor).

In de kickstarter video heeft hij het ook niet over de rekencapaciteiten van de chip. Hij zegt letterlijk: "je kunt er mooi mee browsen en een video mee bekijken vanuit je luie stoel", terwijl hij met zijn blauwe ogen in de camera kijkt en zijn kleine dochtertje op schoot heeft zitten.

Dus hij doet ook helemaal geen beloftes.

Je verkijkt je op de 64 core chip die nog niet bestaat maar waar hij al een jaar mee dweept.

Hij zou in mei/juni 2013 dus die 16 core co-processor leveren. De mensen gaan zich bekocht voelen hoor.

Kijk dit is een standaard bordje met een dual ARM erop kant en klaar in te slaan vanuit China als je wilt voor $15 inkoopprijs. Enige wat hij er dus bijplakt is een coprocessortjejejejeje met vectorbreedte 16.

De aansturing zover ik weet gaat via OpenCL, hij heeft wat zitten knutselen daar.

Niemand gaat hierop rekenen hoor - je kunt iets in de winkel halen wat 100x sneller is als GPU dan dit voor soortgelijke prijs.

Voor double precision hadden we al jaar of 10 geleden overigens kaartjes die 100 gflop leverden die je in je supercomputer nodes kon steken en die maar 25 watt waren.

Het is echt niet nieuw hoor dat gpu's weinig stroom verbruiken.

Stroomverbruik van zijn 64 core ding is natuurlijk compleet irrelevant. Je kunt er toch alleen over het internet op browsen net zoals op je mobieltje.

De grote vraag is waarom hij nog een 64 core versie bouwt als hij al HD filmpjes kan afspelen op zijn 16 core versie :)

Zou je overigens al die 64 cores straks gaan gebruiken dan wed ik dat het kaartje binnen een paar weken is opgebrand, want het lijkt er sterk op dat hij 'm niet koelt.

Een koelblok inslaan vindt hij vast weer te duur. Slimme commerciele jongen is het.

[Reactie gewijzigd door hardwareaddict op 23 juli 2024 14:29]

Hoe meer cores, hoe minder continu vermogen... heb ik me eens laten vertellen.
Maar die 90Gflops van deze dingen is ook weer niks, uit een GFX haal je een stuk meer.

[Reactie gewijzigd door A Noniem op 23 juli 2024 14:29]

Anoniem: 449164 @A Noniem21 april 2013 22:44
Maar een GFX wordt vaak met een x86 CPU gecombineerd, deze heeft dat helemaal niet nodig.
GPU's zijn uitermate geschikt voor number crunching en worden in de snelste supercomputers dan nu ook in toenemende mate meer gebruikt.

Vooral natuurlijk de Tesla lijn van Nvidia.

Vooral de performance per watt is erg gunstig van gpu's.
tegenwoordig heb je ook speciaal daarvoor ontwikkelde bitcoin mining hardware, van bijvoobeeld http://www.butterflylabs.com/. deze zijn rete-duur, maar in theorie heb je de kosten er in een maand of 2 uit.

en zelf ben ik ook geen expert op het gebied van bitcoin farmen, maar heb wel beperkte kennig (mine zelf ook). Maar wat ik er van begrepen had, is dat er gewoon duizenden kleine cores zoals het product hierboven gebruikt worden.

Ik zit bij verschillende bitcoin pools, en mijn huidige heeft een vermogen van 55 gigahash per seconde. Zo'n apparaat wat ik aan kan schaffen voor 1300$ geeft mij 25 gigahash per seconde. en dat is toch best veel voor zo'n klein kastje.
Minus dat ze enorm vertraagd zijn, al minstens een half jaar geleden geleverd zouden worden en de redenen die gegeven worden voor de vertraging twijfelachtig zijn op zijn minst. Oftewel het is geen hele vreemde gedachte dat het gewoon een scam is.

Dit ding is inderdaad totaal niet geschikt verder voor bitcoin minen, een GPU is een betere keuze. Ik begrijp ook niet waar dat 'supercomputer' in de titel vandaan komt. Omdat hij 64 cores heeft? Wat is een GPU dan? Een ultra-supercomputer ofzo? En hoe gaan we echte supercomputers dan noemen? Ik vind het iig nogal vreemd om alles wat redelijk wat cores heeft een supercomputer te noemen, ook al loop elke desktop PC er rondjes omheen.

(Dat laatste is in principe geen probleem, hij is immers goedkoper en verbruikt minder, echter het is wel een probleem als je het een supercomputer noemt).
Pre-order Terms: Bitforce SC (ASIC) products are in final stage development with initial shipping scheduled for the last half of April 2013. Products are shipped according to placement in the order queue, and delivery may take 2 months or more after order. All sales are final.
2 maanden of meer, een half jaar, 2 jaar....
Geniaal, dat ik daar niet op gekomen ben :) en de lachende 3de is butterflylabs, die verdienen pas echt aan Bitcoins

[Reactie gewijzigd door hellbringer op 23 juli 2024 14:29]

Als het te mooi om waar te zijn lijkt, is het dat ook. Je verkoopt geen PC's die je eigenlijk gewoon in 2 maanden terug kan verdienen. Daarvoor laat je ze zelf wel zoemen.
Nee, daar hebben we gespecialiseerde hardware voor tegenwoordig (Application Specific Integrated Ciruits, ofwel ASIC's).
Dus hoe ik het goed begrijp, zijn deze ideaal om bitcoins mee te minen?
Ja waarschijnlijk wel, op FPGA is de code ook te draaien. Is kwestie van code porten, bit coin code is in C++.
Het wordt met de dag kleiner en kleiner, wat wel weer veel voordelen heeft :)
Ter vergelijking, we zitten nu op het niveau van de top-500 van 1993

Iets zegt me dat die computer een tikkeltje duurder was, een fractie groter en een beetje meer energie verbruikte :)

Ik ben eigenlijk wel benieuwd of dit qua rekenkracht de huidige super-computers voorbij kan streven als je kijkt naar aanschafprijs, en/of benodigd energie per Gflop.
Nee, hij kan kwa rekenkracht de huidige supercomputers niet voorbij streven. Eén kern van een Xeon E5 2670 levert bijvoorbeeld 2600*8= 20,8 Gflops. Er zitten 8 kernen in een processor en 2 processoren in een server, dat levert 332,8 Gflops op per server.

Een x86-server wint het dus al ruimschoots van dit bordje. Nu is dit bordje goedkoper en gebruikt minder stroom.

Maar het wordt pas echt interessant als je kijkt wat er gebeurt als je er een supercomputer van gaat bouwen. Dan is niet alleen de rekenkracht per server van belang, maar ook het netwerk. In een x86-server kan ik een infinibandkaart prikken, waardoor de processoren supersnel kunnen communiceren. Bij een supercomputer van 100 teraflops ben je dan slechts 1 á 2% van je rekenkracht kwijt aan communicatie.

Dit bordje moet het doen met de ethernetpoort die erop zit (waarbij nog maar de vraag is of de ethernetchipset even goed is als die in PC"s gebruikt worden). Ga je daar een supercomputer van 100 teraflops van bouwen, dan schat ik dat je tussen de 50 en 90% van je rekenkracht kwijt bent aan communicatie. Bovendien wordt de prijs en het verbruik van je ethernetswitchen dan een factor. Dat hakt er hard in, waardoor de voordelen in prijs en energieverbruik verloren gaan.

Voorlopig denkt niemand erover om een supercomputer met dit soort bordjes te bouwen. Er zit echter wel toekomst in dit soort bordjes, maar dan moet eerst het communicatieprobleem aangepakt worden.

[Reactie gewijzigd door dmantione op 23 juli 2024 14:29]

Ik vind het maar raar om dit soort ingenieuse mini computertjes te vergelijken met een full blown dual cpu 16 core xeon bak. Uiteraard trekt deze minipc dan aan het kortste eind; het is echter nooit de bedoeling geweest om het uberhaupt te "winnen" van een xeon, of voor datzelfde geld powerpc, itanium of wat meer.

Het feit dat je voor een "prikkie" 90gflops, en dat bij een paar schamele watjes zo in huis kunt hebben er er mee kan doen wat je wilt, is ontzettend cool. Wie wil dat nou niet?

Zomaar een idee: het zou erg gaaf zijn wanneer iemand een goed werkend ultrahd h.265 decoder (uiteraard icm. xbmc) op dit bordje aan het werk krijgt. Dan is de decoding vs. benodigde rekenkracht issue van h.265 opgelost vóórdat h.265 mainstream is :) . Zomaar een gedachte, ik neem aan dat er genoeg tweakers zijn met spannende idee´s voor dit soort bordjes.
Ik vind het maar raar om dit soort ingenieuse mini computertjes te vergelijken met een full blown dual cpu 16 core xeon bak
Dit is tweakers, toch? Waar alle wijsneuzen slim willen overkomen door te laten zien dat ze ook wat weten. Maar als ze niet eens het verhaaltje bij het Kickstarter project lezen zet ik mijn twijfels bij die kennis.
Inspired by great hardware communities like Raspberry Pi and Arduino, we see a critical need for a truly open, high-performance computing platform that will close the knowledge gap in parallel programing. The goal of the Parallella project is to democratize access to parallel computing.
Maar ja, we zijn het gewend onderhand, toch?
[...]

Dit is tweakers, toch? Waar alle wijsneuzen slim willen overkomen door te laten zien dat ze ook wat weten. Maar als ze niet eens het verhaaltje bij het Kickstarter project lezen zet ik mijn twijfels bij die kennis.
Maar ja, we zijn het gewend onderhand, toch?
Grappig, na alle berekeningen en 'net niet' mogelijkheden ( want negatieve punten aanmerken is zó super ) dacht ik precies hetzelfde ...

Al was mijn eerste gedachte "Wil it blend ?"
Tilera maakt soortgelijke processors (met wel betere specs en wel met een geheugen controller ingebouwd) en voor specifieke taken kan je de Xeon bak gerust het datacenter uitgooien.

Maar zoals met veel van dit soort technieken, het heeft zijn specifieke toepassing en in die gebieden zijn ze erg nuttig.
Voor het algemene werk zijn ze inderdaad een stuk minder geschikt.
Je moet een cpu/gpu niet vergelijken met een cp zoals intel.

Je moet dit bordje vergelijkem met een intel cpu en zeg een nvidia gpu. Ga je dan naar het aantal gflops kijken krijg je vergelijkbare waarden echter tegen een prijs die heel veel lager is.
Eén kern van een Xeon E5 2670 levert bijvoorbeeld 2600*8= 20,8 Gflops. Er zitten 8 kernen in een processor en 2 processoren in een server, dat levert 332,8 Gflops op per server.
Het is de bedoeling dat je deze mini super computer niet los gaat draaien maar in cluster, als je dan voor het vermogen van wat de 1 xeon verbruikt(115W ) en kosten van zo systeem dan aantal kaartje koopt, dan zul je meer Gflops hebben dan met jou voorbeeld xeon.

Je kan ipv xeon($1552 voor de 1 Xeon E5 2670, alleen de cpu, rest van systeem niet meegerekend) te kopen ook 15 van dit soort kaartjes kopen en dan verbruikt het nog stuk minder ook. Dan heb 15 x 90 Gflops = theoretische 1350 Gflops wat cluster maximaal zou kunnen halen als je hem goed weet te tweaken, en dat met maar 75w verbruik, dat is heel stuk minder dan alleen de cpu verbruikt in zo xeon systeem.

Edit/
Voor duidelijkheid, Xeon word helemaal weggeblazen zowel qua prijs als verbruikskosten en ook in prestatie mits je goed gebruik maakt van een cluster. Wat vaak geen probleem is bij grote hoeveelheden data die op supercomputers gedraaid worden, kan je vaak prima opdelen over verschillende nodes.

[Reactie gewijzigd door mad_max234 op 23 juli 2024 14:29]

Let op wat ik schreef: Je kunt geen 15 kaartjes kopen omdat je dan een enorm communicatieprobleem hebt. In theorie heb je wel 1350 Gflops, maar als het merendeel daarvan aan communicatie verloren gaat, wat heb je er dan aan?

Bij efficiënte communicatie zou ik liever 15 van deze machientjes kopen dan 1 Xeon, maar gezien dat wel een factor is, kan ik met die Xeon de klus toch echt sneller klaren en de elektriciteitsmeter daar minder mee laten oplopen. Dat maakt het lastig om een investering in dit soort bordjes te verantwoorden.
Anoniem: 449164 @dmantione21 april 2013 22:42
Er loopt al een project in Barca met ARM supercomputers:
nieuws: Onderzoekers zetten Samsungs Exynos 5-socs in voor supercomputer
@dmantione:
In een x86-server kan ik een infinibandkaart prikken, waardoor de processoren supersnel kunnen communiceren.
Ach, dit Parallella ontwerp is ook niet in steen gehouwen.
Dus wat je stelt: gewoon infiniband op deze Parallella's en ze halen de Xeons gewoon in ;)
Dezelfde performance op pak-em-beet 20% van de materieel- als energiekosten.
Probleem is dat de infinibandkaart op dit moment duurder dan het bordje en de hoeveelheid switchen die je moet kopen enorm veel hoger ligt dan bij conventionele Xeons. Maar ik ben het wel met je eens, daarom zit er denk ik wel toekomst in dit soort bordjes. Ik denk dat je de rekenkracht per bordje nog een factor 3 á 4 zou moeten opvoeren om een redelijke verhouding tussen rekenhardware en netwerkhardware te krijgen. Dan een infinibandcontroller op de printplaat en je bouwt een lekker efficiënte supercomputer.
Dit is single precision. De top500 van 1993 was double precision, dus is nog altijd heel wat sneller dan dit.

edit: 9.54 is single precision.

9.191948234382383 is double precision (53 bits precisie in de mantissa)

Dus je kunt niet veel berekenen met deze epiphany - maar handige marketing kreet.
In de kickstarter video gebruikte hij zijn kleine dochterje ook om de zaak te marketeeren en keek hij met al dan niet gephotoshopte blauwe ogen in de camera om een zo eerlijk mogelijk gezicht te laten zien.

Heel handig zichzelf gemarketeered - qua co processor stelt het geen drol voor.
200 dollar voor 64 trage cores single precision is ook veel te duur joh.

[Reactie gewijzigd door hardwareaddict op 23 juli 2024 14:29]

Ik heb geen idee wat de concurrentie biedt, maar ik kan je wel zeggen dat als je iets van een real-time applicatie voor beeldbewerking gaat maken (zoals in het nieuwsbericht genoemd wordt) dat je met single precision meer dan genoeg nauwkeurigheid hebt. Zelfs voor real-time PC applicaties voldoet single precision. Het heeft de voorkeur boven double precision omdat het simpelweg sneller is en de extra nauwkeurigheid voor de meeste toepassingen niet relevant is.

Dit is kan natuurlijk anders zijn als je klimaatmodellen gaat doorekenen of anderssoortige chaotische systemen.
Dat zijn nog is snelheden die dit kleine en weinig watt CPU kan tevoorschijn toveren.

Mijn 6 Core Intel Core i7 980 3.33GHz kan 130.72 GFLOPS tevoorschijn toveren, maar dan wel op 130 Watt, dat is nog is een verschil.

http://ocaholic.ch/modules/smartsection/item.php?itemid=387&page=6

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 14:29]

Met deze vergelijking sla je de plank mis, een core i7 is een cpu die op breed gebied ingezet kan worden. Je kan dit soort bordjes beter vergelijken met een gpu.

Als je het goed bekijkt heb je gewoon een arm cpu en dan 64 cores als coprocessor die voor 1 specifieke taak gemaakt zijn. Ga je nu eens kijken hoevel gflops een gpu kan leveren dan kom je op vergelijkbare waardes per watt uit.

Verschil is dat als je nu een bijv een nvidia gtx 660ti neemt komt deze uit op 2460 gflops bij 150 watt. reken je dat terug naar 5 watt is dit 82 gflops per watt en zit je dus op het niveau wat ze nu aanbieden.

Kijk je dan naar de prijs dan heb je dus 30 van deze kleine bordjes nodig om aan hetzelfde aantal gflops als nvidia te komen. Kijk dan naar de prijs van 199 dollar dan is de conclusie heel snel gemaakt. Een pc met gpu kaart is goedkoper, verbruikt evenveel.

conclusie leuke marketing maar veel te duur voor wat ze bieden.
Kom kom, licht CPU, moederbord, geheugen enz. met redelijke GPU voor 99 dollar te duur? Laat me even een Intel alternatief zien in die prijsklasse...
Hangt er van af wat je er mee doet toch? Als je iets doet wat geen floating point vereist maar alleen integer math gebruikt dan heb je geen last van die precisie.

Ik kan me voorstellen dat dit voor bijvoorbeeld encryptie brute-forcen of bitcoints berekenen erg aantrekkelijk kan zijn.
Als je een soortgelijk product voor een 16/64 core cpu weet dan had je daarvan ook wel een link mogen posten.

Duur zijn ze echt niet volgens mij.
Voor een soortgelijk dev-board van de concurrent (bv Tilera of ST) moet je val vaak het 5 voudige neertellen. De specs zijn dan ook wel beter.

Verder zit er ook nog een Xilinx Zync7020 cpu op het bord.
Dat is een dual-core cpu + FPGA in 1. Ook een leuk concept om mee te spelen.
Een normaal devboard zoals het Zed-Board kost je alleen al 395$ dus als je bijna hetzelfde voor 99$ kan kopen dan kan ik dat toch niet echt duur noemen

Verder kan je een hoop zaken best met single precision floating points doen.
De PS3 doet het ook en veel libraries voor mpeg encoding/decoding zijn er ook in single precision floating point variant.

En alles is open source dus je bent ook daadwerkelijk vrij om te doen en laten wat je wilt.
Dat was ook wel mijn eerste idee toen ik het filmpje zag, maar het kan volgens mij wel handig zijn voor mensen om te leren / experimenteren met parallele computers, MPI etc.
@TD-er : Ik zie het wel gebeuren dat er PCI-x en externe (Thunderbolt) versies van deze kaart komen om bepaalde berekeningen mee te versnellen van je thuiscomputer. Misschien dat ze zelfs interessant zijn voor beveiligingsdoeleinden.

Van de andere kant vraag ik me af of bijvoorbeeld justitie of juist kwaadwillende medemensen zulke kaartjes kunnen gebruiken om een brute-force aanval op je wachtwoorden door te voeren om zo Truecrypt containers geopend te krijgen.
Voordelen voor wie?

Als "gezichts- en gebarenherkenning, vingerafdrukken matchen en objecten tracken," de 'voordelen' zijn, dan zie ik niets in het "rekenkracht naar de massa brengen".

Wat staat daar precies? Iedere Jan met de korte achternaam kan spionnetje spelen. Meer parallelle rekenkracht hier betekent meer verlies van privacy.

Elke beveiligingsbedrijf kan dit gebruiken tegen lage kosten. Elke baas met 8 man personeel kan zijn personeel gaan tracken om te zien of ze wel efficiënt werken als ie even weg is. Het is onmogelijk om te bedenken hoe veel makkelijker het wordt en hoe mensen dit gaan misbruiken.
Lijkt me geweldig voor de toekomst! Op school/werk staan de monitoren klaar, iedereen neemt zijn eigen PC (ter grootte van een creditcard) mee en sluit hem aan. Eenmaal thuis sluit je hem aan op jou monitor en pc je lekker verder.

Ideaal
Ooit gehoord van een nieuwe uitvinding dat we noemen: Een Personal Computer?

Je gaat naar je werk, en dat ding staat gereed voor je. Ga naar huis, en je kan ofwel je gegevens meenemen, of met een internet verbinding aan je gegevens vanop je werk...

Het idee van een systeem dat je overal kan meenemen, en dezelfde taken altijd kan verrichten bestaat niet. Want er zijn altijd verschillen tussen wat je wilt doen op je werk, en wat je wilt doen thuis.

Gaming? Doe je niet op je werk... Weinig werk PC's hebben deftige GPU's. Opslag? De meeste PC's op een firma zijn beperkt in opslag, want je word/text documenten nemen niet zoveel plaats in ( zeker niet met die 500GB HD's dat bijna de minimum geworden zijn ). Thuis als je beetje "media" liefhebber bent, ... waar ga je je data opslagen?

En dan de "privacy" aspect... Ik neem aan dat je nu ook niet graag zou hebben, dat je collega's kunnen zien in de browser, dat je pikante webpagina's bezocht hebt thuis. Want dat is het effect dat je krijgt met één pc op beide plekken. Dubbel accounts zijn enkel maar goed tot op een bepaald niveau. Wat als iemand van de IT staf je systeem moet updaten ... ieeeeee ...

De meeste mensen met werk laptops beperken ook hun privé gebruik van die systemen voor dezelfde reden. Het zal niet de eerste keer zijn, dat er iemand ontslagen word, omdat men bepaalde zaken ontdekte op zijn "werk" laptop tijdens routine upgrades.

En dan het risico van infecties ... toestel verlaat firma, komt terug, aangesloten op netwerk ... hellloo Mr Trojan. Dat zelfde probleem heb je ook met laptops, maar over het algemeen zullen mensen meer voorzichtig zijn met een werk toestel.

Wat je opnoemt van een toestel dat ook ingezet word voor Privé gebruik... Zoals ik zeg, zal niet de eerste keer zijn dat mensen in de problemen gekomen zijn. Heb ook in het verleden al gezien hoe mensen met bepaalde zaken op hun werk laptop hadden, dat er niet op thuis hoorde. *oeps*

In het verleden hadden we een nieuwe werknemer, dat zijn persoonlijk laptop op de firma gebruikte, want zijn laptop was ingesteld voor hem, sneller, en bla bla bla. Heeft niet lang geduurd eer onze internet lijn plat lag, omdat meneer zijn bittorrent programma niet afgesloten had, en alles tot een trage boel herleide ( wat fun is als je met SSH & VI(m) bezig bent op remote servers. Klik key ... wacht 2 seconden, volgende, wacht 2 seconden ).

Na eerste waarschuwing, had hij niet beter gevonden om de boel nog te laten draaien, maar dan tegen tragere snelheid. Tja ... de volgende dag mocht hij al terug vertrekken. Er is een grondig verschil tussen een beetje privé zaken doen op je werk, en gewoon al je privé zaken uit te uitvoeren op de firma. En nog meer als dat gewoon gans de ontwikkeling team beïnvloed.

Ander voorbeeld, verkoper heeft probleem met zijn laptop. Onderzoeken het probleem... Tijdens het onderzoek, stoot je op ... juist. Porno... niet iets dat je graag ziet op een bedrijfslaptop. Blijkbaar op een "stoute" site geweest, met meer dan enkel "stoute" beelden, en hij had een virtuele STD opgelopen *lol*. Had ook zijn ontslag kunnen geweest zijn als dat doorgetrokken was. Willen of niet, grapje kost de firma geld voor onderhoud te moeten doen op een probleem dat eigen was aan het privé gebruik van zijn werk laptop.

Ik durft er niet aan denken, als mensen hun volledige computer mobiel voor werk & privé gebruiken. Is nu al erg genoeg met de laptops...

Als mensen met remote willen werken, dat ze dan VPN gebruiken of zo. Dan moet men een verbinding openen met het werk, en zijn ze in hun hoofd ook gefocust op dat werk ( m.a.w, ze weten dat ze niet stoute sites moeten bezoeken via die VPN verbinding ). *lol*
Dat bestaat al, voor 30 euro haal je een Raspberry Pi.

Imho, zijn super computers nogal overkill voor "lekker PC'en" tenzij je net als ik het programmeren van paralelle analyse algoritmes lekker pcen vind.
Het enige verband tussen een supercomputer en dit is dan ook de titel die tweakers heeft bedacht. Gezien dat dit ding een fractie van de rekenkracht heeft van een beetje PC/laptop slaat het gewoon nergens op het een supercomputer te noemen.

Uiteraard is hij ook goedkoper en verbruikt minder, ik wil niet zeggen dat het een slecht apparaat is, enkel dat het niks met een supercomputer te maken heeft. Ik vraag me verder dan ook af wie dit nou zou gaan kopen. Wat moet je met parallelle rekenkracht voor de massa precies? Wat kan een hobbyist hiermee?
Moet je een RPi voor de grap eens gebruiken als een computer. Je zal er snel van afstappen wegens veel te traag. Leuk als development platform, maar niet voor dagdagelijks gebruik.
Als XBMC dingetje voor achter de TV werkt het hier heerlijk.
Bij mij ligt ie sinds release niks te doen, haalde slechts 1fps met mn opencv app. Dus nu wachten op de parallella, 90 gflops zou voldoende moeten zijn :)
Hij was dan ook als een normale PC voor arme Britten ontwikkeld, waarom zou je dan iets heel groots en gestroomlijnds verwachten voor €30,- of €50,-.
Dat is precies het idee met Ubuntu Phone. Deze kan ook een full-blown desktop-experience bieden wanneer je deze aansluit via een hdmi-kabel.

Verschil is: hun telefoon hebben de meeste mensen toch wel bij zich.
Ooit van "Cloud Computing" gehoord....
Ja.

Lekker, al je documenten die onder de wetgeving van een ander land vallen, je bent in sommige/veel gevallen (c) copyright All rights reversedop je werk kwijt, bij een storing aan de serverkant kan je er niet meer bij, zonder internetverbinding idemdito.

Het heeft ook voordelen, maar die wegen er lang niet altijd tegenop. Hier heb je dan een soort van 'je eigen cloud' bij je. :)
En als je die kwijt raakt? Als daar schade aan is?

Bij online cloud heb je nog kans alles terug te krijgen als het even niet beschikbaar is, met zo'n ding ben je het kwijt.
Anoniem: 505261 @Loller122 april 2013 07:13
Ooit gehoord van backups? Dit schijnt best goed te werken.
Ja.

Lekker, al je documenten die onder de wetgeving van een ander land vallen, je bent in sommige/veel gevallen (c) copyright All rights reversedop je werk kwijt, bij een storing aan de serverkant kan je er niet meer bij, zonder internetverbinding idemdito.

Het heeft ook voordelen, maar die wegen er lang niet altijd tegenop. Hier heb je dan een soort van 'je eigen cloud' bij je. :)
Beetje cloud heeft overal mirror servers staan, is niet 1 server maar hele eco systeem van servers die elkaar taak kunnen opvangen, als er paar server uitvalt nemen de andere het naadloos over, soort raid op server niveau. En daarbij heeft beetje clouddienst ook altijd meerdere locaties met servers. Vaak hebben ze servers in verschillende werelddelen om eventuele wetgeving die nadelig uitpakt niet gelijk je data kwijt bent mocht een land zich keren tegen het bedrijf. Kwestie van juiste partij uitkiezen. ;)

En wil je niet dat iemand anders je data kan lezen zet je er toch paar lagen encryptie overheen.
Anoniem: 84766 @kevinr121 april 2013 18:50
Ooit van een laptop gehoord? :? |:(
Anoniem: 67950 21 april 2013 18:27
Vraag me af wat de prestatieverhouding/verbruik met een net zo'n kleine moderne tegra4 chip b.v. is.
Tegra blaast dit compleet weg op een manier die niet normaal is.

Let wel: dit is een co-processortje van 16 cores op een standaard kaartje wat hij nog verschepen moet naar zijn klanten. Belofte was mei/juni 2013. Dat gaat hij redden zo vermoed ik. Die 16 core coprocessor had hij al. Alleen om ze spotgoedkoop te drukken moest hij er natuurlijk heel wat van drukken.

De Tegra heeft dit allemaal geintegreerd.

Verder heeft dit kaartje van meneer maar 2 ARM cores versus Tegra dus 4+1.
Dan qua co-processor heeft dit dus 16 grafische cores versus Tegra4 dus 60 of 72 op 2.3 Ghz.

Verder heeft de Tegra4 dus DDR3 ram wat natuurlijk deze oude trage DDR2 die op dit adepteva bordje zit compleet wegblaast qua bandbreedte.

Voor spelletjes en video is bandbreedte naar de RAM 't allerbelangrijkste, dus aantal cores is vrij irrelevant.

De adepteva 64 core hardware is 100 Glops in theorie, maar dat haal je natuurlijk nooit want dat zou 1.2TB /s interne bandbreedte betekenen, terwijl de LPDDR2 bandbreedte maar een paar gigabyte per seconde is.

De DDR3 van de Tegra4 blaast dit dus finaal weg,afgezien dat het hoger geklokt is.

Dus 2.3Ghz voor de Tegra4 * 72 cores * 2 flops per multiply-add = 2.3 * 72 * 2 = 331.2 Gflops

Dat is echter ook een theoretisch getal waar je niks mee kunt want de limiterende factor voor spelletjes en video is de bandbreedte van de DDR3.

Belangrijk voor graphics is ook de aansturing. Veel videosoftware stuurt de zaak single core aan. Een 2.3Ghz A15 core van de Tegra4 is een hele snelle core.

Het is lastig om daarmee 72 videocores aan te sturen maar het kan.

Met die A9 van 1.0Ghz, een stuk tragere processor generatie (a9 is veel trager dan a15 op gelijke klok) die is echt factor 5 trager om die 64 cores ephiphany aan te sturen.

Dus echte full HD movies wordt een probleem om aan te sturen met deze toekomstige 64 core adepteva en ik wed dat meneer zelf niet een videodecoder gaat fixen om beide cores te gebruiken. Want hij heeft beide ARM cores nodig om en videootje te decoden richting de coprocessor.

Dus vanuit CPU aansturingspunt is een dual core 1.0Ghz A9 echt veel te zwak. Maar goed zijn verkoopverhaaltje is dan ook een de ephiphany co-processor. Wat je er verder mee wilt doen zit hij niet mee zo vermoed ik.

Dit zijn standaardkaartjes joh van $15 waar hij een $10 FPGA co processortje bijplakt.

Hij verdient $75 per 16 core kaartje. Slimme jongen. Gewoon half miljoen verdient afgelopen half jaar door 'm op kickstarter en met de publiciteit die hij nu krijgt vast nog wat meer.

[Reactie gewijzigd door hardwareaddict op 23 juli 2024 14:29]

Je hebt schijnbaar nogal een probleem met de beste man, maar er hangt wel degelijk DDR3 aan de ARM cores. Dit bordje is ook niet te vergelijken met een tegra oplossing. De keuze voor de A9 is heel simpel, hij kan zo de communicatie tussen de ARMs en de ManyCore in de FPGA fabric leggen. Een custom SoC is onbetaalbaar voor de aantallen waarom het gaat.

Prijjs van 100 dollar is ook niet slecht in vergelijking met een Zed board waar dezelfde SoC opzit.
@custom SoC.

In plaats van gesteggel over een custom SoC had hij natuurlijk wel een wat betere SoC kunnen inkopen in plaats van de allergoedkoopste ARM9 inslaan die er is en nog wel maar 1.0Ghz ook.

Als je een co-processor ontwerpt met 16 vector cores en plannen hebt voor eentje met 64 vector cores dan snapt elke ontwerper donders goed dat hij bandbreedte nodig heeft.

Dus het minste wat hij dan kan doen is wat snelle RAM, zeg DDR5 ram, aan zijn FPGA koppelen, of op zijn minst wat DDR3 of DDR4.

Wat hij nu bouwt is iets wat effectief gewoon niet bruikbaar is.
De beste man heeft de zaak hard zitten naaien joh. Hij deed alsof je 64 cores ging krijgen en pas later toen de klein lettertjes er waren: "oh nee 16 cores OF 64 cores krijg je".

Ik noem dat bedrog. Ik wed dat 90% van zijn klanten DENKT dat ze een 64 core platform krijgen in mei 2013.

Die 16 core FPGA had hij al en de hele homepage ging over de 64 cores. De 100 gflop is ook gebaseerd op zijn 64 core ding, terwijl niemand er 100 gflops uit gaat weten te pulken voor applicaties hoor, bij gebrek aan bandbreedte naar de RAM.

Die 100 gflop is gebaseerd op de aanname dat hij een throughput kan halen van 1 clock per multiply-add, wat natuurlijk ook je reinste nonsense is.

Dus die 100 gflop single precision is ook complete lariekoek en dat van een chip die hij nog lang niet leveren gaat met een heb ik jou daar bandbreedte naar de RAM.

Dus heel veel mensen gaan zich gefopt voelen. Maar goed, zo gaat dat met de meeste kickstarters!

Belangrijkste feit wat ik je wil voorhouden: als de man niet in USA zou zitten maar in Nederland, denk je dan dat hetzelfde verkooppraatje geaccepteerd zou worden?

Oh comeon!
Nee, maar de term 'supercomputer' lijkt toch meer op marketing dan iets anders. Slimme man!

Edit: is al gezegd..

[Reactie gewijzigd door [Yellow] op 23 juli 2024 14:29]

Interessant ding, enig wat ik me nog steeds afvraag is waarom de ethernet nog altijd zo 'groot' is ten opzichte van de rest. Je zou denken dat ze die dingen wel kleiner konden maken anno 2013. Maar goed, zo denk ik dan weer..
Om dat de stekkers niet kleiner zijn.
het is echter niet onmogelijk om een compactere of in ieder geval plattere connector voor ethernet te maken, het zijn ten slotte ook maar een aantal draadjes dus die zou je best op een andere manier kunnen monteren.
Anoniem: 449164 @qlum21 april 2013 22:50
Je zou misschien nog mobiele connectoren kunnen gebruiken zoals mini-usb, mini hdmi e.d.
Ik denk dat het bij ethernet wat moeizamer gaat dan bij de meeste connectors om twee redenen:
1. De stekkers worden veelvuldig zelf aangezet i.p.v. kant en klaar gekocht, dat maakt een nieuw ontwerp ingewikkelder.
2. Ethernet kabbels maken deel uit van een infrastructuur de vaak iets complexer is dan bijv. PC->Beeldscherm. Je wordt er niet vrolijk van als je in een bestaande kast een nieuwe switch wil plaatsen en ineens verschillende stekkers moet gaan combineren.

Beide zijn natuurlijk overkomelijk, maar werken mogelijk remmend.
Je hoeft ook geen connector meer te gebruiken, wireless kan ook gewoon. punt is alleen dat een wireless controller weer wat extra geld kost, en bij dit soort initiatieven is een hogere prijs dodelijk.

Bovendien denk ik niet dat dit voor consumenten is bedoeld, en de kans dat een bedrijf dit op een wireless netwerk gaat zetten is nihil.
Wireless controller sla ik in voor 5 dollar (zender en ontvanger). Hij wilde echter zoveel mogelijk hierop verdienen dus er zitten alleen 2 usb poortjes op voor de communicatie over 't netwerk. Vrij knullig.
De stekkers zijn niet kleiner geworden. Wel zit er meer in!
De transformator die altijd nodig is, zit tegenwoordig *in* het stekkerblok van de RJ45 connector (die op het moederbord dan hè).

Een kleinere stekker ontwerpen alleen is niet voldoende aangezien je dan de transformator nog een plekje moet geven!
Merk op dat er Ubuntu 12.04 en geen 12.10 op draait. Wellicht is het bordje (nog) niet geoptimaliseerd voor 12.10, terwijl 13.04 al voor de deur staat.

@hieronder: Ik had over het hoofd gezien dat 12.04 een LTS editie is.

[Reactie gewijzigd door ShaiNe op 23 juli 2024 14:29]

Kan er mee te maken hebben dat 12.04 een LTS editie is.
Merk op dat 12.04 de laatste LTS is.
Deze is supported tot najaar 2017. Support voor 12.10 en 13.04 eindigt in 2014 al.
https://wiki.ubuntu.com/LTS
12.04 is een LTS (long term support) release.. vrij logisch dus dat mijn dat gebruikt en niet 12.10.
Anoniem: 318025 21 april 2013 17:47
De moederbordjes van de Android mini computers zijn nog kleinere dan de grote van een credit card. Ik weet niet hoe goed de CPU is, maar ik verwacht en niet veel meer van dan al op de markt is, aangezien het een A9 dualcore is.

Kwa GPU weet ik helemaal niet of dit bordje nou echt zo krachtig is of het leuke verkoop praatjes zijn?
Qua GPU is hij al kleiner dan de meeste GPUs.
Eh het moederbord met A9 is slechts de host voor de 64 coprocessors, en hoeft alleen een os te runnen waar je je compiler op draait, jullie verwarren dit ding met een desktop dievjullie thuis hebben.

Het is een supercomputer, voor in je laboratorium. Of thuis op de keukentafel als je een tweaker bent.
Wat zou er mee kunnen worden gedaan als je er 64 aan elkaar knoopt zoals hier?
Zie het zo: er zitten 220 DSP's in die zinq........ Die lopen dan misschien niet op 3 Ghz, en ze zijn dan misschien niet zo uitgebreid als die dingen van TI maar het zijn er wel 220. vergeet dan ook even niet de 85k logic cells / 53200 luts. het is een wat complexer verhaal dan een eenvoudige CPU maar met 85K x 64 = 5440K logic cells. en 14080 DSP is het echt wel een super computer volgens elke standaard..... Dus als jij zo'n systeempje gaat bouwen, laat het dan even weten.....
Die Cortex A9 cores in de Zynq lopen al rondjes om de oude ARM die in de Pi zit.

Lijkt erop dat de Zynq op het bord alleen zorgt voor het OS enzo (waarschijnlijk ethernet, USB en HDMI) en dat die coproc's pas iets gaan doen als je vanuit de Zynq er applicaties naartoe stuurs.
Marketing praat om dit een supercomputer te noemen. De bruikbaarheid van zijn rekenkracht is extreem beperkt en doet het eigenlijk alleen leuk op papier.
Alle gigaflops op papier zeggen niets over real world performance en opdat vlak is het geen supercomputer.
Toch leuk geprobeerd.
Anoniem: 61698 @brugj0321 april 2013 19:01
Er zit een fpga met 85k logic cells, 220 dsp's, 53200 luts, enz, enz, enz in. Als je daar bij kan is het zeker een super computer.
Mijn definitie van een supercomputer is dat je er double precision (64 bits) op kunt rekenen. Dat kan niet op deze epiphany - hij kan alleen 32 bits rekenen.

Verder in mijn definitie moet je ook een behoorlijke i/o snelheid hebben (snelheid naar de harddisks) om je berekeningen al dan niet tijdelijk te kunnen opslaan. Dat heeft dit ding ook niet.

Het voldoet dus niet aan de definitie van wat een supercomputer is.
Mijn definitie van een supercomputer is ...
Het voldoet dus niet aan de definitie van wat een supercomputer is.
Eerst geef je jouw definitie en daarna is het de algemene definitie? Klinkt niet helemaal lekker...
Bovenstaande voorwaarden zijn maar een subset waaraan supercomputers van de Nederlandse overheid moeten voldoen.

Ze willen bijvoorbeeld X gigabyte per seconde storage naar de i/o (harddisks) per zoveel gflop rekenkracht en iets wat niet double precision rekent komt er niet in daar hoor :)

Het is natuurlijk wel frappant dat kickstarter filmpje van hem waar hij zegt "je eigen supercomputer thuis" en wat moet je er dan volgens zijn belofte mee kunnen? BROWSEN OP INTERNET en videootjes afspelen!

JAWEL :)
Bij mij is een supercomputer iets dat heel veel sneller is dan een standaard desktop PC, dat is hier absoluut niet het geval. Alles waar een FPGA in zit een supercomputer noemen lijkt me ook nogal apart.
Als je valt voor maretingpraat en de de specs weet te benoemen kun je ook claimen dat dit een supercomputer is.

Het is echter absoluut geen supercomputer, omdat de realworld performance niets voorsteld.
Dit komt door de supertrage data doorvoer van het geheugen en de holle claims van zwakke interne componenten die bijna niets kosten en ditto presteren.
Als dit een Nederlandse kickstarter destijds was geweest dan had die 0 eurootjes gekregen van kickstarter en was 't projectje niet gestart en waren er hele filmpjes van yanks geweest om de Nederlandse 'supercomputer' compleet te weerleggen als zijnde een realistische slogan en had de persoon op de koop toe nog wat rechtszaken gehad en passant.

Het was echter een yank.

De vraag is wat je met DDR2 ram wilt doen bij een co-processor die alleen als GPU ingezet kan worden eigenlijk, want voor andere toepassingen dan dat is het nutteloos.

De ddr2 op dit kaartje levert hooguit een paar gigabyte per seconde, terwijl de snelste videokaarten tegen de 400 GB/s aanzitten nu (dubbel gpu dan wel) en single gpu eenvoudig boven de 200GB/s al enige tijd.

Spelletjes zijn vooral afhankelijk van de bandbreedte van de videoram qua prestatie.

Dus zo'n videokaart is praktisch een factor 100 sneller voor de spelletjes dan de toekomstige 64 core epihphany co processor gaat zijn met een zielige dual core 1.0Ghz A9, waarmee je nog niet eens full HD gaat decoden, ondanks de claim van hem.
Krijgen we dadelijk mischien een slime portemonnee ;)
Ja. Namelijk gewoon je smartphone met NFC chip.

Op dit item kan niet meer gereageerd worden.