Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties
Bron: The Inquirer

Onderzoekers van het Amerikaanse Lawrence Berkeley National Laboratory hebben een paper gepubliceerd waarin gekeken wordt hoe de Cell-processor, de processor die gebruikt wordt voor Sony's PlayStation 3, presteert in wetenschappelijke applicaties. In de paper worden de prestaties van de Cell-processor naast die van de Opteron, Itanium en Cray X1 gezet. De processors worden vergeleken door te kijken naar de snelheid van veelvoorkomende berekeningen zoals verschillende matrixbewerkingen en fast fourier transformaties.

Het blijkt dat de Cell-processor hier uitstekend mee overweg kan. De processor is gemiddeld ongeveer een factor vijf sneller dan de Opteron en de Itanium. Qua prestaties staat de Cell op gelijke voet met de Cray X1. Wanneer er ook gekeken wordt naar het stroomverbruik komt de Cell helemaal zonnig uit de vergelijking. Bij sommige algoritmes is de processor bijna dertig maal zuiniger dan de Opteron en ook vergeleken met de Cray X1 is de Cell-processor enkele malen zuiniger.

In de huidige vorm is de Cell al een prima rekenmonster voor wetenschappelijke simulaties, maar een zwak punt is het ontbreken van een 64-bit rekeneenheid. In de paper wordt ook gekeken hoe een gemodificeerde Cell-processor met 64-bit ondersteuning zou presteren en uit de simulaties blijkt dat deze processor helemaal de vloer aanveegt met de concurrentie. De gemodificeerde Cell-processor zou in sommige applicaties bijna veertig maal sneller zijn en zelfs tot tachtig maal zuiniger. Vergeleken met de Cray X1 is de gemodificeerde Cell-processor ongeveer een factor drie sneller en een factor acht zuiniger.

Cell-processor
Moderatie-faq Wijzig weergave

Reacties (105)

waar heb ik dat eerder gehoord....... O ja bij de transputer. die zou ook de hele computerwereld op zijn kop zetten. Nooit meer iets van gehoord. Ook de Intel Supercomputer On A Chip 80860 en de opvolger 80870 zouden de hele wereld op zijn kop zetten. Nooit meer iets van gehord.

Moet ik doorgaan?

tot nu toe nog steeds zo geweest dat evolutie, dus 8086 .... 80386 .... pentium ...., beter is dan revolutie.

Okay de PowerPC mag dan een heel eigen markt hebben. Maar nog steeds is het zo dat hel overgrote deel van alle verkochte microprocessoren nog steeds MS-DOS 1.0 kan draaien.
Je vergeet de Motorola 88000 !
De transputer accelerators van Commodore en Atari. Dat waren nog eens tijden...
Hebben ze 'm ook naast processoren uit grafische kaarten gelegt? Ik verwacht namelijk dat die ook zeer goed met matrix- en floating point operaties uit de voeten kunnen.
Dat is ook al een keer gedaan zelfs (Cell was 5-6x sneller dan een 7800 GT GPU)
http://gametomorrow.com/b.../2005/11/30/gpus-vs-cell/
Vandaar dat de PS3 voor de grafische berekeningen ook van Cell gebruikt maakt ipv een Nvidia GPU.....


Of was het nou andersom? ;)
Dat klopt, Slashdot heeft er momenteel een nieuwsitem over.
Grafische kaarten gaan zeker nooit met 64-bit floating-point verwerkingseenheden uitgerust worden. Zelfs voor Direct3D 10 wordt een lichtere specificatie dan IEEE 754 voor 32-bit floats als standaard beschouwd en die moet vele jaren meegaan.
64-Bit Floating Point Texture Filtering and Blending
Based on the OpenEXR technology from Industrial Light & Magic (http://www.openexr.com/), NVIDIA’s 64-bit texture implementation delivers state-of-the-art high dynamic-range (HDR) visual effects through floating point capabilities in shading, filtering, texturing, and blending.
http://www.nvidia.com/page/pg_20040406350192.html
blijkbaar zijn ze er al een paar jaar :)
Toch niet: een 64-bit texture betekent dat je 4 16-bit componenten hebt (RGBA, waarbij A transparantie is.)

Met 64-bit ALU's heeft dat dus niets te maken.
"Hebben ze 'm ook naast processoren uit grafische kaarten gelegt? Ik verwacht namelijk dat die ook zeer goed met matrix- en floating point operaties uit de voeten kunnen."

het grote verschil is dat de cell nog een general-purpose core heeft. Daardoor kun je de chip gebruiken als een cpu (-central- processing unit).
Met een gpu gaat dat wat lastiger en ben je gelijk afhankelijk van de doorvoersnelheid van je bus etc.
Verder kan je zo'n cell ook gebruiken om data voor te kauwen voor een gpu waardoor ze samen meer weten te behalen dan ieder appart bij elkaar opgeteld (1+1=2.5).

Je moet het dus niet vergelijken met een gpu, je moet het er naast zien! :)
De Cell processor is belangrijke stap in een complete revolutie in de computerarchitectuur wereld. Die revolutie is al een tijdje aan de gang, maar de gemiddelde Tweakers weten dat alleen nog niet, aangezien het zich voornamelijk in de laboratoria van universiteiten en onderzoeksafdelingen afspeelt.

De huidige processorarchitectuur is niet schaalbaar.
Toekomstige processoren zullen op een enkele chip/core duizenden microprocessoren bevatten. Dergelijke processoren zijn wel schaalbaar in zowel performance als energieverbruik als kloksignaal propagatie. De Cell processor is dus slechts het begin.

Om optimaal van dergelijke processoren gebruik te kunnen maken, moeten compilers zodanig geoptimaliseerd worden dat programma's (met duizenden microprocessoren op een enkele chip) zoveel mogelijk parallel draaien op instructie niveau (Instruction Level Parallelism, ILP).

Eigenlijk zou het wel leuk zijn als T.net een in-depth review artikel schrijft over toekomstige ontwikkelingen op het gebied van Dataflow architecturen (waar vroeger veel onderzoek werd gedaan, maar destijds onhaalbaar was om daadwerkelijk te implementeren) en impliciete/expliciete ILP.

(De Tweaker die voorop wil lopen op andere Tweakers ;) Googlet nu direct op 'Dataflow architectures' en 'Instruction Level Parallelism')
De tweaker doet er beter aan om te zoeken op Amdahls Law en de trends van rekenkracht vs. bandbreedte/latency om er achter te komen dat een chip met duizenden 'microprocessoren' nooit een groot succes zal worden buiten zeer specifieke toepassingen (waar nu ook al gespecialiseerde DSPs/ASICs voor zijn).
Voor veel 'applicaties' ( lees codecs, engines etc) geldt dat ze een grote boost kunnen krijgen als ze vectoriseerbaar zijn. Daarnaast wordt er afgestapt van het model van een centraal shared geheugen.

Deze 'duizenden' engines kunnen dan dus met elkaar communiceren zonder off chip te gaan naar een centraal (gecached) geheugen. Tevens betekend dit ook een grote verbetering in het power gebruik, waardoor mobiele toepassing binnen handbereik komen, zonder geforceerde koeling. E.e.a. hangt natuurlijk samen met technologie schaling en complexiteit beheersing.

Op zich een heel interessant gebied, wat dus nog veel toekomstperspectief bied. In feite is de Cell processor een eerste stap in die richting, vanuit technisch litererair oogpunt niet super revolutionair (dit is de huidige state of the art), vanuit business oogpunt wel zeker, daar dit een ongewone stap is qua investering en het wijkt af van de main stream opvattingen.
Amdahls Law gaat er vanuit dat er altijd seriele berekeningen nodig zijn binnen een parallele omgeving. Maar met onze hersenen hebben we daar geen last van. Dus kun je net zulke computers bouwen.
We weten alleen nog niet goed hoe. Maar als we daar achter zijn gekomen dan vervalt iig deze wet.
Amdahl's Law is allang weerlegd door Gustavson eind jaren 80. Amdahl ging uit van een fixed-load, maar als je uitgaat van fixed-time dan kun je wel schaalbare performance krijgen.

We hebben al een simulatie draaien van een processor met 1000 microprocessoren, die volledig schaalbaar is (dus geen last van communicatieoverhead, etc.)

Als je zorgt voor een slimme plaatsing van je process op de processor, waarbij communicaties door de compiler worden gedefinieerd, kun je latency's minimaliseren en heb je weinig last van de communicatie overhead. Sterker nog, er zijn architecturen in ontwikkeling waarbij de communicatie tussen twee microprocs op ALU niveau plaats vindt, met een latency van exact 1 clock cycle.
Vergeten we de logic chips niet?

Dat wordt ook leuk speelgoed denk ik.

Ze worden momenteel al uitgeprobeerd in xbox mod chips (oa de SmartXX chips)
Hmm moet de Japanse regering als de PS3 uitkomt dan weer niet even de export blokkeren omdat gemene mensen raketten zouden kunnen laten vliegen met het apparaat? In elk geval tot de eigen markt is verzadigd... :Z
Het was wel de bedoeling dat de cell processor een vooruitgang zou zijn tov normale cpu's, maar wordt de GPU verslagen als wetenschappelijk rekenmonster?
Nee, dat moet de Japanse regering niet. De cell architectuur/processor is namelijk niet specifiek voor de PS3 ontworpen, al is het wel een wat aangepaste versie die in de PS3 zit als ik het goed heb.

De PS3 is juist een van de (straks vele misschien?) apparaten/machines waar de Cell architectuur is gebruikt.
oorspronkelijk is hij well specifiek voor de PS3 gemaakt, maar later zijn ze het nut er van in gaan zien om deze chip ook door te verkopen.

ze hebben gewoon een monster gemaakt :)
daar gebruikte ze de ps2 al voor, kan alleen het artikel niet zo snel terugvinden...
Hehe inderdaad was dat ook het geval bij de internationale introductie van de PS2...triest is een mooi woord om die actie te omschrijven. Misschien is er wel een wiki over.
http://www.interestingprojects.com/cruisemissile/

Zitten ze toch met een probleem, die cruise missls kan je voor een paar ruggen zelf al bouwen!
om raketten te laten te vliegen heb je genoeg aan een 486
Bedoel je de eerste raketten die door een 8086 bestuurt werden. (worden ook gebruikt in space shuttles (nog steeds nieuws: NASA op zoek naar 8086-chips)
Dat is dus nog niet eens 286 maar ok tegenwoordig is misschien wel een 486 nodig.


edit: stond nog wat onzin er bij
de spaceshuttles zijn inmiddels geupgrade naar 386's, maar voor genoeg andere apperatuur zijn ze nog op zoek naar 8086's.

Om een raket te laten vliegen heb je echt geen 486 nodig hoor, alleen als je extreme berekeningen realtime zou moeten doen (wormhole berekening, of lichtsnelheid navigatie), moet je iets zwaarders hebben. Maar ik betwijfel dat ze daar dan nog iets uit de x86 serie voor zouden pakken.
Een raket besturen oke, maar Windows Vista op je 386 draaien? Ho maar. :P
Minder nog.

Die JDAM bommetjes die hebben een 28Mhz. aan boord, vergelijkbaar aan een 486.
Leuk aan die 8-48mhz PIC microprocessors is:

Er staat in de overeenkomst als je zon ding koopt dat je ze niet mag gebruiken voor het bouwen van een systeem waar levens van af kunnen hangen (medische apparatuur) of waar je levens mee kan bedreigen (electronische wapens, rakketten, etc). :9

Stond dat ook op de 486 chip?
''De processors worden vergeleken door te kijken naar de snelheid van veelvoorkomende berekeningen zoals verschillende matrixbewerkingen en fast fourier transformaties.''

dus niet 1 soort berekening

en ja, dat die chips sneller waren dan de athlons etc. wisten we inmiddels wel, sneller dan de Xeons en de Opterons is weer nieuw, en daarbij heel interesant

nu nog moederbord ondersteuning :7
Inderdaad. Het lijkt mij een uitstekende processor voor PC gebruik. Als hij zovele malen beter is dan de huidige processoren, en vergeet niet dat de prijs een stuk lager is dan een gewone high-end CPU... (inbouw PS3)
Erg economisch als je het mij vraagt. :Y)

Nu nog ondersteuning :P
Inderdaad. Het lijkt mij een uitstekende processor voor PC gebruik
Helemaal niet, want een gemiddelde applicatie (en games ook voor het overgrote deel) leunt juist meer op een generieke CPU, die hoeft namelijk niet heel veel gelijksoortige berekeningen uit te voeren. Dus tenzij je veel met beeld- of audiobewerking aan de gang gaat (of gewoon een koetje wilt draaien ;)) heb je niet echt voordeel aan een dergelijke CPU.
Heh, iemand die "woot" in z'n reactie zet neem ik op voorhand al niet meer serieus. Maar vooruit:
ik weet niet of je wel us een game geprogrammeerd hebt maar er is 1 ding belangrijk (naast design, muziek,verhaal,etc) en dat zijn graphics!.
Haha, misschien moet je eerst eens op m'n profile klikken voor je een dergelijke reactie post. Ik bén namelijk gamedeveloper, en met name bezig met graphics (ben momenteel onze renderer aan het implementeren voor de Xbox360).
In bijna ALLE spellen staan graphics centraal.
Toch raar dat graphics code slechts tien procent van de hele game inneemt dan :Y).
Voorbeeldje: Tomb Raider: Legend. ruwweg 550.000 regels code (gamelogic scripts niet eens meegeteld!). Render-code: ruwweg 50.000 regels code (alle platforms bij elkaar opgeteld).
En graphics baten over het algemeen niet bij een generieke cpu
De daadwerkelijke rendering niet nee, maar dat neemt de GPU voor z'n rekening, dus ook daar heb je geen cell voor nodig. En natuurlijk zijn er wel bepaalde processen te optimaliseren voor een cell architectuur (physics, culling, sound processing, video decoding), maar het overgrote deel van een game is gewoon algemene logic en daar heb je niets aan een cell cpu.

Het is niet voor niets dat de PS3 developers niet echt blij zijn met de gekozen weg van Sony. Het is erg lastig om het hele game concept te implementeren op een cell. En naast het concept is het technisch gezien ook wat vervelend: elke cell heeft maar een kleine hoeveelheid geheugen waar hij bij kan (128kb als ik me niet vergis), plus het feit dat je je cell code ook nog eens door een hele andere compiler moet laten gaan. Ook het aansturen is vervelend, dma's programmeren zodat het geheugen bij de cells terecht komt, de cells hun werk laten doen, synchroniseren zodat je weer verder kunt gaan met de verwerkte data, etc.

Wat dat betreft worden ze blijer van microsoft's keuze: gewoon meerdere generieke cores waar je gewoon alles mee kan. En elke core heeft ook gewoon een vector unit, dus die kan tussen de generieke code door ook nog eens vectorbewerkingen uitvoeren. Je kunt een core dus prima inzetten als cell-achtige unit, maar tegelijkertijd kun je er ook nog algemene logic in kwijt (branching, main mem access, etc.)

Dus, voordat je de volgende keer blaat, doe een klein beetje onderzoek, dan zet je jezelf ook niet zo voor lul ;)
Grappig koelpasta. Je opmerking doet mij denken aan het marineschip vs vuurtoren verhaal. .oisyn hoeft hem alleen nog maar in te koppen.

Maar mbt gewone PC's. Dat zijn geen gameconsoles en dat zijn ook geen supercomputers. Natuurlijk zal de Cell processor zich wel leuk kunnen storten op het en en decoderen. Echter wordt hij onderuit getrokken door het OS wat er ook nog gewoon op draait.

PC's worden echt niet alleen voor games gebruikt.
je vergeet te vermelden dat je code voor de SPEs moet worden gegenereerd door een apparte compiler & dat die functies als een zwarte doos worden ingepast (zoals we vroeger asm snippets gebruikten). En je moet het grootste deel van je code voor de spe's ontwikkelen...
Dat hele systeem is gewoon YUK, (en als ik dat zeg noemt men mij meestal een luie programmeur tjah, wij programmeurs willen ook gebruiksvriendelijkheid en meestal vertaalt dat zich in betere code, lagere kosten, minder stress, haalbare deadlines, ...)
Nee hoor:
plus het feit dat je je cell code ook nog eens door een hele andere compiler moet laten gaan
;)
Vind jij dan dat een Powercore niet snel genoeg is om er een os op te laten draaien ??? come on zeg...

Het punt wat ik probeerde te maken is dat alle toepassingen steeds zwaardere eisen aan hun interface stellen. Dat komt in het geval van een cpu uit op het verwerken van grote hoeveelheden beeld en geluid. En daar is die cell goed in.

Buiten dat zijn games zo'n beetje de zwaarste belasting voor je huis-tuin en keuken-pc. Voor Word heb je geen cell nodig, maar ook geen FX64.
Dus de cell lijkt me een prima kandidaat voor een pc cpu.
Dan hoef je ook geen ageia meer te kopen :)
Vind jij dan dat een Powercore niet snel genoeg is om er een os op te laten draaien ??? come on zeg...
(zucht) Zeg ik dat dan? Wijs me aan waar dat staat.

Wat ik wilde aangeven in mijn eerste reactie hier in deze draad (lees trouwens ook nog eens de reactie van de persoon waar ik op reageer, want dát is namelijk de context, niet die aannames die jij er ineens bijhaalt) is dat cells helemaal niet zo handig zijn voor dagelijks PC gebruik, daar heb je meer aan meerdere generieke cores. Ik heb nooit beweerd dat cells niet nuttig zouden zijn, het zou juist een prima coprocessor maken. Maar als vervanging van de hedendaagse x86 CPU? No way!

Overigens bijt die generieke PowerPC nogal het stof van een hedendaagse Athlon of Pentium. En ik zie voor de toekomst van de PC dat de GPU sneller ingezet zal worden als cell-achtige structuur dan dat er een cell coprocessor bijkomt. We gaan steeds meer richting het naar buiten halen van de shaders, en op een gegeven moment zul je waarschijnlijk zien dat individuele vertex en pixelpipelines (waarbij er dan sowieso al geen verschil meer zit tussen een vertex- en een pixelpipe) gewoon apart aanspreekbaar worden. Het voordeel wat de GPU in dat opzicht heeft is dat hij al bestaat en volop ondersteund wordt.
"Ik bén namelijk gamedeveloper, en met name bezig met graphics (ben momenteel onze renderer aan het implementeren voor de Xbox360)."

hehe, niet gezien.. erg cool!!.,

"Voorbeeldje: Tomb Raider: Legend. ruwweg 550.000 regels code (gamelogic scripts niet eens meegeteld!). Render-code: ruwweg 50.000 regels code (alle platforms bij elkaar opgeteld)."

Dat zegt geen bal.

je kan 1 regel code hebben die constant wordt uitgevoerd en je kan miljarden regels code hebben waarvan er soms 1 wordt uitgevoerd.

De hoeveelheid code zegt dus helemaal niets over hoevaak de code wordt uitgevoerd (en dus hoeveel resources het van een systeem opeist).
Sterker nog, code die je vaak herhaaldelijk moet draaien (om wat voor reden dan ook) moet juist efficienter zijn en daardoor dus vaak kleiner!!!
Dat moet jij toch ook weten????

"De daadwerkelijke rendering niet nee, maar dat neemt de GPU voor z'n rekening, dus ook daar heb je geen cell voor nodig. En natuurlijk zijn er wel bepaalde processen te optimaliseren voor een cell architectuur (physics, culling, sound processing, video decoding), maar het overgrote deel van een game is gewoon algemene logic en daar heb je niets aan een cell cpu."

Je zegt het zelf al een beetje, dingen als physics en culling kun je heel goed op een cell doen. Maar ook complexere animatiesystemen en procedurele animatie/object/texture generatie behoort tot de mogelijkheden.
En dat zijn best wel coole dingen die nog maar mondjesmaat in spellen gebruikt worden.
De cell neemt een deel van het 'coole' werk uit handen van de ppc core die zich dan weer meer kan richten op algemene zaken.
Als je dat bv vergelijkt met een pentium architectuur dan krijg je te maken met allerlei zaken als diepe branch prediction en straf cycli voor het omschakelen van alu's etc. Is dus niet echt parallel.
In de cell kun je (dankzij de vette interne bus) een pipeline configureren met de spu's.
De ppc core voorziet een aantal (of alle) spu's van code en hoeft vervolgens alleen de 1e te voorzien van data. De spu's crunchen de data stuk voor stuk, telkens het resultaat doorgevend aan de vogende in de pipe.
De laatste in de rij geeft het uiteindelijke resultaat weer aan de ppc core.
De snelheid van de interne bus is zo gekozen dat alle spu's hun data kwijt kunnen aan andere spu's in dezelfde tijd als dat de ppc de data kan invoeren!. Dit betekent geen bottleneck in deze configuratie. De ppc core kan zich bezig houden met data swappen met het hoofdgeheugen etc, etc, etc.

"Het is niet voor niets dat de PS3 developers niet echt blij zijn met de gekozen weg van Sony."

Nee, natuurlijk zijn er mensen die het niet leuk vinden om nieuwe dingen te leren. Tuurlijk moet het 'game concept' opnieuw worden uitgevonden voor dit platform.
Maar dat is een kwestie van tijd.
Dit soort gemekker hoor je altijd bij nieuwe platforms.
Je moest eens weten hoe mensen zaten te zeiken toen MMX werdt geintroduceerd in de Pentium! :)

Je haalt btw Cell en SPE door elkaar.
Lees de docu nog eens goed door :)
En SPE's hebben 256k local store, niet 128

Het klopt ook dat de spe's een andere compiler nodig hebben dan de ppc core. Dat is niet meer dan logisch aangezien het vrij onafhankelijke, specialistiche processors zijn die dus anders werken dan de ppc core.

Omdat we nog in een vroeg stadium zijn zijn de compilers nog losse tools. Later zal dit integreren en hebben de devs niets meer om over te huilen.

"Ook het aansturen is vervelend, dma's programmeren zodat het geheugen bij de cells terecht komt, de cells hun werk laten doen, synchroniseren zodat je weer verder kunt gaan met de verwerkte data, etc."

1 woord: compiler

Op dit moment vereist het proggen voor de cell vrij veel inzich en (handgeschreven) code om de zaak te reguleren. Dit zal veranderen als de compilers en libraries volwassener worden. Dit is normaal.

"Wat dat betreft worden ze blijer van microsoft's keuze: gewoon meerdere generieke cores waar je gewoon alles mee kan. "

Ja, natuurlijk, want dat maakt het developen goedkoper omdat je cheap je expertise kan inkopen.
Ook zijn de devtools van microsoft natuurlijk beter.
Maar je zit dan nog steeds met ongeveer dezelfde verhoudingen aan resources.
De cell is echter veel meer media ge/skewed/ en zal dus een ander pallet aan resources bieden die dus op een andere manier moeten worden ingezet.

Even terugkomen op Legends
Ik kan de nieuwe tomb raider prima draaien op mn p4 2.8 MAAR ik mag niet in next gen mode spelen want mijn videokaart is niet krachtig genoeg. (terwijl die meer data weet te verslinden dan mn cpu)
Moderne spellen hebben dus JUIST een behoefte aan bruute rekenkracht.
De cell architectuur biedt deze.
hmm.,

Aangezien pc's al lang voorbij 'genoeg voor dagelijks gebruik' zijn is de hele discussie over sneller pc's al bij voorbaat gedoemd.

Er blijven echter een paar dingen over.
wetenschap
games
design

Dit zijn terreinen die duidelijk nog baat hebben bij snellere pc's.
Ook is het duidelijk dat deze terreinen veel baat hebben bij snellere vector calculaties.

.. dan zeg ik doe mij maar een cell in mijn pc.
"Helemaal niet, want een gemiddelde applicatie (en games ook voor het overgrote deel) leunt juist meer op een generieke CPU, die hoeft namelijk niet heel veel gelijksoortige berekeningen uit te voeren."

WOOOT!???
ik weet niet of je wel us een game geprogrammeerd hebt maar er is 1 ding belangrijk (naast design, muziek,verhaal,etc) en dat zijn graphics!.
In bijna ALLE spellen staan graphics centraal.
Bijna alle code staat in het belang van de interactie tussen de speler en de getoonde graphics.

En graphics baten over het algemeen niet bij een generieke cpu.
Vandaar dat we al het tekenen van de graphics hebben overgeheveld naar toegewijde cpu's (gpu's).

Nu is het briljante van de cell dat de bedenkers ingezien hebben dat er een grens aankomt vav het gebruik van generieke toepassingen. Er is immers genoeg generieke cpu tijd vrij om generieke apps (zoals word etc) te draaien.
Dus kan je de die-space (plek op de chip) beter ten dele gebruiken voor wat meer specialistische toepassingen.
En als er ergens wel specialistische behoefte bestaat dan is het wel in vectorberekeningen.

ik noem maar wat voorbeelden van zulke toepassingen:
-de/encoderen van mp3's
-de/encoderen van mpeg/2/4
-compressie in het algemeen
-physics/simulaties
-vertex preprocessing
-spectrum analyse
-statistische analyse
-de/encryptie
-route plannen
-kleurcorrectie
-signaalverwerking in het algemeen
-etc, etc, etc

En je moet niet vergeten dat de cell ook een flinke 'general purpose' core heeft, die dus alle 'standaard' dingen voor zn rekening neemt.

Ik denk dat ze het balans van cpu kracht goed hebben uitgemikt voor de komende tijd.
Alsof pr0n kijken zoveel CPU kost. :Y)
Jij hebt nu ook woot in je reactie staan :P
Tjsa, het feit blijft dat men wel kritisch moet blijven tegenover de cell ook kan al kan hij bijvoorbeeld gausische eliminaties sneller berekenen dan andere processors. Maar het zou mooi zijn als er een snellere processor zou uitkomen.
Dit zijn dus toepassingen waar de cell processor voor is gemaakt.
Wat veel mensen voor het 'gemak' maar even vergeten is dat IBM al werkstations met de cellprocessor levert.
Trouwens, lijkt me helemaal niet zo vreemd als Sony besluit een sony ps3 gaat uitbrengen specifiek voor clusterwerk.
Alhoewel ik eerder denk dat dit door een derde bedrijf gedaan zal worden.
De hoofdprocessor heeft trouwens ook nog een vectorunit (altivec).
Ik ben dus ook zeer benieuwd hoe deze het performance technisch doet want juist hiermee is de PowerPC groot geworden.
Nog steeds komt er qua vectorwerk weinig in de buurt van de PPC970 die door oa. Apple wordt gebruikt.
Trouwens, lijkt me wel erg kewl.
Een cluster met PS3's.
IBM heeft zoiets eind 2004 aangekondigd en ongetwijfeld wordt daar hard aan gewerkt, maar het was mij onbekend dat die al te koop zijn.

Ik zou wel eens een website willen zien die aantoont dat IBM effectief al zo'n werkstations aanbiedt. Zou je dat 'voor het gemak' eens willen posten?

Dat Sony een 'ps3' gaat uitbrengen voor clusterwerk lijkt me absolute utopie. Sony is een absolute nobody in de wereld van high-perf computing en ze hebben wel andere zorgen aan hun hoofd dan een nieuwe (en dan nog niet-consumer) markt aan te boren.
Dit zal imho nooit gebeuren want de ps3 is een spelcomputer waarbij de duurzaamheid en kwaliteit niet beter hoeft te zijn als van de gemiddelde stereoset dit is in servercomputers en zelfs geclustede computers meestal niet voldoende. Daarnaast verkoopt sony zijn spelcomputers net als andere fabrikanten nagenoeg zonder winst of zelfs verlies vooral in de eerste periode na introductie, de enige reden dat ze nog indirect winst maken is met accesoires en natuurlijk de games.

Ik zie sony dus niet in de clusterwereld stappen om deze redenen met de ps3. En ook niet met een nieuw apparaat omdat het hart van de ps3 de cell proc is van IBM die zij zelf al op de markt hebben, en neem ik aan ook met omhulsel dat gebruikt kan worden voor clustercomputing.
(of zelfs een grote printplaat in een doos met veel cell procs).

PS. Ik kan me herinneren dat sony er niet blij mee was maar hier dan toch :P.
[edit]<foutjes>
Dit klinkt heel positief, het is echter maar 1 soort berekening, dus een P4/K8 killer zal het niet worden.

Ik ben benieuwd of de real-life situatie ook e.e.a. kan waarmaken.
Daar is hij toch ook helemaal niet voor gemaakt?! En daar gaat dit bericht dan ook niet over. In zo'n wetenschappelijke proeven komen er inderdaad onnoemelijk veel fouriertransformaties voor, dus deze test is een echte real-life test. Natuurlijk moet je hem dan ook niet gaan extrapoleren naar gebieden waar hij niet van toepassing is.
Ze vergelijken hem toch wel met een Opteron.

Het ding blijkt dus in sommige dingen (in vergelijking met ...)een veel betere keus, in andere niet.
Waarschijnlijk is 'ie dan wel interessant om als GPU coprocessor (physics processor anyone?) ingezet te worden
je zou er wel een hoop co-processors van kunnen maken.
die de Core Duo en K8 een extra boost zou kunnen geven.
Waarom werd dit als overbodig gemod????

unity heeft gelijk.

Als je op de opteron of Core Duo ook 8 FPU's erbij zet (coprocessors) heb je hetzelfde effect als de Cell processor.
En wie er dan sneller is is dus weer een kwestie van Powerpc vs X86 alleen zit er nu geen apple meer aan verbonden maar Sony.

De Cell processor is niets meer dan een hoog geclockte door ontwikkelde power PC processor met 8 FPU's (coprocessors)
Wellicht zou hij als co-processor kunnen fungeren (als daar een moederbord voor gemaakt zou worden, en als dat uberhaubt kan natuurlijk) Waarin hij vanuit het OS specifieke opdrachten krijgt voor waar hij goed in is. Zoiets als een physics processor voor je videokaart.

Ik kan me vaag iets herinneren van een type spelcomputer die massaal werd verkocht en in renderfarms terecht kwamen (nintendo) was daar toen niet al te blij mee omdat er in verhouding bijna geen spellen verkocht werden.
Zo is de Cell zelf al opgebouwd. Één Power-core die (in een ideale wereld) niet anders doet dan het aansturen van de zeven andere cores.
"Zo is de Cell zelf al opgebouwd. Één Power-core die (in een ideale wereld) niet anders doet dan het aansturen van de zeven andere cores."

Die core kan wel meer doen dan alleen die spu's voeren.
Dat komt omdat de spu's redelijk zelfstandig zijn.
Je geeft ze een brok code en data en ze gaan (zoals elke andere cpu) lekker aan de slag met hun code op de data.
Ook kunnen de spu's ELKAAR van code en data voorzien!

Ondertussen kan de powercore andere dingen doen .
Klinkt mooi: snelle matrixbewerkingen zijn handig voor 3D games. De Cell zal vast ook wel physics berekeningen heel snel kunnen uitvoeren. Dan heb je geen aparte physics kaart meer nodig. Mocht de Cell als insteekkaart voor de PC beschikbaar zijn dan wil ik er best apps voor schrijven om mijn real-time raytracer wat sneller te laten lopen.
Ik verwacht niet dat je een gigantische verbetering zou zien als je huidige games op een dergelijke CPU zou draaien, omdat bij games vooral heel veel matrixbewerkingen worden gedaan op kleine matrices.

Bij wetenschappelijke simulaties worden meestal gigantische matrices gebruikt waarbij de berekening zelf op de huidige cluster computers (geparalleliseerd met bijv. MPI) al uren/dagen duren. Dus daar zul je wel enorme verbeteringen zien.
Gelijke prestaties en 80x zuiniger (en de helft goedkoper) zou ook al leuk zijn :)
Over hoelang komt het berichtje:
''China koopt een nieuw rekencentrum. Het zal gebruikt worden voor atoomsimulaties en zal bestaan uit 1000 PS3'en. Die zijn goed voor 250 Gigaflops.'' ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True