Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties

De Powerxcell 8i-processor is de laatste Cell-processor die IBM heeft ontwikkeld, zo heeft het bedrijf bekendgemaakt. Delen van de Cell-architectuur zullen wel opduiken in andere processors. IBM raadt Cell-programmeurs aan OpenCL te gebruiken.

IBM werkte naar verluidt aan een opvolger van de Powerxcell 8i-processor die over twee PowerPC-processors en 32 spe's zou beschikken. Die opvolger komt er echter niet, vertelde David Turek, vice-president van de afdeling Deep Computing bij IBM, aan Heise.

Turek wilde niet zover gaan om de Cell-architectuur dood te verklaren, want delen van het chipontwerp zullen in andere chips terugkeren. De Powerxcell 8i-processor vormt het hart van Roadrunner, de supercomputer van het Los Alamos National Laboratory die als eerste computer ter wereld de petaflops-barrière doorbrak.

IBM denkt dat de toekomst aan hybride chips of beter gezegd aan heterogene multiprocessing is. Het concern raadt ontwikkelaars voor de Cell dan ook aan het ontwikkelplatform voor heterogene cpu's en gpu's de OpenCL-programmeertaal te gebruiken. Daartoe heeft Big Blue de OpenCL-sdk voor de Cell beschikbaar gesteld.

Moderatie-faq Wijzig weergave

Reacties (62)

IBM denkt dat de toekomst aan hybride chips of beter gezegd aan heterogene multiprocessing is. Het concern raadt ontwikkelaars voor de Cell dan ook aan het ontwikkelplatform voor heterogene cpu's en gpu's de OpenCL-programmeertaal te gebruiken. Daartoe heeft Big Blue de OpenCL-sdk voor de Cell beschikbaar gesteld.
Cell is ook een heterogene architectuur, en blijkbaar is bedoeling dus om OpenCL te gebruiken voor de aansturing, zowel op Cell als voor de mogelijke opvolger. Met andere woorden: IBM komt uiteindelijk wel weer met een andere chip gestoeld op dezelfde principes, veel cores, assymetrisch ontwerp, hoge kloksnelheid, hoge bandbreedte. Of dat dan Cell heet of wat dan ook en wat voor instructieset er precies gebruikt wordt, dat boeit dan ook eigenlijk niet zo veel, daar is een abstractietaal als OpenCL juist voor bedoeld.
Ik denk dat dit bericht er op duidt dat IBM weet dat de PS4 geen cell meer zal bevatten en dat IBM daarom de ontwikkeling stopt. Gewoon geen voldoende markt meer. Ik neem aan dat Sony al een tijdje bezig is met een nieuw ontwerp, en mogelijk is bij Sony nu de knoop doorgehakt.

Ik weet dat onder wetenschappers Cell gezien werd als goedkope oplossing om modellen door te rekenen en sommigen daarvoor een gemodificeerde PS3 gebruikten. Het was dus wel degelijk een krachtig ontwerp. Maar we zien dat in de wereldmarkt alles standaardiseert. In de console markt speelt prijs een grote rol en als het lastiger is om games the programeren voor een afwijkend ontwerp dan is dat ook weer een nadeel.

Een afwijkende architectuur vertaalt zich ook niet direct in kenmerkende product eigenschappen die je kan uitbaten. Daarbij is Sony al een tijd aan het kwakkelen, ze hadden hele innovatieve producten maar hun rentabiliteit was maar 10% van bijv. Samsung. Hun robothondje hebben ze daarom ook stopgezet ondanks dat er echt wel een markt voor was. Sony wil zijn marges verbeteren.

[Reactie gewijzigd door degener op 23 november 2009 13:29]

Dit is behoorlijk jammer daar de Cell architectuur een hele efficiente was.
Echter de algehele intergratie is tot nu toe niet bepaald groot geweest. Op de Playstation 3 na dan. :(
Cell is gewoon een zeer basale variant van de huidige unified shader dinges videokaartjes. Die werken op ongeveer dezelfde manier, maar dan beter uitgewerkt. Uiteindelijk zullen wat innovaties van de cell processor meegenomen worden, maar de processor is z'n nut en nieuwigheid eigenlijk al lange tijd geleden verloren.
Als dat het geval is, vraag ik mij af waarom deze processor in de PS3 zit? In de Console oorlog wil je niet achterop beginnen (als Sony zijnde). De Cell voor de PS3 lijkt mij dan ook een weloverwogen keuze waarbij nut zeker de revu gepasseerd is. Dus vraag ik mij af: Waarom is hij z'n nut verloren volgens jou?
Als dat het geval is, vraag ik mij af waarom deze processor in de PS3 zit?
Omdat GPU architectuur in 2005 en daarvoor (dus tijdens ontwikkeling van de PS3 en 360) nog helemaal niet zo geavanceerd was. GPUs van dat moment hadden nog speciale pixel en vertex pipelines en waren niet de general purpose multicore SIMD architecturen van tegenwoordig. Cell was voor z'n tijd inderdaad prima, maar tegenwoordig is het dus achterhaald. De eerste "moderne" GPU met deze nieuwe ideeen was de G80, en die kwam ongeveer gelijk uit met de PS3 en was toen nog 480 mm2. Pas nu, met GT200 in de winkel en Fermi op de planning, beginnen we de ware kracht van deze architecturen te zien.
Inderdaad, Sony kan met de PS4 waarschijnlijk een heel snelle, en veel efficientere processorkracht behalen door een GPU in te zetten. Dat kan dezelfde GPU zijn als die de graphics uitvoert of een GPU die speciaal voor dat soort berekeningen wordt gebruikt (los of geintegreerd op de CPU als bij AMD Fusion).

De Cell was in feite een goed idee (hoewel de toepasbaarheid bij games enigszins twijfelachtig is), maar het idee was meteen gedateerd toen GPGPU's een succes bleken.
Dan moet je eens nieuws berichten van enige tijd geleden zoeken. Sony wilde de PS3 bouwen rond de Cell en alleen rond de Cell, dus dat deze ook de grafische taken ging afhandelen. In een vrij laat stadium is er besloten TOCH een grafische processor toe te voegen aangezien het bleek dat de Cell het alleen toch niet helemaal af kon. Dat is dan ook de hoofdreden dat de Cell in de PS3 zit. En ansich is er helemaal niets mis mee, hoewel het programmeren niet altijd even makkelijk is ervoor.
De bedoeling was dan wel om er 2x een Cell in te zetten, en dat had in theorie waarschijnlijk wel genoeg rekenkracht opgeleverd, alleen is veel te ingewikkeld te benutten in vergelijking met een normale GPU setup
Naast het feit dat een 2e Cell proc de console nog een stuk duurder zou maken dan een aparte GPU..
Daarvan had ik begrepen dat de Cell het wel aankon, er zou kracht genoeg aanwezig zijn, maar het programmeren voor de PS3 t ingewikkeld worden voor ontwikkelaars.
Dat komt eigenlijk omdat Sony het juist moet hebben van al hun nieuwe technieken die ze gebruiken. Zie de Bluray in de PS3 en de DVD in de PS2. Dat is juist een sterk stukje marketing van Sony. Verder bied de Cell alleen maar nadelen in de console, want er is moeilijk mee te programmeren.
alleen maar nadelen? De console is zodanig efficient dat het met relatief weinig kracht volgens de hedendaagse standaarden 1 van de mooiste games van dit moment weet af te spelen. namelijk Uncharted 2, en zo zijn er nog veel meer games, dat het lastig te programmeren is, is een feit. Maar als het de ontwikkelaar de cell onder controlle heeft is het 1 van de sterkste architecturen.
Ik denk dat als je die game op de PC had ontwikkeld, en daarop had afgestemd en gefinetuned, dat hij er stukken beter uit had kunnen zien.
Waar zijn die prachtige pc spellen dan toch die een stuk vooruitlopen op de consoles?
BioShock, Batman Arkham Asylum, Fallout 3, Assassin's Creed, etc.
Natuurlijk heb je wel een redelijk systeem nodig (een fatsoelijke midrange). Dit komt onderander door de standaard hogere resolutie van de textures en de gebruikte scherm resolutie.
Maar als je het goed wilt vergelijken moet je wel je PC aansluiten op hetzelfde scherm als de console en dezelfde afstand nemen, dan zie je echt het verschil.

De PC is natuurlijk een moving target, het wordt continue beter. Terwijl een console in principe een fixed point in time is met zijn technologie. Toen de PS3 uitkwam kwam ook de GeForce 8000 serie uit. En nu zitten we 3 generaties verder. En dat terwijl de GPU van de PS3 een uit de 7000 serie komt.
Dragon Age Origin met HD textures mod?
neem elke willekeurige mutliplatform game en je zult zien dat die er altijd beter utiziet op de PC. Meest recente voorbeeld: modern warfare 2. Stuk gedetailleerder en scherper op de PC dan op Xbox en PS3.
Tuurlijk heeft het voordelen, maar aangezien de meeste games multi-platform zijn heeft het vooral nadelen. Zo heeft Sega wat weinig tijd en moeite gestoken in het porten van Bayonetta, waardoor het spel langere laadtijden heeft en er ook nog eens slechter uitziet. Helaas zien vrijwel alle multi-platform games er slechter uit op de ps3.

http://www.gametrailers.c...-360-demo-bayonetta/57538

Overigens ben ik zelf een ps3 bezitter. Persoonlijk koop ik vrijwel alleen de exclusive games voor dit platform.
Tuurlijk heeft het voordelen, maar aangezien de meeste games multi-platform zijn heeft het vooral nadelen. Zo heeft Sega wat weinig tijd en moeite gestoken in het porten van Bayonetta, waardoor het spel langere laadtijden heeft en er ook nog eens slechter uitziet. Helaas zien vrijwel alle multi-platform games er slechter uit op de ps3.
IMO ligt dit veel meer aan vastgeroeste programmeurs en IT opleidingen die aan dit soort zaken geen aandacht besteden. De manier van programmeren van een Cell is heel anders dan een conventionele processor. Als ze de tijd namen om fatsoenlijke libraries zouden schrijven voor beide platvormen zou het geen probleem zijn.

Ik vraag me af in hoeverre een game engine programmeur zich met vector berekeningen van een GPU bezig houden? Want deze lijkt erg op de SPE's van de Cell.

[Reactie gewijzigd door worldcitizen op 23 november 2009 21:11]

Uncharted2 is inderdaad prachtig en dat komt omdat men er alles aan gedaan heeft om zoveel mogelijk uit de Cell te halen. Volgens de ontwikkelaars (make off filmpje dat bij het spel zit) zijn bepaalde onderdelen van het spel zelfs in Assembler geprogrammeerd...
Het idee was ooit dan ook dat de Cell de enige processor in de PS3 zou zijn. De SPE's zouden, als een soort shaderprocessors, grafische shizzle uitrekenen. Uiteindelijk bleek de Cell daarvoor gewoon niet snel genoeg (hadden meer nog gespecialiseerde SPE's in gemoeten zoals in een Ati hedentendage). Vandaar dat er maar een topgpu (op dat moment Geforce7) van een topspecialist (NVidia) bij is geprakt.
Vandaar dat er maar een topgpu (op dat moment Geforce7) van een topspecialist (NVidia) bij is geprakt.
Je verhaal klopt, behalve dit stukje. Er werd helemaal geen topmodel bijgepakt, want daar was geen geld en geen tijd meer voor, gezien het feit dat Sony z'n geld op de Cell had ingezet. Helaas pakte dat minder goed uit, en moesten ze toen ineens plots uitwijken naar een aparte GPU. nVidia is benaderd en zij en Sony hebben in een zeer korte tijd en met een beperkt budget een architectuur moeten ontwerpen, maar echt een topmodel is het niet. De vertex processing is zwaar ondermaats, en ook qua pixel processing is ie niet optimaal. De Xenos, de ATI GPU in de 360, was wat dat betreft veel beter, maar die hebben dan ook een veel langer R&D traject gehad en het budget was veel groter.

Niet dat de PS3 niet in staat is om een mooi plaatje te produceren overigens :)
Wat de PS3 heeft is feitelijk een PowerPC core met een aantal losse DSP units. De hele Cell architectuur daaromheen is best mooi, maar niet zaligmakend. Het heeft een beetje het midden tussen een general purpose CPU en een GPU. Zoals bovenstaande reacties al zeiden, Cell had een alles-in-een oplossing moeten worden voor alle taken in de PS3, maar dat viel uiteindelijk wat tegen. De rol die de Cell nu heeft in de PS3 is eigenlijk die van een over-engineered CPU.

De naam 'Cell' is dus leuk voor marketing doeleinden, maar stelt in wezen niet zo veel voor.
De Cell is nooit bedoelt voor een gameconsole. Deze was gemaakt voor multimediatoestellen voor het verwerken van de video.
Sony heeft hemel en aarde zitten bewegen om zo'n hoog geklokte Cell beschikbaar te krijgen en dan hielden ze hun aan standaarden waar een slechte core acceptabel was. Origineel wouden ze het zelfs enkel met de Cell doen maar het viel gewoon te hard tegen. Dus hebben ze snel snel NVIDIA om een gpu gevraagd om erbij te steken.

De Cell moest een laaggeklokte en zuinige cpu worden voor stand-a-lone BDspelers bijvoorbeld of integreren in all-in-one televisies.
Ik weet niet wat jouw bronnen zijn, maar de Cell was een project van Sony, Toshiba en IBM. En je dacht toch zeker niet dat Sony het project gestart was om de Cell alleen te gebruiken voor TV en media devices (zoals BR speler)?

Volgens mij is het tot nu toe voornamelijk Toshiba geweest die de Cell in TV's en laptops gestoken heeft. En als het alleen voor media is, waarom is de Cell dan zo goed in physics calculaties?

http://www.research.ibm.com/cell/
Dat is denk ik precies de reden dat men de ontwikkeling staakt: Veel van de specifieke taken die een Cell sneller kon dan een PowerPC proc of x86, kunnen waarschijnlijk net zo goed worden uitgevoerd op GPGPU.

Cell's werden voor 'computers' (dus afgezien van spelcomputers / TV's) relatief niet zo heel veel verkocht, dus er was maar een kleine specifieke markt voor. Daardoor zijn er weer weinig ontwikkelaars, weinig applicaties, dus minder vraag naar het platform. En door de afwijkende architectuur moesten ontwikkelaars vaak deels opnieuw getraind worden, en voor een Cell waren dan ook weer verschillende modellen om een probleem op te lossen (streamen van kern naar kern, parallel op meerdere kernen en nog meer geloof ik).

Echter, GPU's worden in hele grote oplages gemaakt, dus die zullen mogelijk goedkoper zijn, en zelfs de meeste desktop-computers hebben ze. Dus het zou me niet verbazen als IBM daar ook een trend ziet.
Dat klopt, wilden leven in wouden, maar wat voegt dat toe bij deze post?

@ Mr-Markey
Natuurlijk weet ik dat hij dat bedoel. Maar het is onzinnig om daar hier over te discussieren, en als je toch zo correct wilt zijn:
"Ik wou" is perfect Nederlands (al wordt het minder gebruikt) en "wij wouden" is beperkt tot de spreektaal en dus ook niet echt fout.

[Reactie gewijzigd door Goderic op 24 november 2009 00:19]

ik wil
jij wilt
wij willen
ik wilde (en niet wou)
wij wilden (en niet wouden of bossen)

dat bedoelt axel
Ik praat graag mijn eigen taal dus ik hou het bij Vlaams. Ik kan ook onattent zijn en dialect gebruiken, dan wordt het "woudigen" :p
Shaders zijn een stuk simpeler in structuur can SPU code. Buiten de snelheid van shaders (juist vanwege de eenvoudiger commando's) zie ik niet hoe je de SPU code basaal zou kunnen noemen.
Over de tijd van programeren van de software op het platform, wil ik nog wel wat zeggen. Het valt echt reuze mee. Heb nu zelf een een tijdje gecode ervoor voor mijn studie en mensen die zeggen dat het moeilijk is nemen gewoon niet de moeite om het te leren.

Op de Cell is het misschien iets meer werk, dat komt omdat je meer verantwoordelijkheid en controle hebt. Maar als je weet wat je aan het doen bent is dat eigenlijk een verademing. Ik zou zeggen dat het daardoor misschien 20% extra tijd kost. Ik denk dat mensen die klagen normaal ook eigenlijk gewoon niet weten wat ze aan het doen zijn. Met de Cell komt het goed voren of je de applicatie hebt begerepen.

ontopic: Het is erg jammer dat ze ermee stoppen, maar in de toekomst kunnen we delen van de Cell architecture terug zien in alle processors. Ik moet zeggen dat nieuwste GPUs al een beetje op lijken. Het is eigenlijk op een meer general purpose variant ervan.
nemen gewoon niet de moeite om het te leren
Werknemers opleiden is een van de duurste zaken die je kan doen. Logisch dat je daar niet op gebrand bent terwijl je al goeie cijfers draait op een gekend platform.
Over de tijd van programeren van de software op het platform, wil ik nog wel wat zeggen. Het valt echt reuze mee. Heb nu zelf een een tijdje gecode ervoor voor mijn studie en mensen die zeggen dat het moeilijk is nemen gewoon niet de moeite om het te leren.
Sorry hoor, maar het feit dat jij er een tijdje mee hebt gespeeld en daar niet veel moeite mee had wil nog niet zeggen dat het voor specifieke usecases (zoals games) k makkelijk gaat. Voor wetenschappelijke doeleinden is de cell idd vrij simpel. Als je echter grote gelinkte datastructuren moet doorlopen dan wordt het weldegelijk een probleem omdat je op de cell niet zomaar zonder meer bij al het geheugen kan. Je zit met de 256kB aan local store waar je expliciet dingen naartoe moet kopiren, en ook de programmacode moet erin leven. Polymorphisme van objecten zoals je dat ziet bij OOP is hierdoor niet mogelijk omdat je bij het aanroepen van een methode niet van tevoren weet welke methode aangeroepen moet worden. Het is dus niet zo dat je een stuk code zonder meer op de cell kunt laten draaien. De enige manier om een cell goed efficient in te zetten is als je eenzijdige operaties hebt die je heel veel keer moet uitvoeren (denk aan collision detection, physics en occlusion culling). Maar gewoon een willekeurig stuk code erop runnen is vaak gewoon praktisch onmogelijk.
20% meer tijd, dan moet het eindprodukt zeker 30% beter zijn anders is er niemand die zo'n enorme extra investering kan goedpraten.
Heeft de XBOX ook geen CELL variant ?
Nee, de xbox heeft een x86 CPU van Intel, de xbox360 heeft triple core PowerPC CPU. De Cell heeft als general purpose ook een PowerPC architectuur.
Fout. Lees het boek over de ontwikkeling van Cell.

De PowerPC core in the Cell = PowerPC core in de XBOX360 CPU.

Dit is een en dezelfde PPC core.

De XBOX360 heeft er alleen drie, de Cell CPU slechts een.

IBM heeft in een spagaat moeten liggen om een en dezelfde core in twee projecten te gebruiken terwijl Microsoft en Sony allebei op hetzelfde moment klant waren.
De PowerPC core in the Cell = PowerPC core in de XBOX360 CPU.
Euh ja, dat is precies wat Abom zegt.
Dit is een en dezelfde PPC core.
Nee, dit is dus niet waar. De PPC core in de 360 is speciaal voor de 360 ontwikkeld. Ze hebben bijna dezelfde ISA, behalve dat voor de 360 het aantal SIMD vector registers is verhoogd van 16 naar 128, en het een single cycle dot product operatie heeft gekregen. De SMT in de 360 werkt ook iets beter dan in de PS3.
IBM heeft in een spagaat moeten liggen om een en dezelfde core in twee projecten te gebruiken terwijl Microsoft en Sony allebei op hetzelfde moment klant waren.
En vergeet niet dat de Wii ook nog een PowerPC aan boord heeft. Weer een andere subversie, maar nog steeds een PowerPC (ook eentje die specifiek voor Nintendo ontwikkeld is)

Eigelijk is van de hele console markt, IBM de grote winnaar, en ATi de volgende ( zowel de 360 als de Wii bevatten een ATi chip)
Nee en waarom zouden ze? Het is ee x86 apparaat en dat is niet echt Cell compatible ;)
Het is ee x86 apparaat
Onzin, de xbox 360 is ppc gebaseerd. Ook IBM dus.
Xbox360 wel, Xbox 1 niet.
Ik ga ervanuit dat IBM voldoende winst haalt uit patenten om deze gigantische investering geen mislukking te noemen. Verder was er weinig nieuws over leuke Cell toepassingen.
Waarom ga je uit van een mislukking? Die Cell-processors zullen nog wel een tijdje verkopen. Sony produceert z'n PS3 nog wel een aantal jaren, en Toshiba stopt ze in steeds meer AV-producten.
Daarnaast, IBM heeft die investering al lang uit. Zij zijn namelijk niet degenen die de investeringsrisico liepen. Dat zijn Sony en Toshiba (de opdrachtgevers).

Het enige wat hier gezegd wordt, is dat IBM een veel beter (en efficient) systeem met meer ontwikkelings toekomst ziet. Voornamelijk en in eerste instantie voor hun supercomputermarkt.
Erg jammer, maar qua tijd en energie in ontwikkeling van software voor dit platform valt er wel wat voor te zeggen.
Ik ben benieuwd hoe ze het voor de Playstation 4 gaan doen. Zullen ze weer over gaan op een andere architectuur (dus weer experimenteren eigenlijk) of nemen ze de laatste en dikste Cell processor voor de volgende serie Playstation...
gezien de ontwikkelingen van de PS1,2 en 3 heeft sony steeds gekozen voor het laatste / dikste (onbekende) wat op de markt is ... dus ligt denk ik wel in de verwachte lijn
Sony heeft wellicht ook deze keuzes gemaakt in het verleden omdat deze architectuur nagenoeg onmogelijk is te emuleren op x86 hardware. Als een platform t makkelijk te emuleren valt (zoals Nintendo vaak het geval) dan geef je piraterij ruim baan. Op deze manier dwingen ze af om trouw te blijven aan hn plaform als je de games wilt spelen.
Dat viel ook wel mee, hoor. De SNES was toch verrot moeilijk om goed te emuleren vanwege al die extra chipjes die telkens in de cartridges gestopt werden. Inmiddels hebben ze alles wel zo ongeveer onder de knie maar dat was zeker geen simpel karwei.
Ik vermoed dat ze op dit moment een alternatief hebben gevonden dat op lange termijn beter te implementeren is, of makkelijker te fabriceren. In dat soort gevallen is het soms verstandiger om dan niet verder te borduren op een bestaande technologie die minder toekomst heeft. De Cell technologie heeft ze behoorlijk wat geld gekost om te onderzoeken en uit de TS is niet te halen wat ze nou als alternatief op de markt gaan zetten, maar ik verwacht dat het wel iets spectaculairs zal gaan worden :)
Interessant nieuwtje dit...

OpenCL is vooral een kindje van Apple, IBM (ism. Motorola) leverde vroeger de "Power"-chips die gebruikt werden in Apple produkten.

Als IBM heel erg aanstuurt om allerhande applicatie en dergelijke ontwikkelingen in OpenCL te gaan doen, zou het kunnen zijn dat Apple misschien weer zou kunnen overwegen over te stappen naar IBM-architectuur chips?

[/allemaal nogal ver gedacht, dat wel]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True