Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties
Bron: ZDNet UK News

Sony, Toshiba, en Rambus hebben deals gesloten, waarbij de twee Japanse bedrijven licenties hebben verkregen voor de toepassing van Rambus' Yellowstone- en Redwood-technologie, meldt ZDNet News. Beide technieken zullen worden toegepast in het ontwerp van de derde generatie van de gameconsole PlayStation. Yellowstone is de naam voor Rambus' nieuwste geheugeninterface tussen processor en geheugenmodules, en biedt een transferrate tot 100 gigabits per seconde. Redwood heet de techniek van Rambus voor een high-speed parallelle chip-to-chip verbindingstechnologie.

Rambus logoZoals al eerder bekend werd, zal de volgende generatie PlayStations waarschijnlijk worden uitgerust met een door IBM, Sony, en Toshiba ontwikkelde complexe microprocessor, Cell genaamd, die uit meerdere chips bestaat. Yellowstone en Redwood moeten de Cell voorzien van de benodigde snelle verbindingen met grote bandbreedtes, voor de verwerking van de multimedia- en gamingcontent. Cell zou een rekencapaciteit gaan krijgen van meer dan een triljoen mathematische berekeningen per seconde, grofweg honderd keer zoveel als een enkele Pentium 4 op 2,5GHz lukt, aldus ZDNet. De deal levert Rambus 28 miljoen dollar op in de komende achttien maanden, en vormt volgens ZDNet in bepaalde opzichten een markeerpunt voor een nieuw, derde leven van Rambus.

Lees meer over

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (61)

OPS - Operaties per seconde is eigenlijk een heel slechte maat voor performance van een processor. Hoe moet je nou operaties vergelijken tussen twee procs met verschillende instructie sets.

Misschien kan die cell proc wel hééééééél snel 1 bij een waarde optellen, maar dat wil nog niet zeggen dat ie dan ook snel twee waardes kan vermenigvuldigen.

Goede performance vergelijkingen zijn gewoon lastig en het enige dat een beetje in de buurt komt zijn benchmarks, maar daar kennen we nog wel ff op wachten.

Daarnaast, tenzij ze op een magisch hoge clocksnelheid willen gaan draaien heb je voor zo'n hoge operatie doorvoer aardig wat parallelle processing elementen nodig en voor zo'n architectuur applicaties schrijven is alles behalve triviaal. Dus zelfs als de geclaimde snelheid theoritisch haalbaar is zul je er in de praktijk nooit aan geraken.

Zelf geloof ik niet zo in al die beweringen over cell....gaat compleet tegen Moore in. Ook de technologie voor meerdere procs op één chip en dan met name de on-chip communicatie tussen de elementen staat nog maar in de kinderschoenen hoor, er wordt nog een hoop vrij abstracte research naar gedaan, ook hier bij Philips Research. Véél cores op één chip gaat gewoon nog niet, vanwege te grote opervlakte en vanwege communicatie problemen onchip. IBM is zo ongeveer de enige partij die een high-performance chip met meerdere cores aanbiedt en dan praten we nog maar over 2 cores. Met weinig cores haal je gewoon die performance die ze claimen nooit, dus ik vind het voorlopig nog maar een beetje gebakken lucht....
OPS - Operaties per seconde is eigenlijk een heel slechte maat voor performance van een processor. Hoe moet je nou operaties vergelijken tussen twee procs met verschillende instructie sets.
Inderdaad. De recente x86-processors verliezen trouwens veel van hun performance door het vertalen van instructies naar RISC. Ik bedoel daarmee dat de CPU's heel wat beter zouden presteren mocht dat niet nodig zijn. Maar tja, dan moet de architectuur en de software veranderen en dat zie ik niet direcht gebeuren.
Ook de technologie voor meerdere procs op één chip en dan met name de on-chip communicatie tussen de elementen staat nog maar in de kinderschoenen hoor, er wordt nog een hoop vrij abstracte research naar gedaan, ook hier bij Philips Research. Véél cores op één chip gaat gewoon nog niet, vanwege te grote opervlakte en vanwege communicatie problemen onchip. IBM is zo ongeveer de enige partij die een high-performance chip met meerdere cores aanbiedt en dan praten we nog maar over 2 cores. Met weinig cores haal je gewoon die performance die ze claimen nooit, dus ik vind het voorlopig nog maar een beetje gebakken lucht....
Cell-chips zouden uitgerust worden met 4 tot 16 chips. IBM heeft inderdaad een server-chip met 2 cores maar zou een stuk van de Cell technologie waarschijnlijk gebruiken om server-chips met meerdere cores te kunnen maken.
Zie ook mijn uitleg hier een beetje hoger.
Trouwens, er zijn al chips met meerdere cores op de markt hoor. Die worden gebruikt in o.a. gsm's.

Maar zoals altijd zullen het natuurlijk ook voor een stuk opgeblazen reclame-praatjes zijn.
Inderdaad. De recente x86-processors verliezen trouwens veel van hun performance door het vertalen van instructies naar RISC. Ik bedoel daarmee dat de CPU's heel wat beter zouden presteren mocht dat niet nodig zijn.

Dat valt nogal tegen hoor. Zo is de performance van bijvoorbeeld de Itanium nou niet echt schokkend te noemen.(En dan bedoel ik in de eigen mode, met native instructies enzo).
Kijk, het blijft natuurlijk een crime van een instructieset, die IA-32, maar de performance penalty van de vertaalslag zal in de order van enkele procenten liggen.
Maar...het gaat hier over mathematische instructies per seconde. Bits optellen, waar RickN het over heeft, behoort tot een fysiek proces in de proc, maar een mathematische instructie behoort volgens mij tot de IPS (instructies per seconde) en niet tot OPS, of zit ik hier nu verkeerd? :?

[Edit] Ik had eerst dat vorige artikel over de PS3 moeten lezen |:(
Je kunt het verschil vergelijken met het verschil tussen een processor en een DSP.
Zo'n DSP kan bepaalde taken soms wel 1000x zo snel uitvoeren als een routine op een generieke pc.

Dat wil niet zeggen dat die DSP dus een betere processor is. De grap van een processor is juist dat deze generiek is.

De truuk is nu om voor specifieke taken en speciale chip in te zetten die die taken echt heel snel kan doen. Bijvoorbeeld een DSP of een GPU.

En die kun je natuurlijk ook met een generieke processor integreren. Moet je wel zeker weten dat het nut heeft, anders is het zonde van de kosten.

En bij een console is dat natuurlijk heel goed mogelijk, aangezien de taken bekend en specifiek zijn.
Vergis je niet, Rambus is puur technisch gezien beter dan DDR (of DDR II). In een stuk van Tomshardware schreef ome Tom in een notendop dit: "Technisch heel mooi, beter dan DDR met betere vooruitzichten maar Rambus is geen 'fijn' bedrijf. Maar de markt kiest het optimale niet de beste technologie, en dat is DDR."
Dat is even een hele korte samenvatting van een paar pagina's tellend stuk. DDR heeft (terecht) gewonnen want Rambus heeft echt geen frisse zaken gedaan (wat precies staat in hetzelfde stuk) en DDR heeft veel minder licentiekosten omdat het JEDEC gestuurd is.
Graag bron, dank u wel
ok als ik het dus goed begrijp kan deze CPU 100 keer meer data verwerken als de P4 @ 2,5 Ghz.. dat klinkt nogal ongeloofwaardig, ookal is het over een periode van 18 maanden... en dan zeker niet voor een gameconsole..

Alhoewel het niet zeker is of PS3 ook daadwerkelijk PS3 wordt... er wordt verwacht dat de console opgedoekt wordt en dat er een soort van personalcomputer voor in de plaats komt..
PR, Sony zei exact hetzelfde van hun ps2, die was ook honderd keer sneller dan een PIII500, zodra de Geforce 3 uitkwam was ps2 al niets meer, die heeft immers te weinig geheugen voor hi-res textures en geeft ook geen pixel shader capaciteiten.
Volgens mij is de ps3 al op de moment van de release achterhaald door de highest end pc's, immers zal de hardware al een jaar "af" zijn vooraleer je hier een ps3 kan kopen, nvidia en ati zijn dan al lang weer voorbij :P .
Puur technisch zal de PS3 wel achterhaald zijn ten tijde van de release maar een console hoeft ook niet technisch het best te zijn. Het gaat erom of de game programmeurs instaat zijn het onderste uit de kan te halen.
Je kan op een console direct op de hardware programmeren zonder rekening te houden met een OS ofzo. De efficientie waarmee je programmeert haal je nooit op een pc...
Dat zou een beetje raar zijn eigenlijk..dan zou het dus een nieuwe VIAO pc worden?
En dan nog, ik vraag me af of er dan ook wel een normaal OS op kan lopen...
Heb geen idee waar ZDNet de term Redwood-technology vandaan haalt maar die bestaat niet. Heb op de Rambus site gekeken maar daar is nix te vinden onder die naam. Die chip-to-chip verbindingstechnologie is wel te vinden maar heet RaSer Is wel interessant om te lezen.

http://www.rambus.com/products/raser/
Als je de link in de text gevolgd had (niet de bron), kom je hier uit: http://www.rambus.com/news/pressrelease.cfm?id=78

Daar schrijft Rambus zelf:
Rambus Signs Technology License Agreements With Sony, Sony Computer Entertainment and Toshiba

Two new interfaces selected for logic-to-memory and logic-to-logic connectivity

Rambus Inc. (Nasdaq:RMBS), the leader in ultra high-speed interface technology, today announced new agreements with Sony Corporation (Sony), Sony Computer Entertainment Inc. (SCEI) and Toshiba Corporation (Toshiba) for the license and utilization of two new high-speed interfaces, codenamed "Yellowstone" and "Redwood." Offering unparalleled competitive advantages, these two interfaces are expected to be utilized for future broadband applications with "Cell."

The impact on Rambus' financials will be discussed during a conference call and webcast on January 6, 2003 at 1:30 p.m. Pacific Standard Time. The specific terms of the agreements are confidential.

Currently at 3.2GHz data rates, with a roadmap to higher performance, "Yellowstone" is much faster than the best available DDR memories. "Yellowstone" offers high performance in memory signaling while optimizing system cost through pin-count reduction and support for high volume PCBs and packages.

"Redwood," the ultra high-speed parallel interface between multiple chips, delivers a data rate about ten times faster than the latest processor busses. It maintains lower latency and lower power consumption than current solutions, while keeping high productivity and cost efficiency.
Dit is veels te ingewikkeld voor een Game console, liever geven ze Nvidia een paar honderd miljoen die dan voor hun een uitstekende chip ontwerpt.

Het klint zo onwwarschijnlijk deze Cell chip dat het meer lijkt op een grap dan een echte project.
Een console is _juist_ ingewikkeld (of liever: anders dan een pc, logischer). Deze opbouw is helemaal niet ingewikkeld, het is alleen erg anders dan een PC.

Je zou eens moeten kijken hoe een PS2 opgebouwd is, of een GameCube, die zijn ook "ingewikkeld" :).
Het mooie van game consoles is dat er qua
hardware eigenlijk helemaal geen rekening met compatabiliteit gehouden hoeft te worden voor oudere hardware. Dus de baan is vrij om een geheel nieuw concept voor hardware neer te zetten! Hier hebben wij in de PC wereld nogal wat last van.
}>
IDD, er is veel minder betatesting nodig :)
Ik zeg juist dat een console simpel hoort te zijn , want het moet in massa productie gemaakt worden en dan heb je goedkope onderdelen nodig.

Zo een ingewikkeld SMP systeem voor een console is gewoon buiten proporties, is het niet waard, zal snel outdated raken, en is niet goed voor de prijs/kwaliteit/snelheid.

Volgens mij had ik een tijd terug gelezen dat SONY met de de CELL een soort workstation zou maken, waarschijnlijk is het ook daarvoor bedoeld en niet voor een doodsimpele game console.
Hoe denk je dat de ps2 werkt? Juist een hoofd CPU met 2 co-cpu's.

zie http://arstechnica.com/reviews/1q00/playstation2/ee-1.html
ja het lijkt mij ook sterk... en al helemaal
honderd keer zoveel als een enkele Pentium 4 op 2,5GHz lukt
Ik denk ook dat daar wel een bepaalde gedachte achter zit dat het zo ver komt. Net als verkooppraat.

Misschien is het wel zo omdat de cell uit meerdere processoren is opgebouwd de grootste variant met pak'em beet 1000 van die chippies dit presteert. En dat de ps3 er dan 4 of 6 van krijgt. Als zo'n processor zo goedkoop wordt dat hij over 2 jaar in een console past dan kunnen AMD en Intel nu wel alvast het bijltje erbij neerleggen. Ik kan me voorstellen dat het theoretisch mogelijk is, maar dat dat heel duur wordt en het goedkoper is een legertje Xeon of Opteron servers aan te schaffen.

Toch mooi dat Rambus door dit soort praktijken in leven blijft, misschien kunnen ze zo ook uit de inkomsten R&D kosten persen zodat er weer nieuwe technieken ontwikkeld kunnen worden die rambus misschien ook in pc land weer interessant kunnen maken.
Als zo'n processor zo goedkoop wordt dat hij over 2 jaar in een console past dan kunnen AMD en Intel nu wel alvast het bijltje erbij neerleggen.
Neen. Want het is niet omdat de Cell meer mathematische berekeningen zou aankunnen dan een P4, dat je hem daarmee ook verder moet vergelijken!
Je kan de Cell vergelijken met meerdere CPU's die samen werken en dat beter dan bijvoorbeeld een Xeon-systeem. Maar die vergelijking klopt dan ook weer niet. Je mag het gewoon niet vergelijken met een klassieke CPU. Punt uit! :P
Ik kan me voorstellen dat het theoretisch mogelijk is, maar dat dat heel duur wordt...
Duur zal het zeker zijn. Maar denk er wel aan dat de Cell niet enkel ontwikkeld wordt door Sony maar door drie fabrikanten!
De kosten worden gedeeld en de Cell zal op "grote" schaal gemaakt worden. IBM bijvoorbeeld, zal delen van het ontwerp gebruiken voor toekomstige server-chips.Sony zal de Cell dus gebruiken voor zijn PS3 (en waarschijnlijk ook in andere elektronica). Toshiba zal die ook wel voor iets gebruiken. Het is de bedoeling Cell-chips te gebruiken voor o.a. netwerkapparatuur, set-top-boxes, allerlei consumenten-elektronica (Sony-TV's?) maar ook in nieuwe producten.
Cell is ook niet 1 type chip maar de benaming van een ontwerp. Er zullen dus verschillend chips zijn met Cell-technologie. Eén Cell-chip zal tussen de 4 en 16 cores bevatten. Een PS2 bijvoorbeeld, zal meer rekenkracht nodig hebben dan een set-top-box, dus 16 cores tegenover minder.

Het ontwerp van de chip is trouwens al klaar. Men is nu bezig met het maken van samples en het testen van verschillende onderdelen. Natuurlijk zal er nog wel bijgestuurd moeten worden maar de productie van de chips zou gestart worden in 2005.

Veel hierover is te vinden met google hoor :*)
Dit is veels te ingewikkeld voor een Game console, liever geven ze Nvidia een paar honderd miljoen die dan voor hun een uitstekende chip ontwerpt.
Iemand die zo denkt is een grote voorbeeld van een lafaard. Ze mogen ingewikkelde systemen uitvinden en bouwen, dat is wat anders dan alles uitbesteden zoals MS met hun ouwe P!!!-PC + GeForce in een zwarte desktop-case.
Waarom een lafaard? Het gaat er puur om dat een simpele ontwerp in massaproductie genomen wordt, en een ingewikkeld systeem is daar niet geschikt voor punt.

Kijk maar naar gamecube, het ging Nintendo puur om de simpliciteit omdat dat de meest eenvoudige manier is om iets in massaproductie te maken.

Nieuwe technieken worden eerst uitgevonden op de PC en uitgetest, een console is niet geschikt als testplatform, op de PC zijn ze welkom.
ik persoonlijk denk dat RAMBUS niet echt slim is om te gebruiken voor de PS3 puur en alleen om de prijs het zal de prijs van het console onnodig verhogen en ik denk niet dat de performance er veel beter op wordt (heb het over prijs prestatie verhouding) tuurlijk RAMBUS is sneller dan DDR en DDRII maar TE DUUR om te maken en veel geheugen fabrieken kunnen en/of willen het niet maken wat de prijs en de levertijden verhoogd

overigens denk ik wel dat RAMBUS toekomst heeft maar dan alleen in de proffesinele segmenten van de markt (vergelijkbaar met IDE en SCSI)

DDRII zal zich nog moeten bewijzen maar kampt inderdaad met paar behoorlijke nadelen latency is stuk hoger

de tijd zal het leren
Zeg, ik wil niet heel vervelend doen maar volgens mij zit er op het ogenblik 32MB in een PS2 van.... RAMBUS. en hoe "duur" is een PS2 nou eigenlijk in verhouding tot de rest?
Zucht.. Waarom denkt iedereen toch steeds dat Rambus geheugen klereduur is..

Bij de introductie van de P IV (en daarvoor) was RDRAM inderdaad erg duur, maar op dit moment valt de prijs heel goed mee. En RDRAM is helemaal niet zo duur om te maken, de hoge prijs op het begin had andere redenen.

En dit is _geen_ RDRAM, dus ga daarmee niet vergelijken.. Dit is een compleet nieuw type geheugen.
Zit er dan toch nog toekomst in Rambus?? Denk het niet, nadat het PC1066 geheugen is uitgebracht hebben ze denk ik nog maar weinig te bieden, en zal DDR-II nog verder oprukken... Nee ik denk niet dat ze na deze order nog toekomst hebben...

Of het moet zo zijn dat ze zich meerder markten gaan vestigen, dit zie je ook bij veel andere bedrijven, die puur voor de veiligheid meerdere markten bedienen. Misschien is het voor Rambus verstandig om dat ook te doen. Puur om niet te verdrinken in de massa.
Zeer kortzichtig, als je gaat kijken naar welke performance RDRam nu haalt (PC1066) dan is het wel erg snel om te zeggen dat het achterhaald en nutteloos is. Het wordt juist gebruikt op de plaatsen waar performance belangrijk is. Zoals in netwerk switches.

PC's (hoewel soms anders gedacht wordt) worden echt niet gebouwd om zoveel mogelijk performance te leveren. De prijs is altijd de belangrijkste factor.
Anders hadden we nu wel SCSI gehad ipv IDE.
Zeer kortzichtig, als je gaat kijken naar welke performance RDRam nu haalt (PC1066) dan is het wel erg snel om te zeggen dat het achterhaald en nutteloos is. Het wordt juist gebruikt op de plaatsen waar performance belangrijk is. Zoals in netwerk switches

ik denk dat twinkey meer doelt op het feit dat rambus commercieel niet zo goed uit de verf is gekomen ... en als dat het geval is, in hoeverre wordt dat dan nog voldoende geproduceerd om het straks op grote schaal voor een schappelijke prijs door Sony gebruikt te laten worden voor de PlayStation?

Dat het betreffende performance zijn voordelen heeft en zelfs de voorkeur geniet ben ik meteen met je eens ... echter als dat stukje performance winst moet opwegen tegen moeilijk leverbaar en duur geheugen dan zal Sony die stap niet zo snel zetten ...
Performance van Rambus is in praktijk slecht, ze kunnen alleen concurreren met DDR-SDRAM als ze met 2 latjes werken (dual channel). Denk ook aan de ouwe single channel RDRAM benchmarks versus singel channel SDRAM en SDRAM won duidelijk, alleen in dual channel kan RDRAM winnen. Dan kunnen we ook met DDR-SDRAM, dual channel DDR-SDRAM is veel sneller dan dual channel RDRAM,... De Rambus is een stuk aangepaste (16bit en koelvin) geheugen dat zwaar overclocked word en moet gekoeld worden. Het overklokken is nodig om grote getallen te halen voor de grote getallen mentaliteit. Latencies blijven een Rambus-probleem, ze proberen dat op te lossen met onnodig hogere theoretische snelheden.
Single channel RDRAM wordt in bijna geen enkele computer meer gebruikt (en de 32-bits versies zijn sowieso al dual channel), dus dat is een redelijk scheve vergelijking. En dan is Rambus in de praktijk wél sneller. Dual channel PC1066 RDRAM en dual channel PC2100 SDRAM leveren in theorie dezelfde bandbreedte, nl. 4.2 GB/s. Maar in de praktijk haalt RDRAM het steeds weer.

En hoe kom je erbij dat RDRAM geheugen is dat zwaar overclocked is? Onderbouwing/bron graag.
Men begon met vroeger met de SDRAM op PC133.
Daarna heeft men de DDR-SDRAM ontworpen, dat is SDRAM + DDR-effect en heeft dus effectieve dubbel zoveel bandbreedte zonder clock te verhogen.
RDRAM is een stuk SDRAM dat een 4x kleinere bus kreeg en stevig overclocked naar 300, 350 of 400MHz in het begin. Dat viel op door de koelvinnen op de RDRAM-latjes. Met dat stevig overklokken bedoel ik de extreme frequentie sprong tussen SDRAM (66, 100 of 133MHz) en RDRAM (300, 350 of 400MHz), terwijl DDR-SDRAM (100, 133, 166MHz) geen extreme frequenties nodig heeft. Normaal hebben geheugens geen koeling nodig, de stevig geklokte Rambussen moeten wel gekoeld worden.
Dual channel PC1066 RDRAM en dual channel PC2100 SDRAM leveren in theorie dezelfde bandbreedte, nl. 4.2 GB/s. Maar in de praktijk haalt RDRAM het steeds weer.
Dat kan ik ook de snelste RDRAM met de traagste DDR-SDRAM vergelijken. Pak snel een review met PC2700 of PC3200 DDR-SDRAM.
Overklokken => iets buiten zijn specs laten lopen.. Dus volgens jou liet Rambus geheugen op een hogere kloksnelheid draaien dan voorzien?

Ten tijde van de P!!! deed een 820 met RDRAM wel onder voor een 815 met SDRAM. Maar tegenwoordig ligt dat toch anders..

En welke (gereleasde) chipset ondersteunt dual channel PC2700/PC3200? Nog geen op dit moment. En als dat moment er is weet ik zeker dat Rambus wel met een alternatief komt.


Maar nu dwalen we sterk af ;)
Ik kan me vergissen, maar had de PS1 niet rambus geheugen?
De PS2 heeft het in ieder geval wel.
Het lijkt erop dat de marketingdieren van Sony hun PS3 onder de aandacht willen brengen. Dit is natuurlijk in combinatie met het bericht eerder deze dag over de architectuur van de playstation 3 wel goed nieuws voor zowel de Sony fans als voor Rambus.

Bovendien zal Rambus door deze deal waarschijnlijk wel meer dan die 28 miljoen binnentrekken aangezien ze waarschijnlijk ook een percentage van de verkoopcijfers gaan krijgen/eisen.

Dit kan weer geivesteerd worden in de ontwikkeling van andere geheugentypes en dat betekent weer concurrentie en misschien lagere geheugenprijzen.

Dat Cell project klinkt trouwens wel erg interessant. Het hele idee van meerdere chips op een enkel plakje silicum gaat toch een grote toekomst hebben denk ik. Misschien dat AMD er ook wat mee gaat experimenteren. Is dit idee trouwens vergelijkbaar met multi-core processors?
Dit is als opmering op twinkey:

Dat DDR-II is helemaal niet zo snel als men denkt.

Lees het artikel over DDR-II er maar eens op na. De hogere latency zal DDR-II hetzelfde nadeel geven dan RAMBUS ook had. Een enorme snelheid bij pure geheugen transfers (database, sommige games), maar bij random reads (file/print server, office appl. meeste games) is de performance matig en zal standaard PC-133 sneller zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True