Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 20 reacties
Bron: The Register

Volgens The Register is Sun van plan om goedkopere versies van de Niagara-processor met zes en mogelijk ook vier cores uit te brengen. De voor later dit jaar geplande processor heeft van huis uit acht cores aan boord, maar de productiepartner Texas Instruments kan niet van iedere chip garanderen dat alle cores goed zullen werken. Om de yields toch acceptabel te houden kunnen processors met uitgeschakelde cores voor een lagere prijs verkocht worden, wat ze een enkele reis naar de recycle-centrale bespaart.

De cores van Niagara stellen op zichzelf niet zo veel voor; ze zijn gebaseerd op de in 1997 geïntroduceerde UltraSparc II en worden in eerste instantie op 1,0GHz geklokt, om later de 1,2GHz te bereiken. Om de primitieve pipeline (zes stappen, in-order, zonder enige vorm van branch prediction) gevuld te houden is het ontwerp voor Niagara wel aangepast om tot vier threads tegelijk actief te kunnen hebben, waardoor een versie met acht cores in totaal met 32 threads kan werken. Dit alles moet 3MB cache en 20GB/s geheugenbandbreedte delen. Vanwege dit grote parallellisme in de processor ziet Sun in eerste instantie geen noodzaak om servers met meer dan één socket uit te brengen: de Fire T1000 (1U) en T2000 (2U) zullen op een enkele processor gebaseerd zijn.

De Niagara zal door zijn ongewone architectuur bepaalde taken waar veel threads bij komen kijken erg efficiënt kunnen werken. Extra voordeel daarbij is dat een Niagara-server volgens het bedrijf gemiddeld maar 250 watt vermogen nodig heeft, wat hem erg geschikt maakt om in grote aantallen samen te clusteren. Sun wil de chip vooral richten op toepassingen als webservers. Experts zijn het echter over eens dat de simpele en trage cores niet bepaald zullen uitblinken in taken die zich niet zo makkelijk in 32 stukken laten verdelen.

Sun Niagara Moederbord
Moderatie-faq Wijzig weergave

Reacties (20)

uiteindelijk is parallelisme "the way to go". Het wordt steeds moeilijker om een core sneller te maken, maar een core of cpu erbij prikken is altijd een relatief simpele onderneming geweest.

dit is ook de reden waarvoor intel en amd overstappen op multicore/multithreading. Ik verwacht dat sun wel een voorsprong heeft op dit gebied. ze hebben namelijk nog wat andere cpu's op de planning die nog beter zullen presteren.
parallelisme is ook uiteindelijk beperkt.. je kunt niet meer cores naast elkaar plakken/sockets groter maken en die's kleiner maken. uiteindelijke processen zullen denkelijk dus wel sneller verlopen met name dat zal interessant worden hoe men dat gaat doen.
ik snap het zowieso niet geheel. ik herinner me nog een hele tijd geleden dat men het erover had een 10 ghz intel in het lab te hebben staan... waar is dit monster gebleven?
parallelisme hoeft niet alleen voort te komen door het aantal cores op een die te vergroten, maar kan bijvoorbeeld ook door meer sockets te plaatsen.

Bedenk maar dat een 2 socket mobo met deze processor al beschikt over 16 cores. Een 4 socket mobo zou best nog wel te maken zijn en deze beschikt dan al over 32 cores. Das al te vergelijken met een redelijk kleine cluster. Dan nog te bedenken dat ze bij elkaar 128 threads aan kunnen.

Je ziet ook gewoon dat een super computer meestal uit meerdere processoren bestaan, eerder dan dat ze uit snellere processoren bestaan. Veelal omdat het moeilijker is om een snelle processor te maken dan een processor er bij te prikken.

daarbij lopen de engineers ook steeds meer tegen de fysieke limieten lopen. 10 ghz betekent bijvoorbeeld dat het signaal niet meer dan 3 cm zou kunnen afleggen. bedenk daarbij dat je ook synching problemen hebt en dat het geheugen al gauw 10 cm of meer van de processor verwijdert zit en je kunt al snel zien hoeveel moeite engineers moeten doen om een processor op 10 ghz te maken.
Voor web, mail en ftp servers is het idd ideaal, om zoveel threads tegelijk af te kunnen handelen. Dat zijn geen super spannende dingen waar je veel power bij nodig hebt. Je wil er gewoon zoveel mogelijk tegelijk doen, en daar is die Niagara goed in.
:9 Leuk 8 cores maar wat moet je er mee, ik zie niet vaak 8 verschillende tasks dus dat zal hij zeker niet gebruiken. En aan die geheugenbanks te zien, 20channel :Y)
Misschien voor jouw home-cinema setje niet nee :) Maar op m`n werk waar nu al Sun machines staan met 10 procs en 64gb intern geheugen is het misschien wat interessanter...
En aan die geheugenbanks te zien, 20channel
Correctie: Verwar het aantal geheugensloten niet met het aantal channels. Het zijn 16 sloten, verdeeld over meerdere channels.

Er was al bekend dat SUN DDR2 SDRAM zou gebruiken voor de Niagara. Op basis van de pin-count van een Niagara CPU (net geen 2000 contactpunten) verwacht men dat de CPU uitgerust zal zijn met een quad channel DDR2 interface, 4 kanalen dus.

Zie ook nieuws: Foto's Sun UltraSparc Niagara-chip op moederbord
Hmm, IBM, Sony en Toshiba ontwikkelen een chip die meer kan dan een heel cluster van de nieuwste AMD's, met 7 cores.

Dan komen argumentjes als " ja maar daar kunnen ze nooit voor programmeren ".

Waarom denkt iedereen dat Sun dat wel kan?

(of beter gezegd: waarom ibm/sony het NIET kan?)

Ik weet gewoon 100% zeker dat als hier over 6 maanden staat

Nieuw en improved, de amd, met niet 1, 2 maar 6 cores.

En dat dit dan het beste idee is wat er ooit bestaan heeft oid.

Zelf 'ben ik voor meerdere cores', waarom? Omdat de normale processorkracht niet meer toeneemt.
Het verschil tussen mijn Intel die 3 jaar geleden uitkwam/ nu 100 euro kost, en de allerduurste Intel die er bestaat @ 1000 dollar ofzo, is dat ie ipv 3 minuten een bepaalde video in 2 minuut 36 kan encoden. (zie ook http://www.tomshardware.com/cpu/cpu_charts.html)

Als je dan bedenkt dat hier 3 jaar ontwikkeltijd inzit, dan zie ik het slecht in. "maar hij gebruikt maar 170 watt ipv 90" ..hmm, not impressed.

Ontopic:
misschien kunnen ze een core als " hardware-java ding " kunnen laten werken, dat zou de hoofdcore ontlasten, en al die java dingen stukken sneller kunnen laten gaan. I'll have two ;)
Stel nou dat er bij AMD een stagair heeft gewerkt die een geniaal idee had waardoor je tegerlijkertijd van 1 tot 10 kon tellen in plaats van achter elkaar!
Er zal vast wel eens uitgevonden worden hoe je multicores effectief kan gebruiken.
Eigenlijk een beetje onzin wat je zegt, Ja tegerlijktijd van 1 tot 10 tellen is geen kunst, trommel 10 kinderen op en laat ze tegerlijkertijd een van te vormen afgesproken cijfer zitten. (En ben nog niet een stagair bij AMD)

Waar de moeilijkheid zit in parralelisme is dat software afhankelijk is, voorbeeldje (psudo code)

function fnCalA()
{
int iA = x;
pCall fnCalB(iA);
}

function fnCalB(iArg0)
{
print iArg0 + y;
}

Dit is natuurlijk een trivaal stukje code (x en y zijn willekeurig integers, maar dit stukje is onmogelijke (Ja hij is te verbouwen naar singly thread.. maar hij was trivaal) om tegelijkertijd uit te voeren om dat ze afhankelijk van elkaar zijn. Een ander voorbeeld is 1 waardige recursie dat moet achter elkaar berekened worden, geen mogelijkheid dat je dat tegerlijktijd doet, tenzij je de recursie kan omschrijven naar een directe formule. voorbeeld daarvan is de som van 2 machten..

som(2 macht) = 2^0 + 2^1 + 2^3 + 2^4 .. 2^n

Te verwachten valt dat je elke macht moet gaan uitreken.. echter deze forumle (niet echt recursief -- ander notatie gebruikt) is direct te schrijven als.

som(2 macht) = 2^(n+1) - 1

Voor de mensen die een bewijs willen, gooi er maar volledige inductie overheen.
Dan komen argumentjes als " ja maar daar kunnen ze nooit voor programmeren ".

Waarom denkt iedereen dat Sun dat wel kan?
De Cell in de PS3 is (vooral) voor games. De Niagara is vooral voor servers. En tussen games en servers zit een (erg) groot verschil. Servers werken (bijna) van nature met meerdere threads en processen.
wat je bedoelt is dat de software geschreven is om met meerde cores om te gaan

met games is dat nog niet zo, en omdat die veel complexer zijn is het lastig parallel te programmeren
wat je bedoelt is dat de software geschreven is om met meerde cores om te gaan
Nee, niet helemaal. Servers zoals Apache en MySQL gebruiken honderden tot duizenden threads terwijl er lang niet zoveel cores zijn. Zelfs op single-core single-CPU systemen was dit al het geval.
ff ter vergelijking met een gewone server cpu zou je denken dat dat ding enorm veel vermogen nodig heeft terwijl het maar (250 / 8-) 31.25 Watt per core nodig heeft. Wat mij betreft is het wel een goede concurent tegen de Sossaman van Intel die het ongeveer met zo'n 30 Watt per core doet.
Alleen is die van intel per core veeeel sneller, beetje krom om dan de watts te vergelijken.
Dit is het totaal verbruik van de server, niet van de hele processor, dus best zuinig!
Waarom zou je voor eenvoudige server taken zoals webserver niet gewoon een commodity 2 socket dual cpu Opteron box kopen: 4 cores op 2,4ghz en een heel geavanceerde processor ontwerp? Ipv 8 cores op 1ghz uit 1997?
omdat meer cores en betekent dat ze meer threads kunnen afhandelen en dus meer requests kunnen doen.

Een hele snelle single proc heeft nog altijd meer last van time share overhead dan een multicore (althans meestal is dat zo)
16 geheugen banken is ook wel leuk om tezien :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True