Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: Real World Technologies

Het Apple G5 cluster blijkt niet zo snel als in eerste instantie werd gedacht, zo lezen we op het forum van Real World Technologies. De 1100 eenheden hebben samen een rekenkracht van 7,4 teraflops in plaats van de theoretische top van 17,6 teraflops. Deze cijfers komen uit een rapport van Linpack, waarin de snelheden van clusters worden vergeleken. Men is er op het forum niet zeker van of dit rapport officieel is. Het G5 cluster komt met de geteste snelheid op een zesde plaats terecht, een goede score volgens een van de reacties:

Apple logoThe reported full system result places the G5 cluster in 6th place. If the reported cost is correct, and nothing more than standard educational discounts apply then the result is very impressive. Whether or not 'Deja Vu' can deliver a suitable level of reliability and availability remains to be seen.
Moderatie-faq Wijzig weergave

Reacties (75)

Kleine typo bij het stukje van isgoed ( 2200 unit AMD cluster 2 miljoen is een beetje goedkoop ;) )

Belangwekkend is o.a. dit stuk in het wired artikel:
The machine is the first supercomputer based on Macs; it is one of the few supercomputers built entirely from off-the-shelf components and it cost a bargain-bucket price -- only $5.2 million. By comparison, most of the top 10 supercomputers cost about $40 million and up. The Earth Simulator cost $350 million.
Zelfs met 7 Tflops zit je nog mooi in de top 10: http://www.top500.org/list/2003/06/?page (al stond er in het wired artikel ook dat er een paar top 10 candidaten aan zitten te komen). Als je prijs dan een factor 8 lager ligt dan de rest maakt Mac een behoorlijke kans op deze markt plekken te veroveren.
Niet iedereen hoeft bovendien meteen het krachtigste cluster, prijs zal een gigantische rol spelen! Ook voor bijvoorbeeld relatief kleine clusters voor de minder grote bedrijven/instituten/universiteiten kan de Mac dan een mooie out-of-the-box oplossing zijn. Misschien is ruimte dan alleen nog een probleem, die Macs zijn niet de kleinste dozen die je kan bedenken...
Ook voor bijvoorbeeld relatief kleine clusters voor de minder grote bedrijven/instituten/universiteiten kan de Mac dan een mooie out-of-the-box oplossing zijn. Misschien is ruimte dan alleen nog een probleem, die Macs zijn niet de kleinste dozen die je kan bedenken...
Ik denk dat ruimte binnen afzienbare tijd geen probleem meer is, omdat iedereen verwacht dat de G5 XServe ook staat te trappelen om uitgebracht te worden. Tevens werkt Apple aan een eigen oplossing voor "parallel and distributed high performance computing", genaamd XGrid. Meer info hierover staat op Thinksecret, een over het algemeen erg betrouwbare Apple-geruchtensite ('http://www.thinksecret.com/news/xgrid.html'). De enige reden waarom Virginia Tech het cluster met desktopmachines heeft gebouwd is opname in de Top500-lijst, wat garant staat voor honderden miljoenen dollars aan onderzoekssubsidies.

Inderdaad raar dat over dat gegeven niets op Tweakers heeft gestaan :Z
Wat is de oorzaak van deze daling van 10 terraflops?

(ik zal wel fipo's krijgen :'()
Het is heel normaal dat 2 processoren minder dan 2x zo veel doen als 1 losse processor. Al het werk moet verdeeld worden, er moet gecommuniceerd worden, en soms moet er op elkaar gewacht worden.

Hoe efficient een ontwerp met meerdere processoren is, hangt heel sterk af van de verbindingen die deze processoren onderling hebben. Vandaar dat de Opteron (met directe onderlinge verbindingen) het heel goed in multiprocessing omgevingen doet. beter dan bijvoorbeeld een Xeon. Een G5 processor heeft blijkbaar meer "vertraging" door de multi processor opstelling dan was verwacht.

Eigenlijk is het het zelfde als met heel veel dingen. Als je bijvoorbeeld in je eentje een stoep moet vegen, dan doe je er een uur over, met zijn 2-en ben je 35 minuten bezig, en met zinn 4-en nog altijd 25. Met zijn 10-en ... en met 100 mensen gaat nauwelijks sneller dan met 90. Als je goed met elkaar kunt afspreken wie welk deel doet, en in welke volgorde, dan gaat het het snelst.
Zo is het dus met processoren ook. In theorie veeg je met 100 mensen 100x zo snel, in het echt blijk je elkaar hoe goed je het ook uitdenkt, toch soms in de weg te lopen en moet je soms op elkaar wachten enz....

[edit]
In de theoretische bepaling van de snelheid wordt natuurlijk een benadering meegenomen voor de tijd die het kost om het werk te verdelen over de processoren. Het is alleen nooit van te voren te zeggen hoe dat precies uitpakt. Vergelijk het maar met de snelheid van een 3d benchmark. Ondanks dat je van te voren weet hoeveel rendering pipelines er zijn en hoe snel ieder van deze piplines is, kan een benchmark soms toch heel erg tegenvallen. Meestal komt dat dan omdat de architectuur niet zo efficient met de bewerkingen omgaat als was verwacht. Door een andere benchmarkt te nemen, of een andere driver kan je echter weer andere gegevens terugvinden.

Zo is het in dit G5 cluster ook, In de eerste voorlopige benchmark blijkt ie niet zo snel, misschien is de benchmark niet oke of de software (nog) niet geod geoptimaliseerd. Of misschien valt toch de G5 architectuur in cluster opstelling gewoon tegen.
Dan nog is dat geen antwoord op de vraag waarom de theoretische limiet (waarbij je dus wel degelijk rekening houdt met overhead en al die andere zaken) bij lange na niet gehaald wordt...
Jawel, bij de theoretische limiet zit iedereen perfect gecoördineerd te vegen vanaf het begin en wordt er niets dubbel geveegd, iedereen weet vanaf het begin meteen al welk stukje zij moeten vegen.

Maar in de praktijk heb je toch iemand nodig die de boel overziet, de vegers verdeelt over de stoep en checked of alles geveegd is, en dan worden er nog steeds sommige stukjes dubbel geveegd. Bovendien vegen sommigen sneller dan anderen omdat er bij hun stukje minder bladeren liggen dan bij anderen wat nog meer organisatie verijst.

Je kan het ook met een bedrijf vergelijken. Iemand met een eenmanszaak kan de hele dag goed doorwerken omdat hij alleen op zichzelf aangewezen is en precies weet wat gedaan moet worden. Als je een bedrijf met honderden werknemers hebt dan heb je managers nodig die puur mensen lopen te vertellen wat zij moeten doen en werknemers die uren op een dag uit hun neus zitten te vreten omdat ze moeten wachten tot iemand anders iets af heeft.

Hoe beter je die dingen organiseert hoe minder je overhead. Bij deze cluster is er een behoorlijke overhead al is 7TF+ toch een nette prestatie. Al schaalt de G5 duidelijk toch minder dan de Opteron die met 11.000 CPU's de 50TF haalt.
Met een slecht stukje software kan je ook een hoop verprutsen. Als er bv geen rekening is gehouden met de specifieke architectuur van dit cluster dan kunnen de prestaties flink terug vallen.
We zullen binnenkort wel een reactie van Apple hierop krijgen denk ik.
Eerste regel rapport:

"The timing information presented here should in no way be used to judge the overall performance of a computer system. The results reflect only one problem area: solving dense systems of equations."

Verder een vrij droog rapport, dus niet erg in verdiept geraakt. Zag wel in het tabel aan het eind dat dat cluster zesde was in R(max), maar tweede in R(peak) - wat dat precies mag betekenen...
Bij en dual CPU systeem kom je, zover ik is gehoord heb, op 80% van wat ie theoretisch dubbel kan.

Ik betwijfel of dat multithreading verhaal echt op gaat. Het gaat hier om een cluster niet om 1100 CPU's op één moederbord. Alleen met het afleveren data packets die clusters heb je die netwerken tussen de systemen nodig.... lijkt me :?
Die 80% hangt er maar van af. Soms is het (veel) minder. Soms nog wel 95 procent ook.

Dat hangt heel sterk van de applicatie af alsmede de hardware-architectuur.
Sommige (hardware) SMP implementaties zijn efficienter dan andere (en dat dan weer afhankelijk van de omstandigheden).
Wat jij hier zegt Luxx klopt helemaal alleen. Het heeft echter geen belang in dit verhaal. De personen die deze clusters bouwen hebben die kennis ook en houden met de berekening van het haalbare aantal terraflops rekening met datgene dat jij zegt. Alleen blijken er nu meer bottlenecks te zijn waardoor de winst per server extra nog kleiner is dan gedacht.

Je kunt er nu al vanuit gaan dat het raport niet officieel is. In het officiele rapport zal namelijk ook vermeldt worden wat de oorzaak is van de afname in terraflops om zodoende de nodige verbeteringen aan te kunnen brengen in het ontwerp zodat het in de toekomst kan worden voorkomen. Nu is het niet meer dan een simpele constatering.
-> Procyon

En zoals je zelf al schrijft maakt geheugen dus bijna geen fouten. 1 fout per 14 uur. das niks! (En daar komt nog eens bij dat die berekening alleen opgaat met 4400Gb (4.4Tb) memory) En zorgt heus niet voor een performance-daling van 17,6 Teraflops naar 7,4 Teraflops.

En ECC is niet voor performance, alleen maar voor foutcorrectie.
Sterker nog: een systeem met ECC geheugen is zelfs iets trager omdat er naast de data die normaal naar het geheugen word geschreven ook nog een pariteits stream mee gestuurd word die iedere keer word gecheckt bij het schrijfen en uitlezen van het geheugen.
Wat er misschien aan de hand is is dat deze cluster geen ECC Geheugen gebruikt, volgens mij ondersteund de G5 dit niet (of de chipset die gebruikt is).
Dit kan een enorme performance daling bij sommige benchmarks veroorzaken.

Fit nummer is het aantal fouten dat een gemiddeld dimmetje maakt.
But in simply using the 1000 FIT number, and applying it to 1000 boxes, each with 4 GB, that's 4400 GB of memory. Assume that these are all 512 Mbit chips, that's 70400 DRAM chips in the compute farm.

1000 FIT per chip, that's 70400000 failures per 1E9 hours, or 0.07 failures per hour, or 1 failure every 14 hours somewhere in the 4400 GB of memory.
-> Procyon
Ik denk dat je registered bedoelt i.p.v. ECC.
Maar komt het nou door de architectuur van de clusteropstelling of door de processor zelf? De geringe ervaring die er met dit type cluster is zal de effeciëntie misschien ook wel verkleinen.
ik zie hieronder wat geleuter over verlies bij duals enzo. Dat is natuurlijk een lachertje vergeleken bij verliezen als de routers niet goed opgesteld staan.

Stel dat als je een supercomputer zo bouwt dat als alle processors met elkaar tegelijk communiceren, dat dan 500 processors van de 1000, om de andere 500 te bereiken, dat dat allemaal door 1 gigabit kaartje heen moet.

Dan heb je een JOEKEL van een probleem dus.

Het zal zeer waarschijnlijk hieraan liggen dat 't zoveel trager is.
Volgens mij hebben daar toch wel echt rekening mee gehouden, 't zijn geen kneuzen daaro. Meende dat het netwerk ook nog eens 10 Gigabit p/s was.
Het is heel lastig hier rekening mee te houden wegens de $$$$$$$$ (8 cijferig) die het kost als je het goed wil doen.

Ter vergelijking een dual G5 zal wel qua productiekosten iets van 1500 of 2500 euro kosten, maar een beetje router is al snel 10000 euro of meer.

Dus hierop bezuinigen is alleszinds handig. Ook is een myrilnet netwerk kaart de snelste netwerk kaart (nog sneller en duurder is een hub op het mainbord poten natuurlijk, maar dan zit je in categorie supercomputers type SGI die veel snellere latencies hebben als deze sporthal volgeladen met Macs) maar die is in de orde grootte $1500 per stuk, terwijl een snelle Netgear netwerk kaart ook enorme bandbreedte levert en maar 2x tragere latency heeft als deze myrilnet werk kaart. Dat voor nog geen $300. Tel uit je winst bij het bouwen.

Het *grote* probleem bij clusters en supercomputers is hoe je op een centrale manier verschillende 'partities' met elkaar kunt laten communiceren.

Centrale routers, bij de machine van de Nederlandse Overheid zijn dat bijvoorbeeld NUMA flex routers van SGI, zijn de duurste componenten van zo'n systeem.

10 Gbit/s is vreselijk weinig voor een centrale router.
TERAS van overheid levert 1 terabyte = 8 terabit per seconde. Factor 1000 meer.

Het verdelen van de bandbreedte kan met cubes en dergelijke opgelost worden, maar dat betekent heel veel extra routers en centrale verbindingen.

Dat vertaalt zich direct in een cluster die 2x duurder is.

Dit is ook het gedeelte van een cluster/supercomputer dat veel stroom vreet.

De processors an sich vreten superweinig.
Het gerucht op Real World Technologies is 4 dagen recenter dan het Wired artikel. In het Wired artikel was nog maar 5% van de processoren actief, en werd daar vanuit ge-extrapoleerd, met als gevolg hoge verwachtingen.

Als het RWT gerucht klopt, is er inderdaad een probleem met de schaalbaarheid, ergens tussen de 128 processoren van 't Wired artikel en de 2200 processoren van de hele cluster.

Duimen maar dat het ding de top-tien haalt...

(Mac-gebruiker Allerbe)
De wrede werkelijkheid die de dromen van de markteting-afdeling van Apple bruut de grond in trapt. :7

De marketing afdeling weet er soms een iets te rooskleurig plaatje van te maken. Maar dat kom je bij elk bedrijf wel tegen. Dus het verbaasd me niets :z
Die 17 teraflops heeft Apple nooit genoemd.. Dit heeft de BBC in een persbericht gezet door gewoon de theoretische max te vermenigvuldigen met 1100.
Even de links te lezen helpt al veel misverstanden uit de wereld en ik kan zo alles even op een rijtje zetten:

Op pagina 53 van het rapport staat de Rpeak. Dit is de theoretische top van 17.6 TFLOPS. Voor het virginia Tech Cluster is dit (2200 processors * 2*10^9Hz * 4 (floating point units (?)) = 17.6*10^12 FLOPS. Rmax is de score behaald in de benchmarks. Een score van 14TFLOPS zou een goede score zijn geweest.

Het besturingssysteem is OSX (ik vermoed 10.3Panther Server). Met een controleapplicatie genaamd 'Deja Vu'

Een systeem met 2200 Opteron Processors zal inderdaad 2x sneller zijn maar ook 2X zo duur. 2200 opterons kosten ongeveer $2 miljoen terwijl de totale G5 cluster maar $5.2 miljoen kost.

Dat hele bezemverhaal was echt overbodig, we zijn toch niet achterlijk? In de originele link kon je al zo uit de reacties opmaken dat de cijfers op dit moment niks voorstelden omdat de omstandigheden volstrekt onduidelijk zijn. We moeten gewoon even afwachten tot 31 oktober tot de werkelijke resultaten binnen zijn.

/Off Topic:

ff wat ergernissen van me afschrijven:

Het valt me wel op dat als er slecht nieuws is over Apple dat Tweakers.net er als de kippen bij is en het dan ook volkomen ongenuanceerd en uit de context uitbuit, terwijl als er goed nieuws is, zoals de aankondiging van de bouw van de cluster dan laten ze letterlijk een maand op zich wachten.

Apple heeft inderdaad een grote mond en iedereen weet dat een G5 2Ghz ongeveer equivalent is aan een 2.4Ghz Pentium of een 2400+ Athlon. Wat niet klopt is dat de slechte schaalbaarheid inherent is aan het ontwerp van de G5.
Op dit moment zegt de score helemaal niks, maar als er gezocht moet worden naar mogelijkheden dan denk ik aan de chipset van Apple, de compiler en de gebruikte routers van Cisco. Vergeet niet dat de Processor ontworpen is om als dual te gebruiken met het Front Side Bus van 1Ghz.
Het is inderdaad afwachten zie deze site
http://www.wired.com/news/technology/0,1282,60821,00.html

The Big Mac's final score on the Linpack Benchmark won't be officially revealed until Nov. 17, when the rankings of the Top 500 supercomputer sites are made known at the International Supercomputer Conference.

Kortom tweakers.net kan het weer niet nalaten om Apple af te zeiken. doe eerst eens wat onderzoek voor je dit soort berichten de wereld in helpt of nuanceer je koptekst!
Een systeem met 2200 Opteron Processors zal inderdaad 2x sneller zijn maar ook 2X zo duur. 2200 opterons kosten ongeveer $2 miljoen terwijl de totale G5 cluster maar $5.2 miljoen kost.
dit is dus onzin wat je zegt. een supercomputer wordt afgerekend op GFLOPS. de amd opteron heeft een theoretisch max performance van 4 GFLOPS en de ppc970 (aka G5) heeft een theoretisch max performance van 8 GFLOPS. je hebt dus 2x zoveel opterons nodig voor dezelfde hoeveelheid GFLOPS. 4400 opterons dus die per stuk ook nog eens 2x zo duur zijn volgens jou.

in onderstaand eerder bericht licht ik het verschil in GFLOPS tussen ppc970 en opteron toe.

<<<
ik heb dit even uitgezocht. voor dit soort clusters zijn floating point berekeningen belangrijk. de power pc 970 processor kan twee keer zo veel floating point berekeningen per seconde doen (FLOPS) als de opteron.

de power pc 970 kan per cycle doen :
2 fused multiply adds (double precision). voor 2 Ghz komt dit overeen met 4x2 = 8 GFLOPS. de altivec unit kan 4 parallelle single precision operaties uitvoeren gelijktijdig met 2 fused multiply adds in de regulier floating point units. het totaal aantal GFLOPS is dan : (4 + 4) x 2 = 16 GFLOPS. toegegeven voor supercomputing wil je double precision dus 8 GFLOPS is de meer relevante score hier.

de opteron kan maximaal 1 multiply en add double precision doen per cycle. een opteron op 2Ghz komt dan op 2x2 = 4GFLOPS. zie hier voor info over dit onderwerp bij de opteron :
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/Optimi zation_-_Tim_Wilkens.pdf

hier zie je dus de reden dat die universiteit zegt twee keer zoveel opterons dan power pc 970's nodig te hebben voor dezelfde performance. de GFLOPS van de opteron is de helft van de power pc 970. en GFLOPS zijn belangrijk voor wetenschappelijke berekeningen.

en ik denk dat 1 powermac dual g5 goedkoper is als 2 dual opteron systemen
>>>
isgoed==>

Inderdaad je hebt gelijk.
Dat tweakers.net, apple het liefst in een kwaad daglicht word gezet is iets wat inderdaad erg opvalt. Het meeste applenieuws is meestal in negatieve zin hier, oftewel alleen de negatieven dingen omtrend het merk apple worden hier aan het daglicht gebracht heb ik vaak het idee .... erg jammer. De titels die bovenhet nieuws worden gezet zeggen al vaak genoeg. En dan is er ook nog altijd een vaste groep tweakers die daar graag op inspringt. Heb soms het gevoel dat hier alleen getracht wordt om de naam apple te beschadigen. Persoonlijk vind ik dat erg jammer.
Tja, dat verbaast mij ook niks.
Het grootste probleem is op dit moment dat linpack nog geen gebruik maakt van de vectorunits in de G5.
Het zou me dus ook totaal niet verbazen dat over een jaartje alles twee keer zo snel draait met dezelfde machines.
Kwestie van betere optimalisatie en betere compilers.
Vooral het feit dat nu met niet geoptimaliseerde code men toch zulke hoge prestaties haalt is al een goed teken.
Dat wordt dus alleen maar beter.
Je kunt de snelheid per node wel opkrikken, maar als de samenwerking ook niet verbeterd wordt dan maakt dat niet zo heel veel uit lijkt me. Dat is juist de bottleneck met zoveel nodes.
Misschien dat een verdubbeling van het aantal netwerkaansluitingen per node wel kan schelen als nodes meer kunnen gaan 'shoppen' of er nog wat te doen valt. En wie weet moeten ze hier iets heel nieuws voor uitvinden.
In de natuur zijn hersencellen ook verbonden met tientallen of honderden andere hersencellen. Wat effectief blijkt te zijn.
Maar om nou elk systeem vol te propen met glasvezel netwerkkaarten en door te verbinden lijkt me nogal duur worden.
De verwachting van virginiatech, de bouwer van het cluster, was dat ze in de top 10 van de linpack zouden eindigen. De officiële uitslag is nog niet binnen, maar omdat er ergens op een site staat dat deze computer op de 6e plaats zal staan concludeert tweakers.net: "de powermac g5 cluster is veel minder krachtig dan verwacht"
Virginiatech en apple komen van nix en nul in de top 10 binnen en tweakers.net meent zo te moeten reageren? Het is g@tverdomme een wereldprestatie om vanuit het niets zo hoog te komen. En dat voor een hoeveelheid dollars waarmee de concurrenten alleen de airco en de stroomrekening kunnen betalen. Ik gun de Japanners met hun earth simulator van harte de eerste prijs, maar de prijs van een slordige 320 miljoen dollar staat natuurlijk in geen enkele verhouding tot de 5 miljoen die de apple/cisco/infiniband gekost heeft. Het lijkt wel alsof het computer/tweaker nieuws alleen nog maar uit rechtszaken en zure koppen bestaat. Het enthousiasme van het begin is in ieder geval nog nauwelijks terug te vinden.
Vreemd hoe iedereen hier zo op de (netwerk) hardware hamert. Als je een cluster gaat gebruiken ipv een supercomputer dan weet je dat je met minder indrukwekkende netwerkverbindingen (en dus geheugentoegang op andere nodes) te maken gaat krijgen. Het hele concept van clusters draait op een wiskundige bewering dat alle algoritmes om te zetten zijn naar pure parallelle algoritmes. Klinkt allemaal leuk en aardig, maar meestal duurt op die manier programeren langer en/of heb je er duurdere mensen voor nodig. Omdat iedereen altijd geweldig planned *kuch* draaien de meeste specifiek voor een doel gebouwde clusters nog wel eens een tijdje met brakke code voor de echte software klaar is, om toch maar iets te doen te hebben.
Voor veel kortere projecten blijkt het nog wel eens goedkoper en sneller om dus toch maar wat extra uit te geven en wel voor zo'n mooie blinkende SGI Altix te gaan ipv een stapeltje pc's met wat merinet.

Met dat G5 cluster zal het echt nog wel goed komen, als je zo'n berg geld uitgeeft zal er toch wel iets harder over nagedacht zijn dan over het gemiddelde huis tuin en universiteits clustertje denk/hoop ik :-)
PowerMac G5 cluster veel minder krachtig dan verwacht
Ergens verbaasd dit me niet helemaal...
Er waren namelijk al eerder geruchten, kort daarop door onafhankelijke benchmarks gestaafd, waaruit bleek dat de PowerMac G5 helemaal niet zo snel was als Apple de wereld wilde voorspiegelen met hun kreten als "worlds fastest..." etc ;)

Ik zou graag willen weten wat een soortgelijk cluster met 1100 AMD Opterons aan prestaties neerzet :9
Helemaal ongelijk had Apple niet:

Met de laatste beta van CineBench is de dual G5 gelijkwaardig met een dual Opteron op 2GHz

http://barefeats.com/g5c.html

Maxon geeft te kennen dat in deze versie van CineBench nog niet alle G5 optimalisaties zijn doorgevoerd.
jah ze hadden echt opteron's moeten nemen, die hadden een hele goeie bewezen samenwerking op clusters.
Wat komt er na terraflop? :7
het is teraflops en wat erna komt is petaflops
En ver daarna Googolflop (vandaar Google).
Jaahaaaa, probeer nu maar eens hoger te komen in termen van woorden :)
Googolplex=10^(10^100)
*Zucht* ‡ 8-)

Die blokjes waren een liggend achtje, het teken voor oneindigheid.
hahahaha dit is echt lachuhhh dit artikel in dat forum is totaal uit zijn verband gerukt, blijkt maar weer eens te meer dat jullie je huiswerk niet goed doen en gelijk weer één of andere stompzinnege forum afstruinen om de G5 maar weer af te kraken kijk anders maar ff op deze site http://www.wired.com/news/technology/0,1282,60821,00.html/wn_ascii
Inderdaad. Dit artikel is in ieder geval wat duidelijker.

Maar blijkt dat een cluster van ongeveer 2200 G5's nagenoeg in de buurt komt van een 2300 Xeon cluster. Maar als ze er pas overheen gaan met performance zal Apple er z'n marketingvruchten van kunnen dus moeten ze nog even doorbijten en die software bijschaven.
En die universiteit wil gewoon hoog op die lijst eindigen en daar zaken mee doen. Lijkt me duidelijk.

Maar te lezen is dat dit wel het goedkoopste cluster in die top 10. En ik maar denken dat Mac altijd zo duur waren. ;)
Men is er op het forum niet zeker van of dit rapport officieel is.
Misschien moet daar eerst even op gewacht worden voordat een dergelijk artikel geplaatst wordt? :z

Echt een typisch Apple-afkraak-artikel: PowerMac G5 cluster veel minder krachtig dan verwacht!! O gelukkig! Apple's 64-bit machine is helemaaal niet zo snel!

Een tikje overdreven, maar dat is dit artikel ook. Ergens op een afgelegen forum staat een 'rapport' waarvan niet eens zeker is of het officieel is.. Ik snap het nut van dit artikel niet
|:(
Echt een typisch Apple-afkraak-artikel: PowerMac G5 cluster veel minder krachtig dan verwacht!! O gelukkig! Apple's 64-bit machine is helemaaal niet zo snel!
Inderdaad, volgens deze link (http://www.wired.com/news...82,60821,00.html/wn_ascii) haalt het cluster een veel hogere piekprestatie. Dit bericht heeft op ongeveer alle grote Amerikaanse technologiesites gestaan, in tegenstelling tot het artikel dat hier wordt aangehaald. Raar hoor
|:(

[edit]
Nog raarder, het Wired artikel is gebaseerd op hetzelfde rapport en de maker ervan wordt zelfs aangehaald. Hij zegt zelfs: ""They're getting about 80 percent of the theoretical peak," Dongarra said. "If it holds, and it's unclear if it will, it has the potential to be the world's second most powerful machine."
PowerMac G5 cluster veel minder krachtig dan verwacht!! O gelukkig! Apple's 64-bit machine is helemaaal niet zo snel!
Wat heeft een cluster G5's dan te maken met Apple's 64-bit desktop machine? Wat suggereer je?

Dat de G5 niet zo geweldig is als Apple ons wilt doen geloven weten wij hier op deze hardwaresite echt wel hoor, wij slikken die marketingmeuk niet zo makkelijk als de gemiddelde Apple gebruiker.

Btw, gelukkig weten wij al lang dat de G5 grof overschat is, dus waar zouden wij ons druk om maken :?

http://gathering.tweakers.net/forum/list_messages/824121
Dat de G5 niet zo geweldig is als Apple ons wilt doen geloven weten wij hier op deze hardwaresite echt wel hoor, wij slikken die marketingmeuk niet zo makkelijk als de gemiddelde Apple gebruiker.
wat een ignorant opmerking zeg. alsof de gemiddelde tweaker niet gevoelig is voor marketing. ik erger me meer aan de techy ingestelde tweaker die processor A koopt omdat ie "10 frames meer in Quake 3 arena" heeft, dan aan de "gemiddelde Applegebruiker" die gewoon een fraai vormgegeven machine neemt met een ditto fraai OS. en bereid is daar wat meer geld voor te betalen.

zet daar tegenover de tweakerige AMD freak die helemaal blij is dat ie een beta van een kale gestripte win2k op zn 64 bits AMD athon FX 51 kan draaien. completeer het geheel met de vierkante luidruchtig beige box en het plaatje is compleet. wat win je nou met zo'n computer behalve wat meer snelheid? het is the same old windows (als je gelukt hebt, 64 bits port is nog niet gereed, en drivers is ook afwachten) en the same old linux. al dat fraais van amd 64, die techy glamour die zo uitvoerig op de "hardwaresites" besproken is, wordt weggemoffeld onder dezelfde ouwe software. duh!

maar goed deze site heet niet voor niks tweakers. en voor tweakers is het zelf kunnen schroeven/rommelen aan hardware nou eenmaal een onderdeel van de functionaliteit van de computer. eigenlijk koopt een tweaker ook geen computer maar een benchmark knutsel doos waar ie, op aanwijzingen van"hardwaresites", wat mee kan rommelen. tot de boel kapot is en men weer een nieuwe beige box met courante 64 bits wegwerp technologie kan vullen...
Wat heeft een cluster G5's dan te maken met Apple's 64-bit desktop machine? Wat suggereer je?
Omdat dat Apple's 64 bits desktop machines *zijn*?
Grappig, dat zo snel als men een negatief bericht geeft over Apple, het 'apple-bashing' van anti-mac users is, terwijl het de normaalste zaak van de wereld lijkt te zijn, als AMD of Intel kritische berichten krijgen...
Beetje met 2 maten meten, imo... :Z

Het blijft toch allemaal speculatie totdat het systeem d'r staat en werkt.. wacht nou maar gewoon af, en dan zien wetegen die tijd wel weer verder...
In dit geval is de reactie van Mac gebruikers wel te begrijpen omdat het artikel de feiten verkeerd weergeeft.

Nogmaals

Die 17.6 was de GESCHATTE PEAK PERFORMANCE!
In het rapport staat dat de werkelijke peak performance 16.896 TeraFLOP is
Ik ben even zo vrij geweest om het even op te zoeken in dat rapportje op pagina 53 wordt de 'Big Mac' eindelijk genoemd maar, zou iemand mij kunnen uitleggen wat nu het verschil is tussen Rmax en Rpeak.

Het zou mij het zelfde lijken want de piek is toch het maximale, of niet :? ?
Een piek is volgens mij gewoon een uitschieter. De maxima zijn vastgesteld en een piek is gewoon een uitschieter door een fout in de software die de prestaties meet, d8 ik :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True