Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 21 reacties
Bron: ClearSpeed

Vorig jaar kondigde ClearSpeed de CS-301 coprocessor aan, die met maar liefst 64 cores op één chip een indrukwekkende theoretische rekencapaciteit van 25,6 gigaflop per seconde had. Vandaag heeft men de tweede generatie van dit product aangekondigd, die bijna twee keer de prestaties van zijn voorganger haalt. De CSX-600 (codenaam Avebury) bereikt dit door 96 cores op een kloksnelheid van 250 in plaats van 200MHz aan te bieden. Dit terwijl de chip niet groter is geworden en nog steeds maar 5 Watt nodig heeft. Tegenover de enorme rekenkracht van het product staat het feit dat het erg moeilijk is om er effectief gebruik van te maken; alle cores moeten tegelijk aan het werk worden gehouden en dat is lang niet met alle soorten problemen mogelijk. Bovendien is de hoeveelheid bandbreedte beperkt. Verschillende bedrijven en universiteiten zijn aan het evalueren in hoeverre hun software zou kunnen draaien op de chip, alvorens ze een investering van 50.000 dollar doen om een werkstation voorzien van het product aan te schaffen. Avebury zal vanaf het eerste kwartaal van 2005 geleverd worden en door IBM geproduceerd worden.

ClearSpeed CS301

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (21)

Kan iemand mij even uitleggen wat de nut is van zo'n giga-coprocessor? Waarom zo'n ding van 50.000 dollar als we ook blade-clusters-weetikveel-supercomputers hebben?
Waarom zo'n ding van 50.000 dollar als we ook blade-clusters-weetikveel-supercomputers hebben?
En hoeveel denk je dat 'blade-clusters-weetikveel-supercomputers' kost dan?
lijkt me iig heel wat ruimte schelen tov een kast met bladeservers. in het artikel hebben ze het ook over een werkstation.
Als je bedenkt dat er dus 50Gflops mogelijk in 1 werkstation te proppen zijn ..

Daar gaat een blade-cluster niet tegenop hoor, want dat heeft dus tigx meer overhead en nog grotere bandbreedte problemen onderling.

Even snel gekeken ... 720 van dit soort werkstations in een cluster zou al genoeg theoretische GFlops geven om de 35860 GFlops van de earth-simulator van de troon te stoten.
Dit terwijl de chip niet groter is geworden en nog steeds maar 5 Watt nodig heeft.
Daarom dus...
Je kunt dus met deze processor(s) een supercomputer maken met een beperkt ruimte en energieverbruik.
Echter zoals het artikel ook al stelt zul je dus nog steeds wel alle verwerkte gegevens naar die processoren toe en af moeten brengen. Deze infrasructuur is niet kleiner geworden.
Hmn, wie zouden dit product aanschaffen? Wat is de doelgroep van IBM hiermee?
IBM produceert voor clearspeed en heeft dus niet echt een doelgroep. IBM biedt productiecapaciteit aan en clearspeed maakt daar als doelgroep gebruik van.
Clearspeed zal zich richten op universiteiten en andere instanties die veel rekenwerk hebben. Denk aan eindige elementen simulaties voor aerodynamica, kreukelzones van auto's en zo zijn er nog wel meer wetenschappelijke problemen.
Ik vraag me af of we niet een paar van dat soort chips op onze beeldkaart kwijt kunnen, of naast de cpu :P

Games slurpen nu eenmaal veel rekencapaciteit, net als zware CAD en audio/video bewerkingssoftware. Een speciaal slot verbonden met de nb via de HTTom er 10 gigaflop er bij te prikken is geen slecht idee.

:*)
Ik vraag me af of we niet een paar van dat soort chips op onze beeldkaart kwijt kunnen, of naast de cpu
Natuurlijk kan dat.
Wel eerst even $ 50000 betalen.
alle cores moeten tegelijk aan het werk worden gehouden en er dat is lang niet met alle soorten problemen mogelijk.
Laat ik deze keer het bal der koeien dan maar openen want zo'n reactie komt anders toch wel! }:O Moeeeeh !

Dus! maar niet alleen daarvoor. Kan me zo voorstellen dat er best programmeurs zijn die wel raad weten met zon processor(s) in combinatie met al dan niet wetenschappelijk onderzoek.
Ik denk dat je dan alleen de client wel 96 keer moet installeren om gebruik te maken van de rekenkracht... Kijk 96 core is allemaal heel leuk, maar als je maar 1 rekensom hebt dan is maar 1 core tegelijk bezig, dus heb je gewoon een 250 mhz systeem.. Als je 96 treads hebt lopen, gebruik je een kleine 25GHZ

Ik zit me nu alleen even af te vragen hoever AMD is met de octa-opteron chips, want daarmee zal je ook aan deze snelheid komen voor een prijs die toch zo;n 80% lager is, op de energie rekening na.
96*250=2400 Mhz oftewel 24Ghz

Als het energie gebruik vele malen groter is moet je eigenlijk eens uit gaan rekenen wat het dan wel niet kost en dan niet met 1 workstation maar als je het als cluster gebruikt.
Intussen moet iedere geek toch wel begrijpen dat GHz niet gelijk staat aan performance. Als het kloksnelheid-verschil tussen AMD/Intel nog niet voldoende is zou je ook kunnen kijken naar de Gx processors in de Mac of eigenlijk naar elke willekeurige processor want dit simpele feit is al zo geweest vanaf de allereerste microprocessors.

Zeer grote kans dat zo'n 250MHz core voor zijn doelgebied de vloer aanveegt met een quad-4GHz P4 systeem ofzoiets
hopen dat ibm nog een paar duizend nieuwe coprocessors maakt, zodat ze goedkoper voor de consument worden ;)

(50.000 ligt buiten mijn budget)
Ondanks dat ik kwijl bij het lezen van zo'n rekenkracht vind ik zo'n FPGA aanwezig op een mobo als coprocessor nuttiger, je kan er gelijk wat op programmeren en je kan er makkelijker huidige programma's op runnen ...
misschien een leuke oplossing als pci-e1x kaartje :) (krijgen die slots ook nog wat nut ;))
Niet veel, in een artikel van een tijdje terug stond.
Dankzij de gespecialiseerde en parallelle architectuur van videokaarten kunnen de huidige videokaarten meer dan 40 GFlops uitvoeren terwijl processors blijven steken rond de 6 GFlops.
http://www.tweakers.net/nieuws/34134
Volgens de persoon die het verhaal naar Slashdot stuurde kunnen de shaderunits van een GeForce FX 5900 Ultra maximaal 20 gigaflops halen
http://www.tweakers.net/nieuws/30254

Gezien dat die gespecialiseerd zijn voor 3D berekeningen en deze processor niet denk ik dat de videokaart het op dat vlak nog steeds beter doet. Al helemaal als het gaat om texture mapping en frame buffers etc. want daar heeft dit ding helemaal geen logica voor. Wel zou je z'n chip kunnen gebruiken voor al de andere berekeningen die gedaan moeten worden (zoals het bewegen van poppetjes, projectielen invloed van de zwaartekracht, wind etc etc.). Daar zou hij zelfs heel geschikt voor zijn omdat je de objecten over de cores kunt verdelen. Maar om daar nou 50 000 dollar voor over te hebben.

@Shades

Omdat je P4/AMD niet gemaakt is om alleen maar floating point berekeningen te doen maar ook veel meer. Tevens kan hij veel meer en preciesere floating point berekening maken dan een video kaart. Maar het zou wel leuk zijn als ATI en NVidia ook in de processor markt zouden stappen. Meer concurentie kan nooit kwaad en zij hebben een voorsprong op multi core processoren in de vorm van meerdere pipelines. Alleen is zo'n pipeline een heel stuk eenvoudiger dan een volledige P4 of Athlon core.
waarom is mijn p4/amd dan geen ati/nvida

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True