Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties, 18.924 views •

AMD heeft de FirePro S10000 geďntroduceerd voor de server- en workstationmarkt. De videokaart heeft maar liefst twee gpu's aan boord, die samen 375W zouden verbruiken. Daardoor valt nog te bezien hoeveel de kaart in servers gebruikt zal worden.

AMD introduceerde de videokaart tijdens het SuperComputing-symposium in Salt Lake City. De videokaart werd tijdens AMD's eigen evenement in juni al kort aan het publiek getoond, maar is vanaf nu ook daadwerkelijk te koop. De gpu's zijn samen in staat maar liefst 5,91Tflops aan single-precision- en 1,48Tflops aan double-precisionberekeningen uit te voeren, meer dan Nvidia's K20 Tesla-videokaart. Daar staat tegenover dan AMD's S10000 maar liefst 375W aan energie zou verstoken, terwijl Nvidia's K20 met slechts 225W uit de voeten kan.

De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen. Beide Tahiti-gpu's met 1792 streamprocessors zijn verder voorzien van 3GB gddr5-geheugen. Dat is de helft van bijvoorbeeld de S9000. De videokaart kan overigens ook in workstations ingezet worden en dan kunnen gebruikers door middel van VMware elk een gpu gebruiken. Hiermee hoopt AMD kopers dan ook over te halen, evenals met de prijs van 3599 dollar, slechts 1100 dollar meer dan de single-gpu S9000.

AMD FirePro S10000

Reacties (65)

De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen.
Waar komt die bewering vandaan? 2 dikke xeon's verstoken ook al gauw 130W per stuk... Doe daar nog een stel voedingen bij en het is gewoon alsof je een 'extra' server in je rack hangt.

Het is natuurlijk niet verstandig om je hele rack vol te hangen met deze jongens.

Ontopic: Leuk voor bitcoin!
De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen.
Het is natuurlijk mogelijk hem niet op volle snelheid te laten draaien, als je bijv het verbruik van de Nvidia van 225Watt liever hebt kan je deze bijv, 30/35% lager clocken en kom je daar waarschijnlijk wel goed in de buurt...

Belangrijkste is dan ook performance per watt en prijs per watt, lijkt mij dan :)

PS wij hebben zelf verschillende servers draaien die meer dan 400watt trekken, snap niet wat het probleem is, zijn geen 1U servers maar daar past deze kaart ook niet in :)

[Reactie gewijzigd door watercoolertje op 12 november 2012 11:24]

Waarom gebruikt AMD deze koelers niet op hun consumenten-videokaarten? persoonlijk hoef ik helemaal geen fancy poespas & chrome accenten. Strak maar veel koelvermogen is (in mijn ogen) veel interessanter! :)
Volgens; http://technewspedia.com/...20-specifications-leaked/ doet de k20 in single precision: 3.52 TFlops en in double precision: 1.17 TFlops bij een TDP van 225W.

Nu zegt de TDP natuurlijk niet zo heel veel maar komt wellicht een volle belasting daar dicht bij in de buurt.

Dan kom je op 0.0156 TFlops/TDPw single en 0.0052TFlops/TDPw double voor de k20 en 0.0156 en 0.0039 TFlops/TDPw voor de AMD S10000.

Puur op TDP gaat de winst dus lichtelijk naar de k20 maar in de prakijk lijk het me beter om op harde benchmarks te wachten.
[...] Belangrijkste is dan ook performance per watt en prijs per watt, lijkt mij dan :)
Geproduceerd op 28nm zou ie in principe zuinig(er) moeten zijn dan veel andere kaarten, waardoor de performance p./watt hoger zou moeten liggen.

gevonden: http://wccftech.com/amd-i...000-server-graphics-card/
  • Increased Performance-Per-Watt: The AMD FirePro S10000 delivers the highest peak double-precision performance-per-watt — 3.94 gigaFLOPS — up to 4.7 times more than the competition’s comparable dual-GPU product;
ik gok dat die dingen nogal wat lawaai maken vergeleken met de koelers in consumenten videokaarten.
Ik denk, omdat deze mogelijk meer geluid produceert dan de gemiddelde consumenten kaart.
Dat is natuurlijk veel duurder dan zo'n standaard koeler. Deze koeler is overigens ook niet al te best, want door de oriëntatie van de fins wordt de warme lucht terug in de kast geblazen.

Nu denk ik dat AMD deze kaart heeft uitgebracht om te kúnnen concurreren met nVidia. Al is de kaart veel minder zuinig hebben ze wel een topmodel in handen.
Zo'n reactie vind ik dan weer raar. "Leuk voor Bitcoin", je betaalt namelijk 3600 dollar voor een kaart die op volledige utilisatie 375 W per uur verstookt (in ieder geval wat er in warmte weer uit kan komen). Ik denk eerder leuk voor AMD en je stroom aanbieder ;) Denk niet dat je dat zomaar in Bitcoins terug verdient.

[Reactie gewijzigd door stverschoof op 12 november 2012 11:48]

Daar heb je toch gewoon aftermarket koelers voor? En ja, die zijn niet strak want die hebben een hele lading aluminium koelribben die misschien beter niet met een plastic omhulsel afgedekt kunnen worden. En je weet natuurlijk ook niet of deze firePro-koelers lawaaierig zijn. De stock-koelers van radeons zijn trouwens ook erg strak.
Slecht geschreven stukje zo...
mist inderdaad nogal wat, zoals goed vergelijk met Nvidia.
daarbij zitten er 2x 7970 in??
de performance per watt is zeer bemoedigend en ik denk de doorslag zal geven tussen de keuze van Tesla of deze. Ook nog even de K10 en 20 even afwachten natuurlijk.

Probleempje is dat je met 4 van deze kaarten alleen al een voeding van 1400W nodig hebt en zover ik weet heb ik nog niet een servervoeding groter dan 1800W gezien.
Dikke GPU's in servers.... slecht idee, evenals VM's gebruiken voor grafische werkstations.
(of SBC gebruiken voor datzelfde doeleinde, zoals Citrix vrolijk aan het marketen is)

Grafische werkstations (3d, video editing, etc) moeten gewoon fatclients zijn met een OS direct op de HW geinstalleerd.

Dit is problemen opzoeken.
[CPU's in] Servers gebruiken we voor het software renderen, laat de GPU's lekker in de werkstations zitten.
hij verstookt niet 375W/uur, hji verstookt 375W ;) (het is namelijk 375WH/H)

Verder zijn GPU's erg goed in rekenen aan Bitcoin, geen idee of het tegenwoordig nog rendabel is, maar eenjaar geleden was het dat zeker wel. Simpel sommetje: 1 KWh kost rond de 20 eurocent, daarvan kunnen deze badboys bjina 3 uur draaien, dus als je met bitcoins minen 7cent/uur kan verdienen, dan kan het al bijna uit :)

Wat koeling betreft, bv een dl380 van HP, dat is een 2U machine, heeft 1.5KW aan voedingscapaciteit. Lijkt me dus geen enkel probleem om dat in een rek te koelen.
Volgens mij is het vooral een probleem als je de kaart in een bestaande server wil plaatsen. De voeding en koeling zullen er niet op berekend zijn. Maar als je bijvoorbeeld dell Blade servers gebruikt mag 385watt vermogen toch niet zo een probleem zijn?

Elke fabrikant zegt dat ze erg veel performance per watt aanbieden. Dit is hun kans. 2 zulke kaarten zouden 550watt verbruiken tegenover 375watt voor de S10000. Zeker in de markt van de GPU-virtualisatie is dit een grote troef. In totaal zouden er 4 gebruikers tegelijk kunnen werken.

Misschien is er een limitatie met het gecombineerde TDP van alle componenten, maar voorts lijkt het me perfect haalbaar.

AMD zou in 2013 uitkomen met 'sea Island' chips, deze worden gebakken op het 28nm procedé. Deze chips zouden 45% Zuiniger zijn met de zelfde performantie tegenover het 40nm procedé.
http://mobile.hardware.in..._45_hoger_geklokt_worden/

[Reactie gewijzigd door Coolstart op 12 november 2012 12:08]

Waarschijnlijk zit hier wel een fatsoenlijke koeler op omdat die paar euro extra op een prijs van 3599 euro toch ook niks meer uitmaakt, en omdat dit product wel in één keer af moet zijn in tegenstelling tot de consumenten kaartjes waar voor ze eigenlijk alleen chips willen verkopen aan externe firmaatjes die er maar iets fatsoenlijks van moeten zien te maken.
Dit is meer een GPGPU oplossing, eigenlijk (waarom hij een video-out heeft verbaast me), eigenlijk wel populair in bepaalde vormen van clustering. Bepaalde dingen doen GPU's nu eenmaal beter dan CPU's.

VM's voor grafische workstations? Tsja... soms. Ik snap niet hoe dat relevant is hier, maar goed... het idee is dat je een mobiel geheel hebt wat de beheersbaarheid en schaalbaarheid bevordert. Een beetje het idee achter agent-tech, maar dan met een heel workstation. Tegenwoordig valt hardware vrij makkelijk te forwarden zonder overhead, dus qua CPU en GPU heb je vergelijkbare kracht en schaalbaarheid als dat je met een workstation zal hebben. Echter wel met maar een driver. Wat dus weer eenvoudig is. En ja: die drivers zijn vaak ook wel geschikt voor grafische workstations. Moet je nieuwe werkplekken uitrollen? Dupliceer de VM. Nieuwe workstations? VM snapt het wel. Even op een laptop zetten? De VM snapt het. Zal misschien triest presteren maar goed... daar los van.

Tsja, renderfarms. Over de CPU is het vaak leuk en precies, maar afhankelijk van wat je rendert zijn de honderden zo niet duizenden shaders in een GPU erg handig hoor! Een flinke lading CUDA GPU's in je render farm voor raytrace scene renders vliegt rondjes rondom elke 4-weg centi-core xeon qua TDP, PPW, en output-per-enclosure. 40 xeon cores nemen al snel 2u in voor de performance die je krijgt van 1u aan Tesla's.

Nadeel: je software moet het ondersteunen, X86 is soms wel erg makkelijk. Maar geleidelijk zie je erg veel CUDA/OpenCL support verschijnen waar dit soort "videokaarten zonder video uitgang" erg nuttig voor zijn.

Sterker nog: nVidia is druk bezig GPCPU's op hun videokaarten te plaatsen om de beperking dat het werk verdeeld moet worden door de CPU en weer er naar terug geschreven moet worden weg te halen.
Aha daar is die Dual GPU kaart dan. Deze keer geen desktop HD7990 maar alleen de workstation versie. Ook jammer dat niet alle shaders actief zijn.

Het verbruik is wel hoger dan de nVidia kaart maar als je kijkt naar GPGPU performance van de Desktop GTX680 en de HD7950 dan scoort de HD7950 regelmatig veel hoger dan de GTX680. Dus qua GPGPU performance krijg je er ook iets voor terug.

Edit:

Even een kanttekening plaatsen. nVidia heeft de K20 ook uitgebracht deze gebruikt niet de GK104 maar Big Kepler GK110. En dat verandert de zaak toch wel een beetje. Want dat is wel degelijk een GPGPU monter met 7,1 miljart transistors.

[Reactie gewijzigd door Astennu op 12 november 2012 20:50]

Hoe doet zo'n kaart het eigelijk in games? Ik weet dat ze daar niet voor bedoeld zijn, meer voor zakelijke applicaties, maar wat voor FPS zou je met zo'n kaart scoren in vergelijking tot bijvoorbeeld een HD7970? Ben wel benieuwd!

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True