Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 65, views: 18.838 •

AMD heeft de FirePro S10000 geďntroduceerd voor de server- en workstationmarkt. De videokaart heeft maar liefst twee gpu's aan boord, die samen 375W zouden verbruiken. Daardoor valt nog te bezien hoeveel de kaart in servers gebruikt zal worden.

AMD introduceerde de videokaart tijdens het SuperComputing-symposium in Salt Lake City. De videokaart werd tijdens AMD's eigen evenement in juni al kort aan het publiek getoond, maar is vanaf nu ook daadwerkelijk te koop. De gpu's zijn samen in staat maar liefst 5,91Tflops aan single-precision- en 1,48Tflops aan double-precisionberekeningen uit te voeren, meer dan Nvidia's K20 Tesla-videokaart. Daar staat tegenover dan AMD's S10000 maar liefst 375W aan energie zou verstoken, terwijl Nvidia's K20 met slechts 225W uit de voeten kan.

De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen. Beide Tahiti-gpu's met 1792 streamprocessors zijn verder voorzien van 3GB gddr5-geheugen. Dat is de helft van bijvoorbeeld de S9000. De videokaart kan overigens ook in workstations ingezet worden en dan kunnen gebruikers door middel van VMware elk een gpu gebruiken. Hiermee hoopt AMD kopers dan ook over te halen, evenals met de prijs van 3599 dollar, slechts 1100 dollar meer dan de single-gpu S9000.

AMD FirePro S10000

Reacties (65)

Wat ik me dan nu afvraag of dit ook een voorbode is van een 7990 of iets dergelijks voor consumenten... Op het moment ben ik nog tevreden met mijn 5970 dual gpu, maar het zou mooi zijn als AMD iets tegenover de GTX690 zou kunnen zetten...
Word tijd idd, die 690 is achterlijk duur. Als er concurrentie was had je die kaart voor 600 euro

[Reactie gewijzigd door A87 op 12 november 2012 17:34]

Wat ik me dan nu afvraag of dit ook een voorbode is van een 7990 of iets dergelijks voor consumenten... Op het moment ben ik nog tevreden met mijn 5970 dual gpu, maar et zou mooi zijn als als iets tegenover de GTX690 zouden kunnen zetten...
AMD maakt gekke bokkesprongen afgelopen weken. Ze zijn paar maanden weg van bankroet zijn. Ze moeten dus met aankondigingen en hardware komen nu waarmee miljarden verdiend kan worden, om investeerders, zover die er nog zijn voor ze, over de brug te trekken.

p.s. 0 websites claimen dat die kaart ECC heeft. Op hun eigen forum geven de engineers vooralsnog geen antwoord op de simpele vraag of hij wel ECC heeft. Etcetera.

Het lijkt echt een noodgreep deze release van AMD.

Bij AMD zelf weten ze nog niks van deze 10k kaart.

Dus naar ik aanneem gaat het nog lang kosten voor er drivers zijn en moet je je afvragen of die kaarten ooit geleverd worden als je een supercomputer gaat bouwen, want ze zijn mogelijk gewoon failliet en vertrokken over paar maanden.

ATI zal vast verkocht worden dan cq is al bijna weg bij AMD, dus zal vast doorstarten. Maar we weten niet wat of hoe of waar en wanneer en welke support er gaat komen cq of oude kaarten nog wel supported blijven.

Het is dus afwachten tot een paar onderzoekers die kaart goed getest hebben en met heldere conclusies komen wat hij wel kan en wat hij niet kan en wat hij wel heeft en wat hij niet heeft.

[Reactie gewijzigd door hardwareaddict op 12 november 2012 15:10]

Fundementalistische pakistani, Wallstreet bobo's, AMD valt je behoorlijk zwaar of niet?

Nadat je dit hele topic hebt volgeblaat met anti-AMD praat, neemt het nog steeds niet weg dat dit een meer dan fantastische uitvinding is van AMD.

Je argumenten slaan nergens op, deze kaart heeft gewoon ECC (alsof dat zo'n bijzondere functie is), je maakt allerhande claims over waardeloze support, niet-bewezen rants over slechte produkten, zwijgende engineers op fora en HPC-ers die niet overtuigd zijn.

Geloof me, de supercomputerboer heeft deze allang als sample ontvangen en mee gewerkt. Ik zou zo durven beweren dat deze allang een plek heeft gevonden op diverse universitaire HPC/serverclusters.

Hoe goed je Nvidia of Intel ook vind, AMD is een chipmaker van het hoogste niveau met een R&D waar je U tegen zegt. En dat is precies de reden dat AMD niet failliet zal gaan, niemand (ook Intel of Nvidia niet) kan het zich veroorloven om dit bedrijf ter ziele te laten gaan omdat ze zelf niet de know-how hebben om dezelfde producten te kunnen maken.
Hoe doet zo'n kaart het eigelijk in games? Ik weet dat ze daar niet voor bedoeld zijn, meer voor zakelijke applicaties, maar wat voor FPS zou je met zo'n kaart scoren in vergelijking tot bijvoorbeeld een HD7970? Ben wel benieuwd!
Als je em aan de praat krijgt, anderhalf keer een 7970... Die heeft zo'n 2048 cores aan boord, eigenlijk is dit ding een dual-7950, die gezien de flopjes ietsje trager werkt (750 MHz ofzo). Alleen denk ik dat je een stuk sneller (en goedkoper) uit bent met een 7970 in Crossfire. Dit soort dingen is zodat beide GPUs hetzelfde geheugen kunnen gebruiken, en om heel veel power in een klein kastje te stoppen.
Dit kan niet dezelfde GPU zijn, want de 7900 series heeft geen ECC.

Dat vereist compleet herdesign van de GPU.

Verder praat je over een gamerscard die enorm traag is qua gflops, al is dat het kleinste probleem want meestal zitten op de gamers gpu's wel de transistors die ze voor de gpgpu kaarten gebruiken, maar zijn ze gewoon uitgeschakeld (ik neem aan dat ze die keuze maken wegens de lage yields voor de gpgpu kaarten en op deze manier iets meer geld kwijt zijn aan de gamerskaarten in aantal transistors, maar dan 'gratis' dus goed werkende gpgpu kaarten eruit halen - al vermoed ik dat ze dat niet gaan volhouden zo).

Echter ik ben het met je eens, het 'makes sense' dat ze eventjes snel 2 gpu's gepakt hebben, de CRC die de DDR5 al heeft gerenamed naar ECC met wat creatieve beeldspraak.

Dan vervolgens snel een webpagina maken en dat aan investeerders laten zien die bepalen of ze over paar maandjes bankroet zijn of het weer een jaartje uitzingen.

Dus vooralsnog moeten we spijkerhard bewijs zien dat dit een gpgpu kaart is met ECC voor we het geloven, want het is te simpel nu om maar wat online te zetten om investeerders te overtuigen, terwijl de AMD engineers op de OpenCL forum nog van niks weten van deze kaart.

In zo'n geval overigens kunnen ze niet 2x een 7970 op 1 kaartje poten want dat zou 700 watt vreten en dat is toch te veel. Deze kaart vermoed ik zit zo rond de 450 watt under full load van gpgpu als het waar is wat je post.

Opmerking: gpgpu vreet veel meer stroom dan de meeste spelletjes vreten. Dus er zijn veel strengere eisen aan koeling dan met name om bitflipts te vermijden.

[Reactie gewijzigd door hardwareaddict op 12 november 2012 16:11]

Dit is geen kaart voor games.

De gpgpu kaarten die ik hier heb, die zijn vreselijk slecht in video aansturen. Je wil die connector niet gebruiken.

De tesla's (2070's hier) bijvoorbeeld worden razendheet als je ze ook de video laat aansturen.

Dus dat doe je een paar uurtjes en dan gaat die connector eraf voorgoed :)

Deze kaarten zijn bedoeld voor supercomputers. De allersnelste supercomputers die op dit moment gebouwd worden.

In theorie is het dus zo dat met 1.5 Tflop je maar 50 van die kaarten nodig hebt om sneller te zijn dan de supercomputer van de Nederlandse overheid (gebouwd a ik gok rond de 25 miljoen euro) te Amsterdam op de Kruislaan.

Nvidia is nog onduidelijk over hoeveel de K20 levert. "roughly factor 3 more" dan een kaart die 667 Gflop levert.

Overigens opmerking, alle gflops die ooit genoemd worden die kun je delen door 2. Het is allemaal gebaseerd op multiply-add, maar de grote transforms die gebruiken helemaal geen multiply-add hoor.

1 benchmark doet dat die overal gebruikt wordt maar die niet meer de state of the art wiskunde representeert hoe in werkelijkheid alles berekend wordt.

Daar echter iedereen die factor 2 erbij liegt, compenseert dat.

[Reactie gewijzigd door hardwareaddict op 12 november 2012 15:06]

hij heeft wel ECC, staat overal, het is geen paper launch vanaf nu beschikbaar, en dan koop jij het niet flikker toch een keer op met dat gespam van je, fanboy van de groenen zeker?
Hij heeft wel ECC! Beter lezen voortaan. Je kunt het op de website van Amd wel vinden. http://www.amd.com/us/pro.../S10000/Pages/S10000.aspx
Aha daar is die Dual GPU kaart dan. Deze keer geen desktop HD7990 maar alleen de workstation versie. Ook jammer dat niet alle shaders actief zijn.

Het verbruik is wel hoger dan de nVidia kaart maar als je kijkt naar GPGPU performance van de Desktop GTX680 en de HD7950 dan scoort de HD7950 regelmatig veel hoger dan de GTX680. Dus qua GPGPU performance krijg je er ook iets voor terug.

Edit:

Even een kanttekening plaatsen. nVidia heeft de K20 ook uitgebracht deze gebruikt niet de GK104 maar Big Kepler GK110. En dat verandert de zaak toch wel een beetje. Want dat is wel degelijk een GPGPU monter met 7,1 miljart transistors.

[Reactie gewijzigd door Astennu op 12 november 2012 20:50]

Waarschijnlijk zit hier wel een fatsoenlijke koeler op omdat die paar euro extra op een prijs van 3599 euro toch ook niks meer uitmaakt, en omdat dit product wel in één keer af moet zijn in tegenstelling tot de consumenten kaartjes waar voor ze eigenlijk alleen chips willen verkopen aan externe firmaatjes die er maar iets fatsoenlijks van moeten zien te maken.
Volgens mij is het vooral een probleem als je de kaart in een bestaande server wil plaatsen. De voeding en koeling zullen er niet op berekend zijn. Maar als je bijvoorbeeld dell Blade servers gebruikt mag 385watt vermogen toch niet zo een probleem zijn?

Elke fabrikant zegt dat ze erg veel performance per watt aanbieden. Dit is hun kans. 2 zulke kaarten zouden 550watt verbruiken tegenover 375watt voor de S10000. Zeker in de markt van de GPU-virtualisatie is dit een grote troef. In totaal zouden er 4 gebruikers tegelijk kunnen werken.

Misschien is er een limitatie met het gecombineerde TDP van alle componenten, maar voorts lijkt het me perfect haalbaar.

AMD zou in 2013 uitkomen met 'sea Island' chips, deze worden gebakken op het 28nm procedé. Deze chips zouden 45% Zuiniger zijn met de zelfde performantie tegenover het 40nm procedé.
http://mobile.hardware.in..._45_hoger_geklokt_worden/

[Reactie gewijzigd door Coolstart op 12 november 2012 12:08]

Dikke GPU's in servers.... slecht idee, evenals VM's gebruiken voor grafische werkstations.
(of SBC gebruiken voor datzelfde doeleinde, zoals Citrix vrolijk aan het marketen is)

Grafische werkstations (3d, video editing, etc) moeten gewoon fatclients zijn met een OS direct op de HW geinstalleerd.

Dit is problemen opzoeken.
[CPU's in] Servers gebruiken we voor het software renderen, laat de GPU's lekker in de werkstations zitten.
Het staat mss nog in zijn kinderschoenen, maar de voordelen zijn nu al zichtbaar.
Betere verhoudingen van prijs, prestatie en verbruik.

Het is gewoon the way to go. Het consolideren van componenten door ze te virtualiseren heeft zo zijn nadelen, maar de voordelen krijgen stilaan de bovenhand, zeker als je met meerdere gebruikers op dat systeem. Goedkopere hardware/gebruiker, minder onderhoudskosten, lager energiebeheer, makkelijker te beheren op afstand en flexibiliteit in de cloud.

Binnen enkele jaren is het dood normaal dat uw tablet gpu-kracht gebruikt van een sterkere eenheid. Veel flexibeler dan in elk device een aparte krachtige gpu te plaatsen.
Dit is meer een GPGPU oplossing, eigenlijk (waarom hij een video-out heeft verbaast me), eigenlijk wel populair in bepaalde vormen van clustering. Bepaalde dingen doen GPU's nu eenmaal beter dan CPU's.

VM's voor grafische workstations? Tsja... soms. Ik snap niet hoe dat relevant is hier, maar goed... het idee is dat je een mobiel geheel hebt wat de beheersbaarheid en schaalbaarheid bevordert. Een beetje het idee achter agent-tech, maar dan met een heel workstation. Tegenwoordig valt hardware vrij makkelijk te forwarden zonder overhead, dus qua CPU en GPU heb je vergelijkbare kracht en schaalbaarheid als dat je met een workstation zal hebben. Echter wel met maar een driver. Wat dus weer eenvoudig is. En ja: die drivers zijn vaak ook wel geschikt voor grafische workstations. Moet je nieuwe werkplekken uitrollen? Dupliceer de VM. Nieuwe workstations? VM snapt het wel. Even op een laptop zetten? De VM snapt het. Zal misschien triest presteren maar goed... daar los van.

Tsja, renderfarms. Over de CPU is het vaak leuk en precies, maar afhankelijk van wat je rendert zijn de honderden zo niet duizenden shaders in een GPU erg handig hoor! Een flinke lading CUDA GPU's in je render farm voor raytrace scene renders vliegt rondjes rondom elke 4-weg centi-core xeon qua TDP, PPW, en output-per-enclosure. 40 xeon cores nemen al snel 2u in voor de performance die je krijgt van 1u aan Tesla's.

Nadeel: je software moet het ondersteunen, X86 is soms wel erg makkelijk. Maar geleidelijk zie je erg veel CUDA/OpenCL support verschijnen waar dit soort "videokaarten zonder video uitgang" erg nuttig voor zijn.

Sterker nog: nVidia is druk bezig GPCPU's op hun videokaarten te plaatsen om de beperking dat het werk verdeeld moet worden door de CPU en weer er naar terug geschreven moet worden weg te halen.
Inderdaad... je kunt vinden van CUDA wat je wilt (ik vind dat het een vendor lockin levert voornamelijk), maar nVidia heeft wel een erg stevige poot in die markt. Dit is een poging van AMD om mee te doen, maar het komt wat halfbakken over.

Doet echter niks af aan m'n reply op lenny_z, die volgens mij niet goed door heeft op welk niveau deze kaart speelt en wat de waarde is/relatie met workstations. Overigens: workstations zie je AMD nog wel eens (hoewel het wat minder wordt als je ziet dat ook software leveranciers als Adobe, Autodesk e.v.a. voor CUDA in plaats van OpenCL of DX11 Compute shaders kiezen)
Tsja, het hele CUDA verhaal, ik zie dat als gezonde concurrentie. AMD doet Open CL, nVidia doet CUDA en Intel doet x86. We zien wel wie er wint, wat de klanten willen.

Net zoals je bij CPU's kan kiezen uit ARM, MIPS, x86, IA64, Power en Sparc. Waarom moet t allemaal eenheidsworst zijn?

[Reactie gewijzigd door Dreamvoid op 12 november 2012 23:05]

de performance per watt is zeer bemoedigend en ik denk de doorslag zal geven tussen de keuze van Tesla of deze. Ook nog even de K10 en 20 even afwachten natuurlijk.

Probleempje is dat je met 4 van deze kaarten alleen al een voeding van 1400W nodig hebt en zover ik weet heb ik nog niet een servervoeding groter dan 1800W gezien.
Slecht geschreven stukje zo...
mist inderdaad nogal wat, zoals goed vergelijk met Nvidia.
daarbij zitten er 2x 7970 in??

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013