Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 65, views: 18.884 •

AMD heeft de FirePro S10000 geïntroduceerd voor de server- en workstationmarkt. De videokaart heeft maar liefst twee gpu's aan boord, die samen 375W zouden verbruiken. Daardoor valt nog te bezien hoeveel de kaart in servers gebruikt zal worden.

AMD introduceerde de videokaart tijdens het SuperComputing-symposium in Salt Lake City. De videokaart werd tijdens AMD's eigen evenement in juni al kort aan het publiek getoond, maar is vanaf nu ook daadwerkelijk te koop. De gpu's zijn samen in staat maar liefst 5,91Tflops aan single-precision- en 1,48Tflops aan double-precisionberekeningen uit te voeren, meer dan Nvidia's K20 Tesla-videokaart. Daar staat tegenover dan AMD's S10000 maar liefst 375W aan energie zou verstoken, terwijl Nvidia's K20 met slechts 225W uit de voeten kan.

De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen. Beide Tahiti-gpu's met 1792 streamprocessors zijn verder voorzien van 3GB gddr5-geheugen. Dat is de helft van bijvoorbeeld de S9000. De videokaart kan overigens ook in workstations ingezet worden en dan kunnen gebruikers door middel van VMware elk een gpu gebruiken. Hiermee hoopt AMD kopers dan ook over te halen, evenals met de prijs van 3599 dollar, slechts 1100 dollar meer dan de single-gpu S9000.

AMD FirePro S10000

Reacties (65)

De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen.
Waar komt die bewering vandaan? 2 dikke xeon's verstoken ook al gauw 130W per stuk... Doe daar nog een stel voedingen bij en het is gewoon alsof je een 'extra' server in je rack hangt.

Het is natuurlijk niet verstandig om je hele rack vol te hangen met deze jongens.

Ontopic: Leuk voor bitcoin!
Zo'n reactie vind ik dan weer raar. "Leuk voor Bitcoin", je betaalt namelijk 3600 dollar voor een kaart die op volledige utilisatie 375 W per uur verstookt (in ieder geval wat er in warmte weer uit kan komen). Ik denk eerder leuk voor AMD en je stroom aanbieder ;) Denk niet dat je dat zomaar in Bitcoins terug verdient.

[Reactie gewijzigd door stverschoof op 12 november 2012 11:48]

hij verstookt niet 375W/uur, hji verstookt 375W ;) (het is namelijk 375WH/H)

Verder zijn GPU's erg goed in rekenen aan Bitcoin, geen idee of het tegenwoordig nog rendabel is, maar eenjaar geleden was het dat zeker wel. Simpel sommetje: 1 KWh kost rond de 20 eurocent, daarvan kunnen deze badboys bjina 3 uur draaien, dus als je met bitcoins minen 7cent/uur kan verdienen, dan kan het al bijna uit :)

Wat koeling betreft, bv een dl380 van HP, dat is een 2U machine, heeft 1.5KW aan voedingscapaciteit. Lijkt me dus geen enkel probleem om dat in een rek te koelen.
Volgens de website van AMD is er wel ECC memory aanwezig.
Ze doelen vast op de ingebouwde CRC van DDR5, we kennen dat ondertussen van AMD.

De testsites zeggen ook niks over ECC. Dus eerst test zien dan geloven, want een gpu moet helemaal van scratch af aan overnieuw designed worden om ECC te ondersteunen en de 7970 heeft dat niet.

AMD zegt overigens al eventjs nog meer dat hun gpgpu's zouden kunnen.

Zo claimen ze dat al sinds de 4000 gpu series je elke SIMD aparte instructiestream kunt sturen, net zoals Nvidia dat doet... ...en ze claimen dat ze het gaan bouwen.

Helaas het is nu 5 jaar later en die 'feature' is er nog steeds niet. Dit ondanks herhaaldelijk vragen van vele wetenschappers. Er zijn zelfs tickets voor aangemaakt. Het helpt gewoon niet.

Alle SIMD's moeten dezelfde instructiestream executen as it is now. Dat is gewoon niet handig voor sommige codes...

Enorm voordeel van Nvidia, terwijl AMD gewoon droogjes claimt dat de hardware het kan.

Ze claimen dat ze 3GB ram hebben en dat ze eraan werken dat je het gaat kunnen adresseren, maar als je op de OpenCL forums leest dan is het lastig om meer dan 256MB te alloceren etc etc, want als je meer alloceert wordt dat automatisch op de DDR3 van je CPU gealloceerd.

En zo gaat het maar door met allerlei claims van AMD die gewoon NIET WERKEN.

Features die gewoon BELANGRIJK zijn.

Nieuwe GPU's die uitkomen kost het altijd EINDELOOS voor, voor er een opencl driver is onder linux die beide GPU's tegelijk kan aansturen. Dat kost altijd maanden en maanden. De 5970 bijvoorbeeld wordt officieel niet ondersteund voor beide GPU's. Met een hack werken *sommige*.

Dus vraag eerst maar of er een gpgpu driver al is voor deze kaart voor je 'm koopt. Het is hopeloos dat AMD met al die claims.

Dus eerst zien dan geloven.

[Reactie gewijzigd door hardwareaddict op 12 november 2012 14:16]

Detail: het GDDR5-geheugen heeft danwel ECC, de caches niet. Dit geldt ook voor de concurrenten. Beetje straling doet zowel geheugen als cache flippen.
Als je eens verder zou kijken dan je neus lang is had je allang met een simpele google opdracht kunnen weten dat deze kaart wel ECC geheugen heeft. Dat dit vanaf GDDR5 standaard er in zit wist je blijkbaar ook niet.

Bron:
http://www.amd.com/us/pro.../S10000/Pages/S10000.aspx

Dat verbruik zal wel kloppen, het enige model waarvan ik weet dat het over zijn TDP ging is de HD4870x2. Dat kan je van Nvidia niet zeggen met zijn GTX480.
Bij Gddr5 zit ecc geheugen er inderdaad standaard bij.
Dat is geen ECC dat is een CRC.

Dus sysadmins kunnen hier niet zoveel mee op supercomputers.
gefascineerd als ik was door het CRC versus ECC issue toch ook eens even rondgegoogled. Een de meeste bronnen die ik vind stellen gewoon dat FirePro S10000 ECC geheugen supporteerd. Op zich zijn wel bronnen te vinden die ingaan op het CRC mechanisme van GDDR5 geheugen.

Bronnen die ik vond (techiser, hpcwire) hebben het gewoon over ecc geheugen. Wel duidt een artikel van anandtech erop dat AMD nog wat minder lang thuis is in de ECC memory support. Van de kaarten in dit artikel behandeld zijn heeft alleen de S9000 de ECC support, de andere kaarten niet.

Dat hoeft natuurlijk geen enkele reden te zijn om niet ook de s10000 gewoon met ECC support uit te voeren. Als AMD de technologie bij de s9000 kaart geïntroduceerd heeft, dan ben je als merk onverstandig om dat in je volgende topkaart niet te doen, zeker als voor rekenwerk dit zo belangrijk is. Minder subtiel gezegd: het zou een onzin product zijn als ze dat nu niet zouden hebben gedaan.

Kortom: ik acht het heel onwaarschijnlijk dat AMD niet naar waarheid specificeert en geen ECC ondersteuning in de S10000 zou hebben geïmplementeerd.

Het is trouwens wel grappig hoe verschillende bronnen ( techreport Nvidia, techreport AMD en Streamcomputing de concurrenten Nvidia en AMD beiden als winnen kunnen uitroepen. Willen de echte cijfers opstaan.
Op StreamComputing staat een lijstje waarin elke kaart (K10, K20, S9000 en S10000) wint.

»Even though the cards are very comparable on most specifications, they are a winner and loser in one of them.

• K10: best in GFLOPS/Watt (SP), worst in everything double precision.
• K20: best in single-GPU performance, worst in price per GFLOPS (SP).
• S9000: best memory bandwidth, worst in GFLOPS/Watt (SP)
• S10000: best in performance SP&DP (dual-GPU), worst in power-usage/cooling.

I leave the reprioritising of what is important when to buy compute-cards to others.
«

[Reactie gewijzigd door vinx77 op 12 november 2012 23:15]

Dat verbruik zal wel kloppen, het enige model waarvan ik weet dat het over zijn TDP ging is de HD4870x2. Dat kan je van Nvidia niet zeggen met zijn GTX480.
Met furmark krijg je veel GPU's wel over hun TDP heen hoor. Net zoals dat je gemakkelijk CPU's over hun TDP heen krijgt met stress-tests.
hij verstookt niet 375W/uur, hji verstookt 375W (het is namelijk 375WH/H)

Kan je dat is uitleggen? Als een kaart vol belast 375W elektrisch vermogen nodig heeft, en je bekijkt vervolgens hoeveel het verbruik per uur is (continu vol belast) kom je toch op 375W/h ?

edit:
Ik bedoelde meer Wh/h is vrij zinloos. Eerst het vermogen in (W) vermenigvuldigen met tijd (h) en vervolgens de uitkomst hiervan delen door (h) komt dus weer op het vermogen in (W) uit... tja, wat is daar het nut van?

Samenvatting:
Wh/h=W

[Reactie gewijzigd door Carni op 12 november 2012 21:22]

Nee ze claimen de maximum die pci-e aankan, terwijl we allemaal weten dat met 2 gpu's die kaart minimaal 450 watt gaat vreten. Echter daar de standaard dus 375 maximaal voor pci-e geeft zetten ze er 375 op want tenslotte kun je niet meer vreten op papier dan de standaard maximaal aan pci-e afgeeft of niet?

Als je een psu hierop zet die maximaal 375 watt levert dan gaat die deze kaart natuurlijk niet trekken.

Zelfde probleem met de Tesla's hier overigens (de eerste generatie Fermi's, de 2e generatie vreet veel minder).
375W/h (Watt per uur) is echt onzin.
Het maximale vermorgen is 375W. Niets meer, niets minder.
Voorbeeld:
Als die kaart 4 minuten aan staat op vol vermogen is dat 25Wh aan energie verbruik.
E = P * t
Reactie bedoeld op Carni

[Reactie gewijzigd door PEC op 12 november 2012 14:46]

Je hebt nu al drie keer gezegd dat deze kaart meer dan 375watt verbruikt. Dat hoef je niet te blijven herhalen, mensen begrijpen het na 1x ook wel. Waar PEC op doelt, en terecht, is dat W/h onzin is. Vermogen druk je uit in watt, hoeveel energie iets verbruikt per tijdseenheid druk je uit in kWh (of Wh) per tijdseenheid.

[Reactie gewijzigd door Ch3cker op 12 november 2012 16:43]

375W/h (Watt per uur) is echt onzin.

Oja? Hoeveel verbruikt een apparaat met een continu vermogen van 375W dat een uur aan staat dan wel volgens jou? Of is vermogen door tijd delen niet toegestaan volgens jou?

Als die kaart 4 minuten aan staat op vol vermogen is dat 25Wh aan energie verbruik.

En als die kaart geen 4 maar 60 minuten aan staat? 60/4=15 15*25=375
Uitgaand van 1uur maakt het niks uit. Want of je een waarde vermenigvuldigd met 1 of deelt door 1 de uitkomst blijft gelijk.
Hoeveel verbruikt een apparaat met een continu vermogen van 375W dat een uur aan staat dan wel volgens jou
Het verbruik is gewoon nog 375W, het maakt niet uit hoeveel uur. Dus niet 375W/h. De verbruikte energie in één uur is 375Wh.

Een videokaart rekent ook niet in FLOPS per seconde, want een FLOPS is al per seconde. Hij rekent dus gewoon in FLOPS, onafhankelijk van hoe lang hij dan rekent. Het is een maat voor de kracht van de kaart, net zoals Watt een maat is voor wat een kaart verbruikt. En een kaart van 10 FLOPS rekent in een seconde 10 FLOP uit, net als dat hij in een uur 375Wh aan energie verstookt.
Of is vermogen door tijd delen niet toegestaan volgens jou?
Het mag wel als jij dat fijn vindt, maar het betekent helemaal niks zinvols. "Watt per uur" is gewoon een onzinnige aanduiding, in bovenstaande vergelijking met "FLOP per seconde per seconde" (iets als versnelling? Vertaald naar het verbruiks-verhaaltje dus vergelijkbaar met hoe snel een apparaat aan gaat en op vol vermogen draait of zo?).

Watt is energie per tijdseenheid, namelijk joule per seconde. Omdat men joule kennelijk onhandig vindt in dagelijks gebruik wordt als eenheid voor energie de "watt-uur" gebruikt (watt maal uur, niet per uur), en het vermogen is dan dus "watt-uur per uur", oftewel "watt".
Uitgaand van 1uur maakt het niks uit. Want of je een waarde vermenigvuldigd met 1 of deelt door 1 de uitkomst blijft gelijk.
Dus of jij nou 1 meter loopt, 1 kilometer loopt, 1 kilogram loopt, 1 banaan loopt, of 1 per banaan loopt, dat is allemaal hetzelfde? Neen. Eenheid maakt wel wat uit. 1 banaan lopen is namelijk onzin, net als 375W/h verbruiken. Neem je namelijk niet 1 maar 2 in je voorbeeldje, dan klopt er helemaal niets meer van, een indicatie dat je dus niet correct rekent (maar met 1 uur toevallig dezelfde uitkomst krijgt).

Ik hoop dat het nu voor eens en voor altijd duidelijk is. :P "Watt per uur" zie ik wel vaker langskomen. Het was veel simpeler geweest als energie gewoon in megajoule werd gegeven en het verbruik in megajoule per uur.

[Reactie gewijzigd door bwerg op 12 november 2012 22:46]

Ik: Uitgaand van 1uur maakt het niks uit.
Jij: Dus of jij nou 1 meter loopt, 1 kilometer loopt, 1 kilogram loopt, 1 banaan loopt, of 1 per banaan loopt, dat is allemaal hetzelfde?
Tja...
Jij zegt dat het niet uit maakt of je erdoor deelt of ermee vermenigvuldigd, want het is toch 1. Maar delen door één uur of vermenigvuldigen met één uur geeft een hele andere eenheid. Je komt dan ineens niet meer uit op 1Wh aan energie (een zinnig antwoord) maar op 1W/h, wat helemaal geen waarde voor energie is. Daarnaast geeft dat aan dat je rekenmethode fout is.

[Reactie gewijzigd door bwerg op 13 november 2012 13:40]

Bitcoin is niet zo heel interessant meer op AMD GPUs, daar zijn nu al dedicated processors voor en de nieuwe generatie zou nu al op de markt aankomen waardoor het helemaal niet meer rendabel is. Verder zijn FirePro kaarten een beetje overkill voor Bitcoin.
wat ze bedoelen met dat het vermogen(warmte ontwikkeling)te hoog is voor het standard koelvermogen van het rack! en zul je de koeling moeten aanpassen om het rack stabiel te houden,als je deze kaart op vol vermogen gaat gebruiken!
De videokaart wordt dan ook gekoeld door drie ventilators en het is nog maar de vraag in hoeverre de S10000 bruikbaar zal zijn in servers, aangezien de meeste serverracks niet met 375W aan warmte overweg kunnen.
Het is natuurlijk mogelijk hem niet op volle snelheid te laten draaien, als je bijv het verbruik van de Nvidia van 225Watt liever hebt kan je deze bijv, 30/35% lager clocken en kom je daar waarschijnlijk wel goed in de buurt...

Belangrijkste is dan ook performance per watt en prijs per watt, lijkt mij dan :)

PS wij hebben zelf verschillende servers draaien die meer dan 400watt trekken, snap niet wat het probleem is, zijn geen 1U servers maar daar past deze kaart ook niet in :)

[Reactie gewijzigd door watercoolertje op 12 november 2012 11:24]

Volgens; http://technewspedia.com/...20-specifications-leaked/ doet de k20 in single precision: 3.52 TFlops en in double precision: 1.17 TFlops bij een TDP van 225W.

Nu zegt de TDP natuurlijk niet zo heel veel maar komt wellicht een volle belasting daar dicht bij in de buurt.

Dan kom je op 0.0156 TFlops/TDPw single en 0.0052TFlops/TDPw double voor de k20 en 0.0156 en 0.0039 TFlops/TDPw voor de AMD S10000.

Puur op TDP gaat de winst dus lichtelijk naar de k20 maar in de prakijk lijk het me beter om op harde benchmarks te wachten.
Nu hebben een haal aantal mensen hierboven gezegd dat er wel ECC geheugen opzit, dus waarom zit je hier die onzin te spammen?

Ga lekker ergens anders vervelend zijn, ik snap dat je omlaag gemod wordt.

ontopic: Mooie kaart, denk dat die meer voor workstations dan voor servers bedoeld is, was de firepro serie niet altijd al meer voor de workstation markt dan de server markt? Vind het dan ook wel vreemd dat servers zo vaak genoemd worden in het artikel.

Verbruik vind ik zelf wel hoog, maar als je deze kracht nodig hebt om je werk te kunnen doen dan is het mooi dat het beschikbaar is.
Kansloos werkelijk scroll omhoog. AMD claimt zoveel. Ze doelen vast op de CRC die ddr5 heeft en claimen dat dat ECC is.

Een gpu moet helemaal herdesigned worden om ECC te faciliteren. Je raakt dan op kritieke punten 90% van de bandbreedte kwijt namelijk bij DDR5. Dus vandaar herdesign nodig om niet 90% van die bandbreedte kwijt te raken.

De enige ECC claim die er is, is 1 websiteje van AMD zelf.

Ze claimen nog zoveel andere onzin. Lees de documents eens van hun gpu series. Die zijn allemaal in India gehackt, daar klopt helemaal niets van.

Dus we moeten eerst een paar echte HPC'ers zien die die kaart aan de tand voelen voor het ueberhaupt geloofwaardig is wat AMD claimt.
Nouja ze claimen mischien wel veel maar AMD's Graphic Core Next architectuur is vele malen sneller dan Nvidia's GTX680 architectuur Op GPGPU berekeningen en dergelijke. Dus ik zie jouw haat tegenover AMD niet goed doorgrond.

Zelfde dat jij claimt dat er geen ECC in zit, terwijl er meerdere zijn die het zelfs met onderbouwing aangeven.

http://www.dvhardware.net/article56621.html
http://www.phoronix.com/s...=news_item&px=MTIyNzQ

Daar spreken ze ook gewoon over ECC dus ik snap je probleem niet.

Probeer jij eens te bewijzen dat er GEEN ECC op zit.

[Reactie gewijzigd door Vegettokai op 12 november 2012 20:51]

[...] Belangrijkste is dan ook performance per watt en prijs per watt, lijkt mij dan :)
Geproduceerd op 28nm zou ie in principe zuinig(er) moeten zijn dan veel andere kaarten, waardoor de performance p./watt hoger zou moeten liggen.

gevonden: http://wccftech.com/amd-i...000-server-graphics-card/
  • Increased Performance-Per-Watt: The AMD FirePro S10000 delivers the highest peak double-precision performance-per-watt — 3.94 gigaFLOPS — up to 4.7 times more than the competition’s comparable dual-GPU product;
NVidia zit toch ook op 28 nm? Intel zelfs al op 22 nm.
Waarom gebruikt AMD deze koelers niet op hun consumenten-videokaarten? persoonlijk hoef ik helemaal geen fancy poespas & chrome accenten. Strak maar veel koelvermogen is (in mijn ogen) veel interessanter! :)
ik gok dat die dingen nogal wat lawaai maken vergeleken met de koelers in consumenten videokaarten.
voor gpgpu is koeling veel belangrijker dan voor gamers. Als een keer een pixel fout is bij gamers maakt niet uit, bij gpgpu kan dat cruciale berekeningen in de war sturen. Dus goed koelen is veel crucialer.
Dat is natuurlijk veel duurder dan zo'n standaard koeler. Deze koeler is overigens ook niet al te best, want door de oriëntatie van de fins wordt de warme lucht terug in de kast geblazen.

Nu denk ik dat AMD deze kaart heeft uitgebracht om te kúnnen concurreren met nVidia. Al is de kaart veel minder zuinig hebben ze wel een topmodel in handen.
Daar heb je toch gewoon aftermarket koelers voor? En ja, die zijn niet strak want die hebben een hele lading aluminium koelribben die misschien beter niet met een plastic omhulsel afgedekt kunnen worden. En je weet natuurlijk ook niet of deze firePro-koelers lawaaierig zijn. De stock-koelers van radeons zijn trouwens ook erg strak.
Ik denk, omdat deze mogelijk meer geluid produceert dan de gemiddelde consumenten kaart.
Slecht geschreven stukje zo...
mist inderdaad nogal wat, zoals goed vergelijk met Nvidia.
daarbij zitten er 2x 7970 in??
de performance per watt is zeer bemoedigend en ik denk de doorslag zal geven tussen de keuze van Tesla of deze. Ook nog even de K10 en 20 even afwachten natuurlijk.

Probleempje is dat je met 4 van deze kaarten alleen al een voeding van 1400W nodig hebt en zover ik weet heb ik nog niet een servervoeding groter dan 1800W gezien.
Dikke GPU's in servers.... slecht idee, evenals VM's gebruiken voor grafische werkstations.
(of SBC gebruiken voor datzelfde doeleinde, zoals Citrix vrolijk aan het marketen is)

Grafische werkstations (3d, video editing, etc) moeten gewoon fatclients zijn met een OS direct op de HW geinstalleerd.

Dit is problemen opzoeken.
[CPU's in] Servers gebruiken we voor het software renderen, laat de GPU's lekker in de werkstations zitten.
Dit is meer een GPGPU oplossing, eigenlijk (waarom hij een video-out heeft verbaast me), eigenlijk wel populair in bepaalde vormen van clustering. Bepaalde dingen doen GPU's nu eenmaal beter dan CPU's.

VM's voor grafische workstations? Tsja... soms. Ik snap niet hoe dat relevant is hier, maar goed... het idee is dat je een mobiel geheel hebt wat de beheersbaarheid en schaalbaarheid bevordert. Een beetje het idee achter agent-tech, maar dan met een heel workstation. Tegenwoordig valt hardware vrij makkelijk te forwarden zonder overhead, dus qua CPU en GPU heb je vergelijkbare kracht en schaalbaarheid als dat je met een workstation zal hebben. Echter wel met maar een driver. Wat dus weer eenvoudig is. En ja: die drivers zijn vaak ook wel geschikt voor grafische workstations. Moet je nieuwe werkplekken uitrollen? Dupliceer de VM. Nieuwe workstations? VM snapt het wel. Even op een laptop zetten? De VM snapt het. Zal misschien triest presteren maar goed... daar los van.

Tsja, renderfarms. Over de CPU is het vaak leuk en precies, maar afhankelijk van wat je rendert zijn de honderden zo niet duizenden shaders in een GPU erg handig hoor! Een flinke lading CUDA GPU's in je render farm voor raytrace scene renders vliegt rondjes rondom elke 4-weg centi-core xeon qua TDP, PPW, en output-per-enclosure. 40 xeon cores nemen al snel 2u in voor de performance die je krijgt van 1u aan Tesla's.

Nadeel: je software moet het ondersteunen, X86 is soms wel erg makkelijk. Maar geleidelijk zie je erg veel CUDA/OpenCL support verschijnen waar dit soort "videokaarten zonder video uitgang" erg nuttig voor zijn.

Sterker nog: nVidia is druk bezig GPCPU's op hun videokaarten te plaatsen om de beperking dat het werk verdeeld moet worden door de CPU en weer er naar terug geschreven moet worden weg te halen.
Inderdaad... je kunt vinden van CUDA wat je wilt (ik vind dat het een vendor lockin levert voornamelijk), maar nVidia heeft wel een erg stevige poot in die markt. Dit is een poging van AMD om mee te doen, maar het komt wat halfbakken over.

Doet echter niks af aan m'n reply op lenny_z, die volgens mij niet goed door heeft op welk niveau deze kaart speelt en wat de waarde is/relatie met workstations. Overigens: workstations zie je AMD nog wel eens (hoewel het wat minder wordt als je ziet dat ook software leveranciers als Adobe, Autodesk e.v.a. voor CUDA in plaats van OpenCL of DX11 Compute shaders kiezen)
Tsja, het hele CUDA verhaal, ik zie dat als gezonde concurrentie. AMD doet Open CL, nVidia doet CUDA en Intel doet x86. We zien wel wie er wint, wat de klanten willen.

Net zoals je bij CPU's kan kiezen uit ARM, MIPS, x86, IA64, Power en Sparc. Waarom moet t allemaal eenheidsworst zijn?

[Reactie gewijzigd door Dreamvoid op 12 november 2012 23:05]

Het staat mss nog in zijn kinderschoenen, maar de voordelen zijn nu al zichtbaar.
Betere verhoudingen van prijs, prestatie en verbruik.

Het is gewoon the way to go. Het consolideren van componenten door ze te virtualiseren heeft zo zijn nadelen, maar de voordelen krijgen stilaan de bovenhand, zeker als je met meerdere gebruikers op dat systeem. Goedkopere hardware/gebruiker, minder onderhoudskosten, lager energiebeheer, makkelijker te beheren op afstand en flexibiliteit in de cloud.

Binnen enkele jaren is het dood normaal dat uw tablet gpu-kracht gebruikt van een sterkere eenheid. Veel flexibeler dan in elk device een aparte krachtige gpu te plaatsen.
Volgens mij is het vooral een probleem als je de kaart in een bestaande server wil plaatsen. De voeding en koeling zullen er niet op berekend zijn. Maar als je bijvoorbeeld dell Blade servers gebruikt mag 385watt vermogen toch niet zo een probleem zijn?

Elke fabrikant zegt dat ze erg veel performance per watt aanbieden. Dit is hun kans. 2 zulke kaarten zouden 550watt verbruiken tegenover 375watt voor de S10000. Zeker in de markt van de GPU-virtualisatie is dit een grote troef. In totaal zouden er 4 gebruikers tegelijk kunnen werken.

Misschien is er een limitatie met het gecombineerde TDP van alle componenten, maar voorts lijkt het me perfect haalbaar.

AMD zou in 2013 uitkomen met 'sea Island' chips, deze worden gebakken op het 28nm procedé. Deze chips zouden 45% Zuiniger zijn met de zelfde performantie tegenover het 40nm procedé.
http://mobile.hardware.in..._45_hoger_geklokt_worden/

[Reactie gewijzigd door Coolstart op 12 november 2012 12:08]

Waarschijnlijk zit hier wel een fatsoenlijke koeler op omdat die paar euro extra op een prijs van 3599 euro toch ook niks meer uitmaakt, en omdat dit product wel in één keer af moet zijn in tegenstelling tot de consumenten kaartjes waar voor ze eigenlijk alleen chips willen verkopen aan externe firmaatjes die er maar iets fatsoenlijks van moeten zien te maken.
Aha daar is die Dual GPU kaart dan. Deze keer geen desktop HD7990 maar alleen de workstation versie. Ook jammer dat niet alle shaders actief zijn.

Het verbruik is wel hoger dan de nVidia kaart maar als je kijkt naar GPGPU performance van de Desktop GTX680 en de HD7950 dan scoort de HD7950 regelmatig veel hoger dan de GTX680. Dus qua GPGPU performance krijg je er ook iets voor terug.

Edit:

Even een kanttekening plaatsen. nVidia heeft de K20 ook uitgebracht deze gebruikt niet de GK104 maar Big Kepler GK110. En dat verandert de zaak toch wel een beetje. Want dat is wel degelijk een GPGPU monter met 7,1 miljart transistors.

[Reactie gewijzigd door Astennu op 12 november 2012 20:50]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013