Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties

AMD heeft de komst van de FirePro 9100 aangekondigd. Het gaat om een videokaart voor workstations die met een Hawaii-gpu en 16GB gddr5 is uitgerust. De videokaart voor de zakelijke markt kan volgens AMD zes uhd-schermen aansturen.

Het gaat om een vooraankondiging: AMD gaat de specifieke details over de kaart pas later vrijgeven. Wel is duidelijk dat het om een kaart met Hawaii-gpu gaat met al zijn 2816 streamprocessors geactiveerd. De kloksnelheden zijn niet bekend, maar volgens AMD zal de videokaart een single precision floating point-rekenkracht van meer dan 5 teraflops bieden en 2 teraflops op gebied van double precision fp-berekeningen. Ook is duidelijk dat de kaart maar liefst 16GB gddr5 gaat bevatten, waar de voorganger met 6GB ook al ruim van geheugen voorzien was. Verder zal de kaart zes uhd-schermen aan kunnen sturen en daarvoor zijn evenzoveel mini-displayports aanwezig.

AMD richt zich op gebruik in workstations en tegelijk met de vooraankondiging meldt het bedrijf de aanduiding Ultra Workstation te gaan hanteren en deze apparaten met FirePro's in drie segmenten te verdelen: de minst krachtige, met een W9100, is voor bijvoorbeeld cad-toepassingen, terwijl het krachtigste model, met vier W9100-kaarten, ook in staat moet zijn tot kleurcorrectie bij verwerken van 4k-content. Alle werkstations beschikken over minstens 32GB geheugen en een octacore.

  AMD FirePro W9100 AMD FirePro W9000
Streamprocessors 2816 2048
Tmu's 176 128
Rop's ? 32
Kloksnelheid ? 975MHz
Geheugenkloksn. ? 5,5GHz gddr5
Geheugeninterface ? 384bit
Hoeveelheid videogeh. 16GB 6GB
Double precision ? 1/4
Aantal transistors 6,2 miljard 4,31 miljard
Tdp ? 274W
Procedé TSMC 28nm TSMC 28nm
Gpu-architectuur GCN 1.1 GCN 1.0
Garantie 3 jaar 3 jaar
Adviesprijs ? 3999 dollar

AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100AMD FirePro W9100

Moderatie-faq Wijzig weergave

Reacties (59)

16 gb?
Kan een UberTweaker toepassingen duidelijk maken waar dat voor nodig is?
Dacht een keer te lezen dat je bv met een Titan ook al zoveel kan, als je maar ff een paar seconden wacht?
En nog wat, kan je met die high end FirePro's ook gamen? Is een serieuse vraag hoor. Weet daar dan ff niks van.
Ja daar kan je ook mee gamen.
Mijn ervaring is dat het geen bal uitmaakt qua performance -de "pro" klaarten gamen niet sneller ofzo...soms langzamer) en je ook artifacts en geneuzel kan verwachten. Dit heeft met name te maken met de stuurpgrogramma's van deze kaarten.
De drivers zijn ook een van de redenen dat deze kaarten zo duur zijn. De stuurprogramma's zijn erg uitgebreid en hebben ondersteuning voor specifieke software (Maya, LW, Max, Blender, etc,etc)

Het extra geheugen is vooral bedoeld om previews en real-time graphics in viewports te stallen.
Denk aan Interactive Post Rendering data, grote hoeveelheden textures, real-time stencil planes voor schaduwen, etc, etc.
Het geeft nog meer mogelijkheden om enorme previews te zien van te renderen (in software) output.

[Reactie gewijzigd door lenny_z op 27 maart 2014 15:17]

Ik zou deze kaart dolgraag in een test setup zien tegen de NVidia Quadro K6000 }>
Real World benches in die programma's.. Maar ook progjes die gebruik maken van Cuda.. of dat nou echt zo veel tijd scheelt tegenover dit soort AMD's

*Kan Tweakers dat aub een keer doen?* O-)
Heel hard rekenen? Als je zeg een geografisch model pakt, waarbij je rustig gigabytes aan data (modelletje van 4096*4096*1024 pixels is echt niet abnormaal) doorrekent wil je dat graag met zoiets doen, omdat je dan in 1x een hele sloot op je GPU kunt zetten. Voor high-performance toepassingen is meestal je PCI-E-bus de traagste factor, nog afgezien van de overhead erop. Alle data lokaal in je GPU-geheugen stoppen levert dan juist de winst op.
Idem met andere simulaties, hoe meer je lokaal kunt houden, hoe sneller, zeker nu de GPUs zelf ook weer sneller worden. Voor gamen is het voorlopig wel massive overkill, maar daar zijn deze dingen ook wat duur voor. Het zou moeten werken overigens, maar ik denk dat de baas dan niet blij wordt ^^
Alleen zit je met 4096*4096*1024*8 bytes (uitgaande van double precision) al op 128GB geheugen, en dan heb je nog maar n 3D veld. Dat is ook nog het grote probleem bij gpgpu voor bijv. CFD toepassingen: daar heb je toch meestal minimaal een stuk of 12 3D velden nodig, is een grid van 4096*4096*1024 inderdaad geen uitzondering, en heb je dus al 96 van dit soort kaarten nodig.

Als je experiment niet in het geheugen past zit je sowieso met een probleem: of je hebt n GPU die (soort van) serieel je simulatie in blokken afhandelt (lijkt me overigens bijz. onhandig), of je hebt meerdere GPU's waarbij er over het algemeen nog altijd communicatie tussen GPU - GPU nodig is, wat de performance ook niet ten goede komt.

GPU's voor CFD klinkt leuk, maar ik zie het vooralsnog de traditionele supercomputers niet vervangen.. In Delft zijn ze hier overigens wel mee bezig, zie bijv. http://journals.ametsoc.o...10.1175/BAMS-D-11-00059.1.
Meestal behandel je data sowieso in blokken, anders word je gek... Bij grotere blokken is de overhead redelijk beperkt, en ook bij CPUs zul je vaak met je geheugen in de knoei komen, omdat een CPU van een supercomputer niet even gemakkelijk bij elk stuk kan komen (NUMA, oftewel geheugen is gelinkt aan bepaalde CPUs, verzoeken voor dat stuk van een andere CPU kosten dus meer tijd).

Juist daarom zijn dit soort GPUs een uitkomst, je krijgt veel meer geheugen per blok, wat je belangrijkste beperking wegneemt (langer rekenen is vaak geen punt, maar als het niet in je geheugen past explodeert je rekentijd pas echt, en moet je je hele programma omgooien).
Van 16 GB VRAM kan ik geen test terug vinden maar op ArsTechnica hebben ze wel eens een MacPro getest met daarin twee AMD FirePro D700 GPU’s met elk 6 GB GDDR5 VRAM.
Samen dus goed voor 12 GB aan VRAM.
In specifieke programmas zoals Maya maakt dit dus wel een verschil uit. Vermoedelijk in andere CAD programma's ook.
link: http://arstechnica.com/ap...r-than-we-thought-it-was/
2x 6 GB is nog steeds 6 GB bij GPU's
Wat een zieke kaart zeg :S . Waarschijnlijk gaat hij ook rond de GTX titan Z kosten. (rond de 3000,-)

Maar is deze kaart voor gamedevs bedoeld of voor grote servers van grote bedijven (camara beelden op UHD, berekeingen, enz)?
Wel, als ik de presentatie mag geloven was hij gemaakt met zoveel mogelijk vlakken in gedachte. De 16GB was ook in die richting van denken: er is bijna geen enkel (professioneel) vlak waarvoor deze kaart niet bruikbaar is. (Behalve CUDA dan.)

Ook werden er talloze support overeenkomsten voorgesteld (ontbreekt een beetje in het artikel) waaronder adobe premiere en blackmagic design (en nog vele andere waar ik simpelweg niet mee bezig ben en dus snel vergeet). met als hoofdgedachte openCL support in bepaalde apps een beetje op te schroeven. Natuurlijk komt dit ook door het feit dat de Mac Pro firepro kaarten bevat, dit schreeuwt dan ook om meer support.

en als je een oud artikel van toms hardware mag geloven, zijn deze firepro's ondanks de machtige verkwisting aan geld moest het daarvoor alleen zijn na de kantooruren toch perfect bruikbaar voor een potje te gamen :P

[Reactie gewijzigd door egnappahz op 27 maart 2014 17:53]

Ik bedoel de Titan met 6 gb van zo'n 900 en minder euro hoor.
Die zou de FirePro's overbodig maken.

[Reactie gewijzigd door TweakerTweak op 27 maart 2014 15:19]

De vorige versie is 3999 dus denk of duurder of gelijk
Die laatste grafiek gelovend wordt dit een gigantische vooruitgang wat performance betreft.

Wat ik nog wel eens niet begrijp is waarom deze kaarten maar een beperkt aantal schermen kunnen aansturen. Je zou toch denken dat dat vrijwel onbeperkt zou kunnen worden met zoveel geheugen en zulke snelle klokken, en met de huidige bekabelingstechnologie (oa USB). Vroegah waren dat de beperkingen (ook qua resoluties), maar dat is nu toch al lang achter ons?
heel simpel: er past maar een beperkt aantal connectors op een pcb en verder wordt er in de regel niet zo heel veel gebruik gemaakt van meer dan 6 monitoren per pc puur door het gebrek aan ruimte op je desk.
Verder is dit ook geen consumentenkaart maar een prosumer kaart ;)
Display port ondersteunt echter daisy chaining since versie 1.2. Het zou me dus niks verbazen als hier meer dan 16 monitoren aan kunnen worden gehangen doormiddel van daisy chaining. Zou me echter ook niet verbazen als 16 simpelweg de limiet is :)

Maar goed het punt dat ik wou maken is dat het aantal connectors niet noodzakelijk gelijk is aan het maximaal aantal aan te sturen monitoren.
ik weet van daisy-chaining af (prachtige uitvinding trouwens) maar het ging hier toch over de hardwarelimieten?
Zo niet dan is 6xuhd nog steeds 24x1080p monitoren en misschien dat dat wel dmv daisy chaining kan.
Of de outputlimiet qua rauwe rekenkracht van de gpu is gewoon niet meer dan 24k?
Precies wat ik ook dacht :)
Op UHD zes monitoren, op lagere resoluties is het waarschijnlijk mogelijk meerdere monitoren aan te sluiten, wellicht inderdaad zelfs tot (4*6) 24 monitoren. Wat ik ervan heb begrepen is dat de bandbreedte niet de enkele beperking is (die zou moeten volstaan voor 24 normale HD monitoren) maar dat de GPU ook een limiet kan hebben bij het maximaal aantal aan te sturen monitoren.

Het zal vast opgehelderd worden voordat de kaart ook daadwerkelijk op de markt is.
Denk eerder dat de performence omlaag gaan als je meer schermen aanstuurd. Dus afhankelijk wat je gaat doen kan je en x aantal schermen aansturen.
Je hebt het over 4k schermen die 4x het huidige aantal pixels hebben, en nee niets is onbeperkt.
Helaas, de data eruit pompen blijft een heikel punt, tenzij je lage resoluties gebruikt, wat het nut nogal beperkt. Displayportjes zijn verder wel redelijk klein (in mini-formaat), maar 6 is echt wel het maximum wat er op zo'n kaart past zonder break-out-bracket. Dat tezamen kost je voor 1080p al een hoeveelheid pixels van 3000x4000 die je moet aansturen, als je er 4k-schermen aanhangt heb je 4x zoveel pixels te renderen. Dat zou voor ongeveer elke beeldfanaat genoeg moeten zijn :) Als jij iets weet waarvoor 6xUHD niet voldoende is hoor ik het graag, maar voorlopig denk ik dat dan de prijs van een paar extra GPUs wel je minste zorg is :D

ps. USB is een tikkie traag hiervoor, een beetje Displayport 1.2 doet 17 Gb/s waar USB3.0 met 4 Gb/s haalt (als hij dat al haalt). We hebben mooi speelgoed, maar ook (ietsje) grotere schermen.
Damm wat een beest.
Ik ben benieuwd hoeveel van die 16GB ze nu al kunnen benutten.

Dit soort kaarten hebben altijd wel meer geheugen gehad. Maar meestal maar 2x zo veel. Dit is 4x meer dan de desktop kaart.
Jammer dat de sheets zo opgeblazen zijn met "verbeterde prestaties"
De vergelijking met FireGL kaarten vind ik raar om te maken, de huidige generatie zijn de AMD (geen ATI) FirePro kaarten.
Deze kaarten zijn geschikt voor de zware 3D toepassingen en video bewerkingen.
Dit is niet echt High end maar eerder "Ultra high end" om in de AMD aanduiding te blijven :)
Waarom zit er PS/2 achtige poort op?
Ik heb het even opgezocht en dat lijkt een poort voor VESA Stereo, een standaard voor 3D-apparatuur.

Zie ook:
http://en.wikipedia.org/wiki/VESA_Stereo
Zo een kaart zie ik nog niet direct in mijn Tower passen. Er staat precies een handvat op de achterkant.
Dat is geen handvat. Dat is om de kaart "Full Length" te laten zijn. Dit past dan weer in een sleuf (welke in veel workstations zit) zodat de kaart goed vast zit en niet kan doorhangen.
Ze hadden er ook een kruiwagen bij kunnen leveren voor dat geld ;)

Maar alle gekheid op een stokje: dat is wel een lading pwer die je dan hebt zeg! Daar kun je (zonder Sli) een aardig potje mee gamen denk ik zo, hah! Beetje duur voor een game-kaart misschien, maar toch.

Ben benieuwd hoeveel winst dit soort kaarten geven bij o.a. video/audio producties tegenover een normale "high end" kaart.
Ben benieuwd hoeveel winst dit soort kaarten geven bij o.a. video/audio producties tegenover een normale "high end" kaart.
Waarschijnlijk helemaal niks aangezien de drivers van deze kaarten totaal niet geschikt zijn voor Gaming

Ze zouden in principe alleen sneller kunnen zijn als ze hogere clocks of/en meer streamprocessors hebben
Daarom vroeg ik ook hoeveel winst dit soort kaarten tegenover high-end kaarten zou geven bij o.a. video/audio producties, en niet gaming :)
Net zoveel powerrr als een standaard 290x, die toch echt 7-8x goedkoper is. Dat geheugen en die drivers gaan in een potje CoD het verschil niet maken :)
en het feit dat die een dp rate heeft van 1/2 ipv 1/8...
Als de behuizing aan de ATX standaard voldoet dan zal deze kaart gewoon passen. Het betreft waarschijnlijk gewoon een full-length kaart, welke de gehele diepte van de kast benut.
Is dit de ''grauw'' terug tegen Nvidia`s GTX Titan Z (dual gpu) ?

nieuws: Nvidia introduceert high-end-videokaart met twee gpu's

Het blijven immers concurrenten.

Wordt spectaculair als ze komen met betaal bare prijzen.
Totaal niet. De Titan Z is puur een gamers kaart, deze Firepro is gericht op de zakelijke markt.
Ben benieuwd waar we naar toe gaan met deze GPU's in de toekomst.
Intel 12GB gddr5 vs AMD16GB gddr5
Wat is het volgende, mss een GTX 800 met 8GB gddr5 speciaal voor 5k monitors? :P

Offtopic : Lol "-1" als forumscore op mijn bovenstaande post :/

[Reactie gewijzigd door MISTERAMD op 27 maart 2014 21:33]

'Can mine scrypt-n for the next decade'
Aardig mine kaartje ja :p

Gaat zoiets kosten dan, eurootje of 4000?:p
Doe maar 6k+ ;) Ik zou toch liever een ASICje pakken voor m'n Scrypt (ja die zijn er nu, ongeveer), of een bende 280xjes.
Geheugen blijft duur spul, zeker voor high end.
Een van deze kaarten is bijna zo duur als een Mac Pro met twee Pro-kaarten. Hoe zou deze monsterkaart zich verhouden tot die in de Mac Pro? Die stuurt geloof ik ook 6 4K schermen aan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True