Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD kondigt Radeon Pro WX 8200 aan

AMD heeft de Radeon Pro WX 8200 aangekondigd, een professionele videokaart met Vega 10-gpu en 8GB hbm2, die in september voor een adviesprijs van 999 dollar op de markt komt. AMD richt zich op gebruik voor real-time visualization, virtual reality en rendering.

De singleprecision-prestaties van de AMD Radeon Pro WX 8200 vallen met 10,8 tflops lager uit dan die van de WX 9100, die 12,3 tflops behaalt. Ook de halfprecisionprestaties liggen met 21,5 tflops tegenover 24,6 tflops lager. AMD introduceerde de WX9100 in oktober vorig jaar, maar die kaart kost met een adviesprijs van 2199 dollar een stuk meer.

AMD heeft bij de WX 8200 8 van de 64 compute units van de Vega 10 uitgeschakeld, waardoor het totaal aantal streamprocessors op 3584 uitkomt. De Radeon Pro WX 8200 heeft een geheugeninterface van 2048 bits breed en er is 8GB hbm2, waar dat bij de WX 9100 16GB is. Net als die kaart heeft de WX 8200 AMD's High Bandwidth Cache Controller, de Enhanced Pixel Engine, error correcting code-geheugen en de Secure Processor.  Er vier mini-displayport 1.4-uitgangen aanwezig.

AMD brengt zijn nieuwe kaart in de Radeon Pro-serie begin september uit voor een adviesprijs van 999 dollar.

Door Olaf van Miltenburg

Nieuwscoördinator

13-08-2018 • 07:46

42 Linkedin Google+

Reacties (42)

Wijzig sortering
¤999 vs ¤1800 voor de P5000.... makkelijke keuze. ;)
OF je koopt een p2000, die vergelijkbaar presteert aan de wx9100 in solidworks die de helft kost van de wx8200 of 1/3 van de wx9100. Of je koopt een vega 64/56 die even goed slecht presteert als de pro versies in solidworks - waarbij de gaming kaarten van nV duidelijk minder presteren bij sommige applicaties, maar wat jij kiest voor productiviteit hang natuurlijk af van wat je gebruikt en aan welke regels je moet voldoen (of een gaming gpu voldoende is of dat je voor een gecertificeerde kaart moet gaan).

@Randleman De p5000 & p6000 waren de top modellen en hadden geen concurrentie, waren toen ook 2x duurder (voor de duidelijkheid de quadro gv100 -volta- is nu het topmodel @10k). wx kaarten zijn wel goedkoper maar nog steeds niet overal even goed ondersteund.
Maar de prijzen van deze kaarten vallen in het niet vergeleken met de software prijzen. Solidworks met de CFD plugin ben je al snel 20000 euro kwijt. Soldiworks kaal is al tussen de 6 a 10k en pluggins waarvan er velen zijn tussen de 6k en 22k :) (of je neemt een abonnement en dan betaal je per jaar ~5000 euro ipv het hele bedrag in eens)

[Reactie gewijzigd door D0gtag op 13 augustus 2018 10:28]

Ik zou toch eens naar de driver updates kijken van de AMD Pro GPU's want die waardes die jij hier noemt zijn echt niet actueel meer. De performance van de WX8200 ligt rond het niveau van de P4000 en P5000.
https://images.anandtech....eck_FINAL(1)_15_575px.jpg
Solidworks werkt niet goed met GTX en RX kaarten.

Mijn overklokte Radeon Vega FE (1600 MHz ¤ 1.250 incl waterkoeling) is even snel of sneller dan een ¤ 5.000 kostende Quadro P6000 in solid works (standaard 10% langzamer met oude drivers op stock snelheid).
https://img.purch.com/amd...ya3MtUGVyY2VudGFnZS5wbmc=

Met andere woorden, je kunt een complete Solidworks workstation in elkaar zetten voor dezelfde prijs als 1 Quadro P6000 kaart. Als bedrijf zijnde kun je dat geld beter besteden aan een loonsverhoging voor je personeel zodat ze niet weglopen naar de concurrent.
Dat klopt, maar met vega FE heb je nog steeds geen workstation kaart of certificatie, dus nog steeds onbruikbaar voor veel bedrijven :) Kom er net achter dat je met pro render van AMD ook werkend kan krijgen op een Vega 64 :)

Solidworks werkt trouwens uitstekend met de RX kaart,
zeker nu met prorender, renderde niet zo heel complexe zaken (glas of zo) maar alles ging via mijn cpu. Was eigenlijk de enige reden waarom ik een vega64 heb gehaald :)

Voor de liefhebbers: AMD Prorender (ook voor andere pakketen) Het is een plugin binnen solidworks. Tijdens installatie vraagt hij om een key, deze kan je gratis krijgen als je je registreert of je doet dat niet en je neemt gewoon deze:
To activate the add-in license, please enter the following activation key: GPUOpen2016
Voor de duidelijkheid dit is dus verkregen bij de registratie en dus niet een illegale key :+ .

[Reactie gewijzigd door D0gtag op 13 augustus 2018 23:10]

Vega FE kan met dezelfde drivers werken als de WX9100, het grote verschil is dat de FE geen ECC geheugen heeft.
Bedrijven van formaat zijn hier toch totaal niet mee bezig. Heb je servers voor staan lijkt me?
Bedrijven zijn heel erg bezig met het behouden van hun personeel, zeker in de technische sector en dat kost geld. Als je GPU werkzaamheden via servers laat verlopen is dit een hele goed oplossing https://www.servethehome....dition-software-released/. Bedrijven van formaat letten op de kleintjes (kijk maar een hoe Apple omgaat met z'n leveranciers, het gaat dan over komma's achter de centen en daar zijn ze heel rijk mee geworden) zo worden ze groot.

En ja, wij hebben servers en workstations en letten op alle kosten.
Ik heb eens even gegoogled, en SolidWorks is blijkbaar een CAD programma...

Zijn er daar niet meerdere van? En zelfs ook gratis alternatieven?
Steekt SolidWorks dusdanig hard met kop en schouders boven de rest uit dat zo'n prijskaartje gerechtvaardigd is? Of missen al die andere (goedkopere) alternatieven gewoon cruciale functionaliteit waardoor ze in (sommige/vele) toepassingen gewoon niet toereikend zijn?
high end cad zoals SW, catia, NX etc kosten gewoon een hoop centjes
5.000 per jaar is echt peanuts als je daardoor je ontwerp- en productieproces versneld. Op de een of andere manier weten veel mensen software niet op waarde te schatten. Terwijl een nieuwe machine die de productie verhoogd wel prima geaccepteerd word. Het zijn beide tools die bijdragen aan een hogere competiviteit.
Op de 1 of andere manier willen mensen graag iets tastbaars hebben dat een bepaalde waarde representeert.

[Reactie gewijzigd door Pb Pomper op 13 augustus 2018 13:50]

Goedkopere alternatieven, nee die zijn er niet echt. Soms lijkt het zo maar met alle modules erbij om de functionaliteit van solidworks te evenaren, komt het grotendeels op hetzelfde neer.
Vergeet niet dat de zelfstandige/bedrijven die dit aanschaffen er ook hun centen mee verdienen.

Autodesk is een alternatief, fusion 360 en allerhande cloud gebaseerde software. Maar nee niet veel goedkoper, en net zoals bij solidworks/catia is de toegevoegde waarden van dit soort gpu's minimaal in het algemeen. Gaat om specifieke taken zoals renderen en simulaties die baat hebben bij Quadro/Radeon pro. En de ondersteuning bij Quadro is simpelweg beter, zei het oneerlijk.

[Reactie gewijzigd door Batauwer op 13 augustus 2018 16:59]

Maar bijna alles draait op CUDA.
Daar heeft AMD een progamma voor die het kan omzetten zonder prestatie verlies.
Maar dan moeten makers van software dat wel gebruiken en beschikbaar maken..
Ze hebben dezelfde prestaties?
Nee de WX 8200 is iets beter.
Ik was best even onder de indruk toen ik de benchmarks zag. Maar wist niet dat de P5000 al 3 jaar oud is....
Kan je nagaan nog steeds ¤1800 vragen. ;)
Ja, zonder enige concurrentie of alternatief kun je natuurlijk vragen wat je wil :P. Maar nu zal er inderdaad iets aan de prijs gedaan moeten worden.
Maar vanaf vorig jaar oktober was daar toch al de WX 9100 in datzelfde prijssegment als concurrent?
Maar het gaat niet altijd alleen maar om prijs, sowieso is 1000 euro niet altijd het probleem in deze context.
Probleem voor AMD is dat als je, bijv, solidworks boost gpu support wilt, je een nvidia gpu nodig hebt wegens CUDA only.. CUDA blijft een probleem voor AMD binnen de content creation / viz / cad etc markt..

[Reactie gewijzigd door maratropa op 13 augustus 2018 10:04]

Wat gebeurt er als je die 8 CU's inschakelt, zal die dan volledig stuk gaan? Of is het gewoon de zekerheid willen hebben, terwijl 64 echt wel mogelijk is?
Volgens mij is het ook eens zo geweest dat een soort failed % verkocht werd onder een andere naam. Dus ze maken x aantal van het top model maar een x aantal haalt niet de specs van het model dat ze wilde produceren en die houden ze apart om een nieuwe kaart van te maken.

Geen idee of dit nog gebeurt en of dit ook is wat AMD hier doet.

Er zijn ook wel kaarten geweest die te unlocken waren waardoor je als je handig was een gratis upgrade kon krijgen.
Ze testen een aantal per batch. Als blijkt dat een bepaald percentage die specs niet halen, dan wordt de gehele batch er tussenuit gehaald. Maar dat betekend niet dat alle GPU's/CPU's uit die batch de specs niet haalt. Degenen die het niet halen, worden lagere versies van de GPU of CPU. Het is niet dat AMD/Intel een X aantal willen produceren, ze willen natuurlijk zoveel mogelijk produceren van hun beste product, daar zit de meeste omzet / winst immers. ;) Dat ze lagere versies alsnog kunnen maken, zorgt ervoor dat ze niet alles hoeven weg te gooien. :)
Als het goed is testen ze alle units, niet enkel een paar in een batch. De kwaliteit is namelijk niet consistent genoeg binnen een batch om enkel een paar units te testen
Er zitten nogal wat GPU's/CPU's per batch, als je dat stuk voor stuk moet testen, is nogal tijdrovend. Lijkt me vrij onlogisch om alles te testen. Zeker als blijkt dat sommige CPU's/GPU's wel gewoon volledig 'open' kunnen achteraf.
Zover ik weet wordt elke die apart getest, en ook nog eens elke afgewerkte chip. Dit is noodzakelijk, omdat er vaak genoeg iets niet werkt én voor de "binning".
Gelukkig is dat proces volledig geautomatiseerd...

[Reactie gewijzigd door the_stickie op 13 augustus 2018 10:43]

heb wel eens videos van fabrieken gezien waar gpus gemaakt worden en alle gpus gaan wel degelijk stukk voor stuk in een test bench waar een snelle test gedraaid worden en wat dta uit komt rollen.
Dit hele proces duurder nog geen minuut per videokaart.
De werker stopte de kaart in het slot sloot de monitor kabel en de power aan en startte de test ondertussen werd de volgende kaart al in de testbench gedaan en tegen de tijd dat dat aangesloten was was de eerste klaar met testen en werd de kaart eruit gehaald en zo voorts.
Het lijkt heel vel werk maar met 10 werknemers die dit testen is de 100.000+ kaarten per maand al haalbaar.
Of dit ondertussen al machinaal gaat weet ik niet. ik denk zelf van niet vanwege het inpluggen van de kabels maar ongeteste kaarten verkopen lijkt me erg risicovol.
Voor zover ik weet worden individuele chips allemaal automatisch getest, simpelweg omdat de kwaliteit erg variabel is. Afhankelijk van het proces (16, 14, 10nm) en de grootte van de chip kan het zijn dat er in elke wafer maar 80% volledig goede chips zitten, of nog minder; je ontkomt er dus niet aan ze allemaal te testen.

Voor hele videokaarten is de kwaliteit wel vrij constant omdat de meeste onderdelen met constante kwaliteit gemaakt kunnen worden (behalve dus de GPU). Van hele grafische kaarten worden er daarom, neem ik aan, inderdaad maar een aantal per batch getest.

[Reactie gewijzigd door Dorstlesser op 13 augustus 2018 11:16]

Bekendste voorbeeld hiervan is van AMD volgens mij, heb hier nog jaren gewerkt met een quad core CPU die was verkocht als dual core.
Kan me de (als ik het goed heb) de Athlon XP 2500+ herinneren, die zonder problemen als 3200+ door het leven ging. (Was volgens mij ook een teruggeschroefde/afgekeurde 3200+) heeft mij toen iets van 200 euro`s "bespaard."
Of nog eerder; de AMD Duron 600 op 900 laten lopen door met een HB potlood de doorgelaserde contactjes weer te verbinden... :)
Klopt dat was de manier waarop de multiplier gekozen werd. Die CPU's waren op een gegeven moment gelokt en als je die dan doorverbond kon je hogere snelheden kiezen. Je had inderdaad ook Athlon X2''s welke eigenlijk X4's waren waar je het EA weer aan kon zetten met een bepaalde bios.

Zo zijn er veel van dit soort dingen geweest. 9500 Pro kaarten welke gewoon uitgeschakelde 9700 Pro's waren en die kon je met een bios flash volledig actief maken. X800XL die je naar XT kon flashen. Recenter HD6950 kaarten na een bios flash gewoon HD6970 konden worden en waarbij alle shaders werkte.

Radeon 8500 LE waar andere weerstanden op zaten waardoor de V-GPU en V-RAM voltages lager waren als je die dan veranderde kon je nog hoger komen dan de stock kaarten (hoger voltage dan stock dan wel)

En dit zijn pas een paar voorbeelden. Er zijn er vast nog wel wat meer maar deze wist ik nog uit mijn hoofd.
kaart voor enterprise niveau.. Daar wordt dat meestal niet gedaan maar wilt men idd vooral zekerheid :-).

zelfs al gaat dat werken, dat gaat nauwelijks herhaalt worden :-). Nu voor de tweaker met wat geld leuk projectje lijkt me :-) .

[Reactie gewijzigd door white modder op 13 augustus 2018 08:10]

Ze kunnen zelf kjiezen welke van CU's ze uitzetten. Dus als een GPU niet helemaal perfect is kun je die CU's uitzetten, en toch volldige funtionele GPU verkopen, maar dan wat minder/goedkoper modelletje.
Even iets aparts trouwens; waarom gebruiken AMD en Nvidia zelf altijd 1 fan? Je ziet altijd terug in de resultaten dat het een stuk minder presteert in de prestaties. Ik bedoel, voor de 'low-end' kaartjes is dat geen probleem maar voor de 'high-end' kaarten wel.
Dit design koelt beter als je er meerdere dicht bij elkaar hebt, zoals in serverracks wel eens het geval is.
De warmte gaat met deze constructie direct naar buiten.
De airflow in workstations en servers houd meestal rekening met een koeling als deze voor pci(e) kaarten. Open lucht koelers zouden daarnaast alle componenten binnen het systeem opwarmen wat vaak ongewenst is in said systemen.
Omdat een blower fan voor nVidia/AMD voordelen heeft.

Het staat ze toe voor de lowest common denominator bepaalde prestaties te garanderen. De kaart is minder afhankelijk van aanvullende airflow in een systeem om de warmte van de kaart af te voeren, de kaart voert immers zijn eigen warmte af.

In rack en workstation omgevingen is het bovendien zinnig om de warmte van de componenten zo snel mogelijk naar buiten af te voeren, en om ervoor te zorgen dat individuele componenten andere componenten zo min mogelijk opwarmen. Helemaal in situaties waar er meerdere van dit soort kaarten dicht op elkaar gepakt zitten.
In extremis: in een rack dat volgepakt is met dit soort kaarten wil je echt niet hebben dat de kaarten niet hun eigen warmte afvoeren. Dan krijg je namelijk snel een statie waarbij je door de gezamenlijke warmte afgifte van de kaarten met een thermal runaway geconfronteerd wordt. Waardoor het hele zaakje gaat throttlen of instabiel wordt.
Zal het wezen voor een iMac 2017 als egpu ?
Komt AMD dit jaar nog met Vega 56/64 opvolgers/refreshes oid?


Om te kunnen reageren moet je ingelogd zijn


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True