AMD kondigt Radeon Pro V340 met twee Vega-gpu's en 32GB hbm2 aan

AMD heeft een nieuwe kaart in zijn zakelijke Radeon Pro V-serie aangekondigd. De Radeon Pro V340 heeft twee op 14nm geproduceerde Vega-gpu's, aangevuld met error correcting code-hbm van de tweede generatie.

AMD richt zich met de Radeon Pro V340 met name op de markt voor desktop as a service, blijkt uit de aankondiging. De gpu-ontwerper benadrukt dat de kaart met zijn geheugenhoeveelheid tot aan 32 virtuele machines van 1GB ondersteunt. Daarnaast is de kaart geschikt als accelerator voor visualisatietoepassingen zoals cloud gaming, aldus AMD.

De kaart ondersteunt AMD's MxGPU voor het hardwarematig virtualiseren van gpu's. Die techniek concurreert met Nvidia's GRID en wordt onder andere ondersteund door Citrix en VMware. AMD deed de aankondiging van de Pro V340 dan ook tijdens VMworld, de conferentie voor virtualisatie en cloudcomputing van VMware.

De Radeon Pro V340 heeft een geïntegreerde engine voor het coderen van zowel h264- als h265-videostreams en er is een AMD Security Processor aanwezig, voor onder andere versleutelde opslag. Volgens AMD moet de Pro V340-accelerator in het vierde kwartaal van dit jaar beschikbaar komen. De prijs is nog onbekend.

AMD Radeon Pro V340AMD Radeon Pro V340

Door Olaf van Miltenburg

Nieuwscoördinator

27-08-2018 • 08:14

38

Reacties (38)

Sorteer op:

Weergave:

Nou, het heeft nog best lang geduurd tot AMD eens met iets bruikbaars kwam voor deze markt. Hopelijk drukt wat concurrentie de prijzen van de GRID licensies wat naar beneden.
Volgens mij zijn ze al aardig lang actief op dit gebied. Ik bedoel deze firepro kaarten worden toch al langer gebruikt voor dit doel?
"[..]iets bruikbaars[..]" ;)

Maar inderdaad, ze hadden al wat, maar is bij mijn weten nooit echt aangeslagen.
Volgens mij hebben ze allebei een hele andere insteek. Het is zo dat nVidia totaal anders werkt dan AMD. Je kan stellen dat nVidia de kaart logisch in parten verdeeld waardoor een enkele of een paar VMS de hele videokaart kunnen consumeren waardoor de capaciteit invloed heeft op de performance van de resterend aangesloten VMs. Een hypervisor kan logisch capaciteit toevoegen of wegnemen van een VM. Bij AMD is er geen sprake van een logische opdeling maar juist wel van een fysieke. Het voordeel is dat de performance erg voorspelbaar zal zijn maar helaas ook weer vast zit aan de opdeelfactor en kan je niet dynamisch capaciteit toevoegen of wegnemen. Dus wanneer je max 32 opsplitsingen kan maken dan kan je kiezen uit 32 x langzame VMs of een verdeling met sneller VMs. Bv. 1VM die 8/32 slices verbruikt waardoor je nog 24 enkele slices overhoudt etc die je weer aan andere VMs kan uitdelen. Het nadeel is dat dit dus niet makkelijk aan te passen is maar wel van te voren een performance kan garanderen. Ik denk als ik dus een scenario heb waar een 6 tal ontwikkelaars zware cad programmatuur gebruiken ik absoluut voor AMD zou kiezen. Je wil juist dan dat de performance gegarandeerd is en je zou dan bv kunnen zeggen dat je 6 VMs maakt met ieders 5 van de 32 slices en er zo dus 2 overhoudt of 2 met 6 en de andere 4 met 5/32ste. Dus door te stellen "iets bruikbaars" doe je AMD te kort. Ze hebben een totaal andere approach die voor CAD/CAM bv wellicht een verstandigere use case oplevert. Voor pure VDI denk ik dat nVidia een slimmere keuze is. Lees hier een goede uitleg verder.

[Reactie gewijzigd door InsanelyHack op 24 juli 2024 23:43]

Klopt ze zijn er al langer mee bezig.
ik moet helaas wel zeggen dat ze wel erg achterliepen ten opzichte van Nvidia Grid.
Hoop dat ze hiermee een inhaalslag hebben en dat vmotion word ondersteund op ESXI :)
hmmmmmm. Hopenlijk komt hier ook een consumenten variant van, een opvolger voor de r9 295x2..... Yummy!!
Gezien Crossfire en SLI zo goed als dood zijn is die kans denk ik heel klein. Game dev's nemen de moeite niet meer om support in te bakken wat met DX12 en Vulcan wel de bedoeling is en dan is de scaling erg goed. Dat gezegd te hebben denk ik niet dat er een consumenten versie komt.
Daarnaast is het TDP 300 watt voor de twee GPU's dus ze gaan relatief laag clocken tov de desktop kaarten die we nu hebben want die verbruiken met 1 GPU al 300 watt als je hem vol open gooit. Nu gebruiken die wel hele inefficiente core voltages. Dus deze kunnen nog best wel 1300MHz halen met een lage v-gpu van iets van 900mv-1050mv.

Mijn Vega 56 deed met 900mv nog 1450MHz. slechtere chips ook nog 1400+. Maar ze zullen wel wat marge pakken voor stabiliteit.
Maar DX12 en Vulcan zorgen er juist voor dat Crossfire en SLI niet meer nodig is, en ja devs moeten daar wel een heel klein beetje moeite voor doen, maar dat is voor veel game developers niet eens aan de orde omdat die gebruik maken van de bekende commerciele game-engines zoals Unreal, Unity of Cry welke dit inmiddels al ondersteunen.
Klopt maar een maar dev's moeten en moeite voor doen en daar gaat het mis.
Op een of andere manier is de Multi GPU support in moderne games heel erg slecht. De helft van de games kan er niets mee en dat is heel erg zonde van zo'n dure setup. Dus op die manier gaat het van zelf dood bloeden :'( Erg jammer DX12 en Vulcan hadden de juiste dingen in huis om wat nadelen van Multi gpu weg te nemen en nu wordt het nog minder gebruikt dan voorheen toen alles in drivers gefixed werd.
Het is niet een klein beetje moeite.

Zelfs DICE en EPIC doen dit niet in hun engines. Zolang de engines het niet gaan ondersteunen, en dat zal pas vanaf de volgende generatie zijn. Zal vrijwel geen game het implementeren, want voor <1% van de gebruikers is de hoeveelheid development niet te verantwoorden.

Want Unreal, Unity, CryEngine, IdTech, Frostbite en vele andere engines supporten multi GPU in de vorm van SLI/CF. Maar niet Heterogeneous Multi-GPU van Dx12/Vulkan.
De 295X2 was een geniale kaart, opvolger daarvan zou zeker leuk zijn!

...maar, zoals nelizmastr al zei, multi GPU support is tegenwoordig waardeloos, dus voor gaming zou dat geen goede zet zijn.
Die is er een soort van geweest in de vorm van de Radeon Pro Duo echter zat dit wel in een ander segment dan de game markt en daar was de prijs ook naar.
De markt voor multi-GPU kaarten en multi-GPU opstellingen in zijn algemeen is klein en niet langer relevant voor consumenten, dus die hoop kan je laten varen :Y)

[Reactie gewijzigd door nelizmastr op 24 juli 2024 23:43]

Okee, heel erg off-topic (mod me down), maar ik vraag me nu toch af wat die emoticon betekent: :Y)
Het lijkt op een soort medaille of misschien is het een vork? En welke emotie draagt het uit? :?
Okee, heel erg off-topic (mod me down), maar ik vraag me nu toch af wat die emoticon betekent: :Y)
Het lijkt op een soort medaille of misschien is het een vork? En welke emotie draagt het uit? :?
Het betekent, 'zo zit de vork in de steel'.
Neu, hier krijg je +2 voor. Inderdaad een commentaar van onschatbare waarde.
Crossfire is dood, dus tenzij je die gpu's wil gaan virtualiseren heb je er weinig aan.
Wel gaaf! En dus als ik het begrijp voor bijvoorbeeld o.a. cloudgaming. Maar deze kaarten met 2 gpu's moeten toch actief gekoeld worden neem ik aan? Of gebeurd dat vanuit de server installatie? Ben er eigenlijk niet heel bekend mee. 8)7
wordt gekoeld door de server
Ah vandaar! Vind het wel gaaf!
De server blaast de lucht door de kaarten. Waarschijnlijk zitten er meerdere in een blade.
Wat is die connector op de achterkant?
Gezien AMD zegt dat er geen video uitgangen zijn.

Edit: HWI heeft navraag gedaan, het is een mini DisplayPort. https://nl.hardware.info/...el-bekend#comment-1131941

[Reactie gewijzigd door Verwijderd op 24 juli 2024 23:43]

Lijkt een mini displaypoort connector. Wellicht voor een boot scherm van de server?
meeste zoniet alle servers gebruiken asmedia chips voor onboard graphics en de IPMI interface.
En dit laatste is iets wat ik geen enkele systeem admin zie uitschakelen tenzij verplicht.
Dus het boot scherm gaat niet via extra grafische kaarten maar via de onboard kaart.
Denk dat die displaypoort aansluiting eerder is voorals je de kaart in een render/CAD workstation zou gebruiken.
Dan kan je via displayport daisychain/MST hub toch een paar monitors aansluiten.
Klopt HWI heeft navraag gedaan bij AMD.
https://nl.hardware.info/...el-bekend#comment-1131941

[Reactie gewijzigd door Verwijderd op 24 juli 2024 23:43]

Kan je hiermee dus 1 flinke gaming desktop neerzetten met 2 VMs met 50% van de CPU en 50% van de GPU per stuk? Zou leuk zijn voor bij ons thuis als het rendabel en efficient is (wat het waarschijnlijk niet is)

[Reactie gewijzigd door Gamebuster op 24 juli 2024 23:43]

Ik denk eerlijk gezegt dat je beter af bent met gewoon 2 vega 56/64 kaarten, beide qua performance in games en qua prijs ;D
Snap niet dat ze dit wegzetten als cloudgaming kaart.
Verwacht dit meer als offloading voor VDI/Xenapp omgevingen.
zeker met windows 10 VDI is dit mogelijk intresant als je er een busnes case ervoor hebt.
Volgens mij zet AMD de kaart toch ook zo weg? Niet voor niets dat ze hem presenteren op VMworld en dat ze vol trots reppen veel meer users aan te kunnen dan de concurrent
Ik doelde op de volgende tekst in het artikel.
"Daarnaast is de kaart geschikt als accelerator voor visualisatietoepassingen zoals cloud gaming".
Vraag me af wat hun definitie is van cloud gaming.
Hoe gaat de kaart om met het de- en encode van meerdere h.265 streams? Ondersteunt hij dat ook netjes hardwarematig voor meerdere gebruikers?
Hier iets meer info

https://www.servethehome....gb-vdi-solution-launched/

En je kunt hem ook gewoon op een monitor aansluiten via de mini-displayport
Ik dacht meteen aan vroegere kaarten zoals de ATI Radeon 3870 X2 (GeForce 9800GX2) sandwich kaart. Maar dit is meer voor servers, jamner dat er voor de consumenten geen kaart uit komt.
Mooi kaartje, knap dat ie helemaal gesloten is zonder fans en dus, getuige de afbeelding, passief gekoeld kan worden. Dat terzijde zou het nu toch wel eens fijn zijn als AMD zich met Radeon eindelijk weer eens met iets concurrerends op de consumenten zou gaan richten, zodat Nvidia wat in hun obscene prijzen moet gaan snijden.
Dit lijkt me een leuke kaart voor LookingGlass :9 LinusTT

@Dylan_R
Het zit nog in Alpha, naar mijn weten waren de grootste problemen er inmiddels uit/je zou een USB controller kunnen opnemen in je VM

[Reactie gewijzigd door Verwijderd op 24 juli 2024 23:43]

Had LookingGlass niet wat problemen met VEGA kaarten? Ik heb het zelf ook geprobeerd maar ik moet zeggen dat de muis erg wonky is.

Op dit item kan niet meer gereageerd worden.