Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

Virtualisatiespecialist VMware en hardwarefabrikant Nvidia gaan samenwerken om betere ondersteuning voor 3d-graphics in virtuele machines te bewerkstelligen. VMware krijgt daartoe ondersteuning voor Nvidia's Quadro-gpu's.

De bedoeling is dat gebruikers niet langer een grafische kaart in hun workstation nodig hebben om 3d-graphics te kunnen gebruiken, zo heeft VMware tijdens zijn VMworld-conferentie in Kopenhagen aangekondigd. In plaats daarvan kunnen de beelden op de server in een virtuele machine worden gerenderd. Daardoor kunnen intensieve grafische applicaties ook draaien op lichtere hardware, zoals tablets en telefoons.

Voor serverside 3d-graphics moeten echter wel Nvidia Quadro-gpu's worden ingezet. Ook moet een dedicated gpu in de server beschikbaar zijn voor elke gebruiker die de 3d-versnelling wil gebruiken. Erg schaalbaar is de techniek vooralsnog dus niet. VMware en nVidia hopen dat de eerste gebruikers eind dit jaar kunnen proefdraaien.

Naast de samenwerking met nVidia kondigde VMware nog een aantal software-updates aan, zoals verbeterde versies van vCenter Operations Management en Go Pro. Nieuw is vCenter Protect Essentials Plus, en dat is beheersoftware om zowel fysieke als virtuele machines te beheren. Een ander nieuw softwarepakket is VMware vFabric AppDirector, dat is bedoeld om applicaties uit te rollen. VMware claimt dat de software systeembeheerders veel tijd kan besparen omdat ze op basis van een enkele blauwdruk een heel serverpark kunnen uitrollen.

Moderatie-faq Wijzig weergave

Reacties (49)

Kortom je gaat GPU's in servers inbouwen voor het renderen van deze taken... Ga je dan niet heel veel warmte genereren? Zijn er uberhaubt servers zo ingericht voor bedrijfs omgevingen? Ik zie hier alleen maar racks hangen waar niets in zit qua GPU kaart. Denk direct aan warmte, airflow, afmetingen...

Mijn ervaring met hoger segment desktop GPU's is dat deze nogal wat hitte genereren. Waar een CPU 40c is met stock cooler zie ik GPU kaarten direct richting 60-70 schieten.

[Reactie gewijzigd door DreamCatchers op 20 oktober 2011 17:28]

Servers met sterke GPU's zijn al langer mogelijk. Microsoft speelt hierop in met technieken in combinatie met RDP. Op die manier zou een terminal server-sessie net als een desktop kunnen worden uitgevoerd. Overigens bestaat dit al eventjes: sinds de introductie van Windows 7 / Server 2008 R2.

Een HD-film streamen is al goed mogelijk hiermee.

De traditionele DC's zijn hier denk ik nog niet op ingericht. Aan de andere kant denk ik dat de doelgroep beperkt is. Het gros van de servers, zal een specifieke taak blijven uitvoeren. Web, database, file, etc. In al dat soort servers is er geen noodzaak voor videorendering.

Het wordt interessant voor terminal servers, en de, steeds populairder wordende, virtual client servers (volledige desktop virtualisation middels Citrix en VDI). De cliënt-stations kunnen weer thin clients worden, en vanaf de server draat er een omgeving waarbij serieuze desktopgelijknis ontstaat.

Ik vind het een goede ontwikkeling! Het werd ook eens tijd. Thuisgebruikers klagen wel eens dat ze niet virtueel kunnen gamen. De industrie steekt hier weinig energie in, omdat het geld komt van de bedrijven en die gamen nu niet bepaald hoog in het vaandel hebben staan (goh ;)).

Als we de dag gaan bereiken dat virtualisatie performance echt gelijk komt te staan aan physical performance, kan dit ook gebruikt worden voor thuisgebruikers. Een soort ware dual boot bijvoorbeeld. Één virtuele kantooromgeving en één virtuele thuisomgeving. Beide maken volledig gebruik van de hardware, maar door de scheiding is beveiliging in beide omgevingen gewaarborgd!

Overigens:
Het tegenovergestelde in de techniek waarin de rendering plaatsvindt op de cliënt. De ruwe bitjes gaan over de lijn, worden gerenderd door de cliënt en het lijkt alsof er op de terminal server een vloeiende video speelt.

[Reactie gewijzigd door Eagle Creek op 20 oktober 2011 20:28]

Dat thin client - fat server model kom je vrijwel alleen maar tegen in het bedrijfsleven. Dat werkt ook allemaal heel mooi zolang je geen 3D toepassingen e.d. gebruikt. Dingen als Flash, HD-content, etc. waren tot voor kort eigenlijk niet eens werkbaar in zulke omgevingen vanwege de enorme traagheid. Dan wordt het voor een bedrijf al snel een veel minder goedkope oplossing en gaat men weer terug naar de fat client - thin server. Met deze nieuwe ontwikkeling spelen de thin client - fat server aanbieders daarop in waardoor thin clients voor diverse bedrijven ineens wel een haalbare oplossing wordt vanwege de betere performance. Dan wordt het ineens heel erg interessant om je gehele infrastructuur naar thin clients om te zetten. Kan weer kosten schelen.

Je moet dit ook absoluut niet zien als een oplossing voor de thuisgebruikers. Daar is het ook vrij nutteloos omdat je qua kosten goedkoper uit bent met een fat client dan met een thin client. Verdere voordelen biedt het eigenlijk ook niet. Het beheer door een ander kan een voordeel zijn voor wie er geen verstand van heeft maar ook een fors nadeel vanwege het feit dat je altijd maar weer van een ander afhankelijk bent. Als je dan iets direct nodig hebt 's avonds maar men het pas de volgende dag kan realiseren omdat ze op standaard werkdagen open zijn is dat voordeel juist een fors nadeel geworden. Ook zie je dat men meer naar kleine mobiele apparaten zoals laptops en tablets gaat. Lekker makkelijk voor op de bank. Op dat vlak zie je vrijwel geen enkele ontwikkeling wat thin clients betreft. Het is uiteindelijk allemaal een fat client waarop een plugin voor een terminal server of VDI omgeving wordt geinstalleerd. Dan ben je dubbelop bezig en dat slaat dus echt nergens op. Dat geldt ook voor de dubbele virtualisatie, je hoeft niet 2 systemen te virtualiseren om werk en privé te scheiden, dat kan ook prima met VDI en terminal server wat we nu hebben. Sterker nog, voor vele mensen is dit iets wat al een jaar of 20 zo werkt! De enige groep waarbij dit problematisch is, is de groep die bijv. sterk afhankelijk is van de grafische performance. En juist daar wordt nu wat aan gedaan.

Het heeft al met al dus ook geen enkele zin om geld in het gamen te steken. Geld steken in 3D ontwikkeling an sich echter wel vanwege de vele 3D toepassingen.
3U cases kunnen perfect gebruikt worden voor servers met grafische kaarten. Hier zie ik voor kleine bedrijven geen probleem in. Voor de iets grotere zou idd de warmte/energie verbruik wel een probleem kunnen zijn.

Toch wel goed dat ze betere 3D-ondersteuning beginnen geven. Dit is altijd het grootste probleem al geweest binnen virtualisatie
Het feit dat mobiele apparaten steeds meer rekenkracht krijgen is natuurlijk heel leuk, maar ik denk dat we uiteindelijk toch onvermijdelijk naar een situatie toegaan (ik heb het dan over vele jaren) waarin de gebruiker eigenlijk alleen nog een mobiele terminal op zak heeft waar de desktop naar toe gestreamed wordt. De mogelijkheden voor mobiele applicaties worden daarmee eindeloos. De complexiteit van een mobiel apparaat wil je eigenlijk zoveel mogelijk verplaatsten naar een mainframe, zoals dat nu al bij steeds meer werkplek systemen gebeurt, die vervangen worden door bijvoorbeeld wyse terminals. Uiteraard kun je een GPS sensor niet via het mainframe aansluiten en zo zullen er nog enkele zaken zijn die je lokaal op de terminal wilt hebben.

Stel je voor, een mobiel apparaat waarmee je zo tussen verschillende desktops kunt schakelen. En eigenlijk is het er al. ( rdp op windows mobile 7 bijvoorbeeld). Het zal waarschijnlijk wel wat extra bandbreedte gaan vragen maar dat lijkt me geen probleem.

Ik vind dit een zinvolle ontwikkeling temeer omdat het misschien ook mogelijk zal worden om een "guest OS" direct toegang te bieden tot de 3d hardware. Ik weet niet precies hoe het nu gaat maar het lijkt mij zo dat er nog een aantal GPU instructies moeten worden vertaald van "guest OS", bijvoorbeeld windows , naar "host OS" wat natuurlijk de nodige vertraging en incompatibiliteit met zich mee brengt.

[Reactie gewijzigd door E_E_F op 20 oktober 2011 19:57]

Bent u mal, twee OS'en tegelijk draaien en tegelijk weergeven op twee schermen kan al lang met de huidige generatie SoC's!

TI heeft een mooie demo van een OMAP 4 die tegelijk Android draait op het beeldscherm van een foon en Ubuntu op een extern 720p display. En 2012 komt waarschijnlijk de volgende generatie OMAP's! En de PowerVR SGX6 serie komt uit. En laat die nieuwe serie OMAP / PowerVR nou grafische capabiliteiten boven die van de XBox360 hebben! En dat in een foontje. Voeg daaraan toe dat de boel kleiner wordt (OMAP5 kon wel eens naar 22nm gaan), dus energiezuiniger. PowerVR werkt vziw ook aan demootjes voor videobewerking op mobiele platformen, natuurlijk een nachtmerrie voor nVidia.

Kortom, wat er gebeurt is het volgende: De vraag naar 'hoge marge' nVidia-GPU's dondert als een kaartenhuis in elkaar. Desktops verkopen steeds matiger. En dat voor een markt waar bijna geen concurrentie is! Ga maar na, wie behalve ATi maakt high-end GPU's voor desktops?

Voor de mobiele markt heeft nVidia voor haar Tegra enorm veel concurrentie: IMG met de PowerVR, Qualcomm, ARM, Vivante: Allemaal ontwerpen ze GPU's, waarvan in ieder geval die van PowerVR doorgaans betere prestaties leveren dan de nVidia-meuk (o.a. wegens Tile Based rendering, wat nVidia desktop-meuk volgens mij niet heeft). Omdat hier veel concurrentie is, kunnen ze hier minder winst per GPU halen.

Dus wat doen ze: Ze gaan op zoek naar nieuwe afzetmarkt voor 'high-margin' produkten. Wat blijkt: Google is bezig met technologie waarbij je een 'desktop op afstand' binnen een browser kan draaien. Potentieel zou dat enorm veel marktaandeel van VMware kunnen wegvreten. VMWare heeft ook erg last van concurrentie (dus marge-compressie): Microsoft, SUN met het naar mijn mening aan VMWare in prestaties superieure VirtualBox (nu van Oracle) en dan ook nog Google... Daar gaat hun mooie winst!

Kortom, er moet wat gehyped worden om mensen producten te verkopen die ze eigenlijk niet nodig hebben.

De gemiddelde 3D CAD-tekenaar kan vast beamen: Hoe vaak loopt de gemiddelde 3D-tekensoftware vast? Antwoord: Om de haverklap (vooral icm PDM). Gaat het dan helpen om die instabiele meuk dan ook nog eens netwerk-afhankelijk te maken?

GPU's / videokaarten zijn momenteel erg duur, $100 of zo is geen uitzondering. Echter, mobiele videochipjes van $20 kunnen evenveel als de videokaarten van een paar jaar terug. Maar wacht eens, toen de GPU's nog erg duur waren, was er geen behoefte om die dingen in een server te plaatsen. Nu worden GPU's rap goedkoper, o.a. door koppeling aan de CPU (in ARM SoCjes en natuurlijk het AMD-APU verhaal, Intel soms met sommige Atom's), waarom zouden we die dan nu in een keer wel ergens anders naartoe willen doen?

Hee en leuk, dat je niet zo'n GPU hoeft te kopen voor $100, maar wat kost 300MB aan serverside-gerenderde frames sturen naar mijn SIM-kaart als ik in Australie zit? O ja, een veelvoud van het bedrag dat die GPU kost! Dus het is alleen maar duurder om het server-side te doen! Tenzij je graag Alcatel-Lucent spekt (met de Femto-cellen).

Kortom, naar mijn mening een wanhopige hoop gebakken lucht van twee 'also-rans' die hun 'cash-cows' zien vermageren en steeds minder melk zien geven.

@air2: Eens, heb het allemaal een beetje aangedikt. Vandaar de opmerking over de femtocellen: Een veelbelovende technologie van Alcatel-Lucent die mogelijk bandbreedte idd veel goedkoper gaat maken, maar ook de toegenomen beschikbaarheid van WiFi en sterkere WiFi signalen kunnen helpen. Verder brengen andere reageerders ook goede argumenten in waarom dit wél handig kan zijn. Echter, ik denk dat het een kleine niche-markt is die hier baat bij heeft; meer dan 90% van de mensen gaat vermoedelijk genoegen hebben aan de geintegreerde mobiele GPU.

[Reactie gewijzigd door kidde op 21 oktober 2011 12:44]

Ben het grotendeels met je eens, maar het bandbreedte/kosten verhaal.. Dat is NU het geval, dus voor NU is de richting onzinnig, maar die bandbreedte wordt hoe dan ook goedkoper, waarschijnlijk via andere technieken. Als je de kosten/bandbreedte berekend van toen je alleen nog maar sms had.... (en dus internet via sms) en nu...
Get the point? Die 300MB is nu waanzinnig duur, maar ik geloof niet dat het over 5 a 10 jaar nog steeds zo waanzinnig duur is. De vraag is, hebben de mobiele telefoons dan niet gewoon een of andere projector, waardoor de resolutie zo hoog kan zijn dat de bandbreedte enorm stijgt tja dat is afwachten, maar ik vind dure bandbreedte nu een te gemakkelijk argument.

Voor de rest, goed geschreven :)

ps
Overigens 9 van de 10 keer zit ik met mijn mobiel gewoon via wifi verbonden.
Ben het redelijk met je eens, maar ik gebruik het zelf juist de andere kant op. Ubuntu uitvoeren op in de terminal emulator, en vanaf je desktop VNC'en, of juist vanaf je mobiel. Altijd je eigen OS bij je, waar je ook je opslag in de iso zit, en die weer regelmatig word gebackuped, en encrypted is. Ben heel benieuwd welke richting de mobiele techniek gaat, en hoe de integratie met de desktops/servers word.
waarin de gebruiker eigenlijk alleen nog een mobiele terminal op zak heeft waar de desktop naar toe gestreamed wordt.
Waarschijnlijk wordt straks alles gecentraliseerd, zodat het daarna weer gedecentraliseerd kan worden en vervolgens weer gecentraliseerd. (Vroeger zijn we immers begonnen met mainframes en terminals, daar zijn we toen vanaf gestapt en nu bewegen we weer in die richting) Overigens lijken mij 'mobiele terminals' niet echt mobiel. Je bent dan te afhankelijk van een derde partij, en dat lijkt mij niet wenselijk. Ik kan er best mee leven dat mijn telefoonverbinding zo af en toe wegvalt ... maar dat ik alle andere applicaties, die niet perse internet of zelfs maar een netwerk nodig hebben, dan ook niet meer kan gebruiken dat vind ik persoonlijk onacceptabel.

[Reactie gewijzigd door HerrPino op 20 oktober 2011 21:26]

Of je kan het andersom zien; je kan dure hardware met niet gering energieverbruik naar je datacenter verplaatsen. Daar heb je alle energie zelf onder controle.

Bovendien kan je nu één gpu inzetten daar waar je hem nodig hebt, terwijl die anders vastzit aan een desktop pc.

Als nvidia en vmware een zeker flexibiliteit en schaalbarheid voor mekaar krijgen, zie ik hier wel markt voor!
Dit roept bij mij ook gelijk de vraag op of je dan altijd die 3D kaart nodig hebt, of bijvoorbeeld alleen als je echt in een applicatie zit op je terminal waar je 3D voor nodig hebt.

In het artikel staat dat je 1 kaart per gebruiker nodig hebt die de 3d versnelling wil gebruiken, zoals ik dat lees heb je dus 1 kaart nodig voor iedere gebruiker die die versnelling nodig heeft. Iemand die alleen outlook heeft open staan heeft dit niet nodig. Dan wordt het toch ineens wel weer heel schaalbaar. Ander voordeel is ook dat je functionaliteit van een computer niet meer aan de locatie is gebonden.
Huidige GPU's zijn niet zo warm meer tegenwoordig, maar nog warm genoeg inderdaad.
Servers zijn meestal ingericht in goedgekoelde ruimtes, en ik vemoed dat de meeste serverruimtes climate control hebben om het eventueel koeler te maken.

Bovendien zijn servers wat 'bloter' dan de gemiddelde desktop computer, al worden ze wel vaak vrij dicht gestapeld en heft dit het andere op.

De opgevangen of weggezogen warmte kan vervolgens wel gebruikt worden om andere dingen mee te verwarmen, hoewel dit niet in alle bedrijfen het geval is helaas.

Wat betreft de 3D ondersteuning, dit is een zeer goed initiatief, en hoewel een GPU-plant moeilijker te realiseren is op het moment, voorzie ik een toekomst waarbij de cloud erg krachtig wordt.
Bestaan wel hoor, zie bijvoorbeeld deze DELL 2U rackunit:

http://www.dell.com/nl/bedrijven/p/precision-r5500/pd

Kunnen 2 Quadro videokaarten in.

[Reactie gewijzigd door Navi op 20 oktober 2011 18:52]

Nvidia verkoopt al een paar jaar speciale cases waarin alleen maar gpu's zitten, speciaal voor CUDA toepassingen. Ik denk dat het dan ook meer een kwestie zal gaan worden van deze apparaten op de vm servers aansluiten. De hypervisor krijgt hiervoor de nodige support waardoor je in de vm's van een heuze 3D gpu gebruikt kunt maken. Leuk voor bijv. VDI's. Daarmee kan dit een goed alternatief worden voor de terminal server oplossingen van o.a. Microsoft en Citrix.
Er zijn al meer fabrikanten die al een tijd workstation blades bieden met daarin één of twee nVidia Quadro GPU's. Via Citrix kon je dan al met een eenvoudig systeem toch 3D versnelling hebben voor bijvoorbeeld CAD-toepassingen. Handig voor bedrijven die werknemers hebben die in ploegen werken, maar niet allemaal op dezelfde vestiging. Op die manier is het ook mogelijk medewerkers thuis te laten werken zonder dat ze een high-end workstation thuis nodig hebben.
Ik weet HP servers heeft waar dat al jaren kan. Waarom zou je dat willen? Een stille thin client zonder bewegende delen aan de userkant met een stapel schermen en de hitte en lawaai producerende zaken aan de serverkant in het serverhok. Grafische kaarten kunnen dus in een server, maar ook een workstation(blade) kan in het rack gehangen worden.

De opties bij de DL580 G7
http://h18004.www1.hp.com...s/13669_div/13669_div.PDF

HP Graphics Options
HP DL580/DL585/DL980 G7 Power Cable Kit 631660-B21
NOTE: The HP ProLiant DL580 G7 can support up to 4 (225W) or 3(300W) Graphic Cards and/or GPGPU Accelerator Options (x16 PCIE add-in cards in slots 11 and 9 will down-train electrically to x8 PCIE which may result in reduced performance.)
NOTE: An option kit will be required per Graphic Card and/or GPGPU Accelerator Options.
NOTE: Depending on the number of GPGPUs required, customers will need to purchase the following I/O expansion boards: DL580G7 PCI-X / PCI Express I/O Exp. Kit: PN: 588139-B21 (Adds two PCI-E 2.0 x16, one PCI-E 2.0 x4 and two PCI-X).
Mm klinkt als hoe linux werkt met de x-server..
Fout: De X-server draait op je client en niet op de server waardoor de GPU van de client gebruikt wordt om te renderen
Je kunt toch gewoon een cliënt hebben op een andere computer?

Wikipedia: "Unlike most earlier display protocols, X was specifically designed to be used over network connections rather than on an integral or attached display device. X features network transparency: the machine where an application program (the client application) runs can differ from the user's local machine (the display server). X's network protocol is based on X command primitives and, with GLX, OpenGL 3D primitives rather than on a more basic framebuffer copying paradigm. This approach allows both 2D and 3D operations to be fully accelerated on the remote X server."

[Reactie gewijzigd door Surkow op 20 oktober 2011 18:48]

Eh je kan gewoon op de server meerdere x-servers starten.

http://wiki.ubuntu.com/X/Architecture hier staat het wat beter uitgelegd. Maar het heet niet voor niks x-"server" en niet x-"client".

Daar naast is het eigenlijk basis linux/unix kennis. Ben er op dit moment voor aan het leren met LPIC 1 voor het 2de examen.
Dan zou ik je kennis maar eens nakijken.

De X-server is de applicatie die op jouw werkstation draait en zorgt ervoor dat X-clients hun beelden gerenderd krijgen!

Als ik ssh naar een server machine, kan ik door X forwarding applicaties (clients) die op de server geinstalleerd zijn draaien op de X-server die op mijn lokale werkstation draait.
Nee, x-server hoeft niet perse op het werkstation te draaien, ga de link eens lezen. Als je een XDM of iets dergelijks gebruikt kan je ook op afstand verbinden met een x-server die dan display manager zal aansturen.
Lees hem zelf maar eens goed!

XDM is ook een client, alleen in plaats van een normale applicatie is het een display manager waardoor je een hele vanuit reomte draait.

Echter worden alle graphics toch door je lokale X-server gerenderd!
Ik neem aan dat je het over een X-forwarded ssh verbinding hebt? bij mijn weten wordt dan juist een lokale x-server gebruikt.

Dit klinkt meer zoals hoe 'remote desktop' werkt... signalen van muis en toetsenbord gaan direct naar de server toe, en de server zet het complete beeld in elkaar.

Wat ik me dan alleen afvraag... heb je niet een behoorlijke verbinding nodig om de beelden vloeiend weer te geven? Een korte rekensom leert mij dat je voor 24-bits kleuren op 1280x1024 60 Hz een bandbreedte van 1800 Mbit/s nodig hebt, die bovendien een lage latency zou moeten hebben...
Gelukkig is er nog zo iets als compressie...
Bijna alle remote oplossing gebruiken compressie. Sommige (zoals Splashtop) renderen het scherm zelfs als video en dan kun je al goed vloeiend werken vanaf 2Mbit.
Ik kan me voorstellen dat compressie goed werkt bij bijvoorbeeld productivity-applicaties, omdat er vaak maar een klein stuk van het scherm echt verandert. Als je echt bewegende 3d-beelden wi8lt oversturen, dan verwacht ik dat de compressie toch al een stuk minder werkt.
En we zijn weer terug bij de thin clients? Niet per se verkeerd natuurlijk.
Juist heel welkom in het bedrijfsleven.
Powerclients zijn veel harder aan slijtage onderhevig, thin clients op werkplekken zijn ideaal :)
Thin clients met de voordelen van een workstation natuurlijk.

Ik snap wel waarom ze dit doen. Grafische prestaties binnen een SBC omgeving is altijd de bottleneck geweest. Altijd de aanleiding geweest om nog specials of dedicated workstations te blijven gebruiken voor die CAD specialist etc.

Het zou mooi zijn als VMware samen met zijn View oplossing een waardig alternatief wordt t.o.v. traditionele desktop pc's en Microsofts VDI.

Dit alles zal wel bekend gemaakt geworden zijn tijdens de VMworld Copenhagen die na vandaag is afgelopen.

Mooi iig om te zien dat ze aan de weg blijven timmeren.
kan toch al met xenserver 6 (nogsteeds beta?) gpu passthrough , moet je ook quadro kaartjes voor hebben (met multi-os), door multi-os feature is het wel beter schaalbaar, dacht ik, meerdere vm's op 1 kaart. het zou ook met amd (ati) kaarten werken, maar dan moet je nog wat dingen instellen (ofzo), is mij nog niet gelukt :D goeie ontwikkeling, maar gaat langzaam (de ontwikkeling) , en alleen maar nvidia (zogenaamd) , ze zullen wel dealtjes hebben met nvidia, enzo, , parallels, xenserver, remote-fx, heb je ook al

zou relaxed zijn als je het gewoon met je consumenten GPU's kan uitproberen
Dat klopt. Binnen het Citrix portfolio zijn er zelfs diverse oplossingen. Via XenServer 6 (inmiddels geen beta meer, maar released, en al een tijdje was het experimental in XS5.6). Daarbij stuur je dus via SR-IOV een (Quadro) GPU door naar een VM. Wat ook kan is een DirectX GPU in een Remote Desktop server en dan XenApp er op zetten. Maar dat is meer bedoeld voor business app ondersteuningen en zaken zoals bijvoorbeeld GoogleEarth. Niet voor CAD o.i.d. want dat is meestal OpenGL. En als laatste had je al heel lang de mogelijkheid om een blade pc met een GPU te remoten via HDX naar een endpoint.

Zo nieuw is dit dus allemaal niet.
Het is inderdaad niet nieuw. En voor gebruikers die alleen tekeningen hoeven te bekijken is dit heel interessant, echter mijn ervaring met dit soort VDI trajecten is dat de echte CAD designers maar ook grafische designers niet blij worden van een virtuele desktop. Ook al is de techniek heel mooi, dat kleine beetje verschil met native performance en weergave is iets waar designers gevoelig voor zijn. Maar desalniettemin zijn er prima use cases voor.
Ik begrijp niet waarom ze met Nvidia aan de slag zijn gegaan. Intel en AMD hebben beide ervaring met zowel de grafische kant als wel met de virtualisatie kant. Zou dit een zet van Nvidia zijn om niet helemaal buiten de virtualisatieboot te vallen?
Omdat Nvidia geen onbekende op dit vlak is. Microsoft heeft een tijdje geleden RemoteFX gelanceerd wat stoelt op hetzelfde idee.

Aankondiging: http://blogs.nvidia.com/2010/07/nvidia-and-microsoft-enhancing-the-virtual-desktop-user-experience-with-microsoft-remotefx/

Meer info voor Microsoft RemoteFX: http://technet.microsoft.com/en-us/library/ff817578%28WS.10%29.aspx
Het zou al heel fijn zijn als VMware Fusion/Workstation de GPU van de Host in de Client kan laten gebruiken.

Dat gaat nu nog niet optimaal, waardoor Windows op je Mac niet volledig tot zijn recht komt (en omgekeerd Hackingtosh op je PC ook niet; is officieel niet ondersteund en vanuit Apple niet legaal, maar zou wel enorm handig zijn).

--jeroen
NVIDIA Tesla aan de server kant, en een Quadro aan de applicatie kant, en zo games in een cloud omgeving laten draaien. Lijkt me een hele goede omgeving voor WOW games, en shooters.
Applicaties kunnen niet draaien op een server? Wat is de 'applicatie-kant' volgens jou?

Ik heb Unreal Tournament 3 vorig jaar al eens zien draaien op Hyper-V via RemoteFX en dat ging best aardig tot best goed. Desalniettemin wil ik gewoon een vette graphics card aan mijn kant ;)
Ik denk dat je meer aan cloud moet denken, de applicatie/service draait natuurlijk gewoon op de server. In de Gui, de gebruikers kant, krijg je de interface, en krijgt je het grafische einreslutaat te zien.
Ik denk dat je eigenlijk wil zeggen dat je graag wilt dat apps op een server draaien ipv op een computer. En verder ook wat cloud/lucht ;)
Volgens mij gebruik jij maar gewoon wat buzzwords, want feitelijk zeg je niets.
Dit artikel heeft niets met cloudgaming te maken en Tesla vs. Quadro is een vergelijking die al helemal mank gaat, Quadro is de tegenhanger van Geforce, Tesla is een architectuur.
Bovendien, cloudgaming en shooters zijn twee dingen die je echt bij elkaar uit de buurt moet laten.

[Reactie gewijzigd door xavierk op 20 oktober 2011 19:29]

Quadro is geen tegenhanger van Geforce, maar allebij een GPU, allebij met hun eigen platform, Quadro wordt veel voor workstatoins en Servers gebruikt, en hebben vaak veel meer geheugen en GPU's, maar hebben allebij vrijwel dezelfde hardware die alleen een beetje anders getweakt is.

Tesla is de applicatielaag, en de hardware laag, juist voor cloud services! Tuurlijk worden daar Quadro GPU voor gebruikt. Tesla zijn soms moutrack borden, soms losse kasten.

Je moet niet aan de huidige x86 games denken, maar om een heel andere architechtuur.

[Reactie gewijzigd door LucasAmsterdam op 20 oktober 2011 19:55]

lijkt mij ook een goed idee zijn we in ieder geval van die aimbot, wallhack, texture hack gasten af,....waar kan ik doneren?

kunnen we weer tenminste gamen met skills en niet wie de beste ondetecteerbare aimbot heeft gedownload,..!!
Yes, eindelijk gamen in een VM, daar zal een goede markt voor zijn. Maar het zal helaas vast nog wel een paar jaar duren voor er echt goede 3dVM's zijn.
Ik geloof niet dat dit artikel hier over ging. Maar 'pass-thru' video-kaarten zitten al om de hoek met ESX 5. Dan kan ik mijn GTX 580 in mijn server stoppen, en dan via pass-thru video gaan gamen.
Wie kan er, 2 jaar na datum, eindelijk het hier gebruikte logo van vmware vervangen door het officiële nieuwe?

http://download3.vmware.c..._SMB_Campaign_NL/logo.gif
Bestaat dit niet allang dan? Ik heb tenminste altijd verondersteld dat het hele online gebeuren ook met virtuele graka's werkte. Hoe anders?

Edit: onlive natuurlijk :p ik bedoelde OnLive :)

[Reactie gewijzigd door harrald op 21 oktober 2011 06:56]

Ik denk dat OnLive een eigen geheime techniek gebruikt.
Is niet veel over bekent zover ik weet.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True