Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties

AMD heeft bekendgemaakt dat Manju Hegde, voormalig medewerker van AGEIA en Nvidia, het bedrijf komt versterken. Hegde, die in het verleden vooral aan physics werkte, gaat zich bij AMD met de aankomende Fusion-chips bezighouden.

Manju HegdeHegde wordt de vice-president van het Fusion Experience Program, en gaat zich bezighouden met het vinden van gebieden en applicaties waarbij de aankomende Fusion-apu's goed tot hun recht komen. Hegde was een van de oprichters van AGEIA, het bedrijf achter de PhysX-ppu. Toen het bedrijf in 2008 door Nvidia werd overgenomen, ging Hegde daar aan de slag bij de Cuda-divisie van het bedrijf. Daarnaast is hij nog als docent electrical engineering verbonden aan twee Amerikaanse universiteiten.

Fusion is de naam voor AMD's aankomende processorlijn, waarbij de cpu en gpu in één package zijn geïntegreerd. Dit type chip, door AMD een Accelerated Processing Unit genoemd, is vergelijkbaar met wat Intel bij de ontwikkeling van de Core i-lijn heeft gedaan. AMD's Fusion-apu's moeten in 2011 op de markt komen.

Moderatie-faq Wijzig weergave

Reacties (31)

Bijzonder, gaan ze nu dan toch Cuda fysics ondersteunen ipv de havok?!
Of toch de standaard van DX11, hopelijk leid dit iig wel tot een standaard die door zowel Nvidia als ATI worden ondersteund.
Nu heb je duidelijk twee kampen, waar Cuda toch de meest gebruikte is, welke door ATI niet hardware matig versneld kan worden.
Het antwoord is natuurlijk OpenCL. DirectX werkt maar op één OS dus is niet zo handig en CUDA werkt alleen op NVIDIA. OpenCL werkt op alle hardware en OS-en...

[Reactie gewijzigd door Maurits van Baerle op 27 mei 2010 12:20]

Het antwoord is natuurlijk OpenCL. DirectX werkt maar op één OS dus is niet zo handig en CUDA werkt alleen op NVIDIA. OpenCL werkt op alle hardware en OS-en...
Ze willen het juist exclusie houden voor hun eigen hardware. ;) EN directx11 heeft de eerste generatie API voor GPGPU die zowel Nvidia als ATI kunnen gebruiken.

OpenCL mag van mijn geschrapt worden en gewoon alleen maar tijd steken in directx, bijvoorbeeld de gamende linux gebruikers die 0.1% vertegenwoordigen van de markt en niet het nieuwste van het nieuwste kopen qua video kaarten. Laten ze die tijd maar steken in een platform die 91% van de gebruikers gebruikt. ;)

[Reactie gewijzigd door mad_max234 op 27 mei 2010 12:34]

OpenCL heeft juist het voordeel dat het een open standaard is. Om een apu taken over te laten nemen van een cpu is er een standaard nodig, waar zowel intel, amd en nvidia iets mee kunnen. Om bijvoorbeeld zaken binnen een browser door een gpu te laten renderen is het niet handig als alle producenten een andere standaard hebben. Ik denk dat het leidt tot meer aandacht voor OpenCL.

edit: http://en.wikipedia.org/wiki/Hotelling%27s_law

[Reactie gewijzigd door ALRD op 27 mei 2010 12:51]

Ja, laten we alleen maar DirectX ontwikkelen zodat Microsoft de komende 25 jaar ook nog alleenheerschappij heeft op games gebied 8)7.

Het is voor iedereen beter als OpenCL juist een doorbraak weet te maken. Dan raak je die afhankelijkheid van bepaalde Windows versies kwijt (wat als Microsoft straks besluit om DirectX 12 uitsluitend te koppelen aan Windows 8, zoals ze met DirectX 10 ook hebben gedaan?).

Daarnaast wordt de PC gaming markt interessanter voor ontwikkelaars als ook Mac OSX (en in mindere mate Linux) publiek standaard gebruik kunnen maken van dezelfde games. Waarschijnlijk zijn MacOSX en Linux gebruikers ook nog eens eerder bereid te betalen voor games dan Windows gebruikers (zie onder andere de Humble Indie Bundle, waarbij gebruikers mochten betalen wat ze wilden voor 5 games die zowel onder Windows/MacOSX/Linux draaiden: de Linux en MacOSX gebruikers betaalden meer dan de Windows gebruikers per verkochte bundel).

edit: gelukkig ziet een bedrijf als AMD dat open standaarden beter zijn voor de industrie. AMD heeft de laatste paar jaar dan ook veel werk gestoken in OpenGL en OpenCL. Ook andere bedrijven zien eindelijk het licht, zoals Valve die nu Steam en de source engine porten naar MacOSX (en binnenkort naar alle waarschijnlijkheid ook naar Linux).

edit2: waarom denk je dat de Linux gebruikers niet het nieuwste van het nieuwste kopen? Wellicht is dat ook een beetje een kip-en-ei probleem. Als er geen veeleisende games beschikbaar zijn voor Linux, dan is er ook geen reden om het nieuwste van het nieuwste in huis te hebben. Overigens denk ik zelf dat het wel wat meevalt: Linux gebruikers zijn ook nerds die graag nieuwe hardware in hun pc willen hebben.

[Reactie gewijzigd door The Flying Dutchman op 27 mei 2010 12:43]

DirectX 10 was alleen voor Vista en hoger omdat de kernel en driver architecctuur flink omgegooid is. En daarmee ook de nieuwe API DX10 interfaces verhuizen naar hogere applicatie layer. ipv lager kernel layer. Waar je met functies LPLPointer moet . callen.
Als Ms met Windows 8 ook weer de boel omgooid en daarbij de interface drastisch moet veranderen. Dan ja DX12 alleen voor W8.
De wereld draait niet alleen om spelletjes, OpenCL al helemaal niet.
Hmm, dit is best een interessante ontwikkeling. Kennelijk heeft AMD een gerenomeerde specialist nodig die gebieden kan vinden waar ze die Fusions kwijt kunnen.

Hedge zou een brug kunnen slaan naar bijv Cuda maar de vraag is of AMD dat hem toestaat en dan zal blijken of hij alleen voor de vorm, titel en de goede publiciteit is binnengehaald of dat AMD met hem echt een nieuwe weg inslaat.
Als er echt talent beschikbaar is, neem je die in dienst. Zo raar is dat niet. Of je Cuda of havok gebruikt de onderliggende ideeën zullen niet echt haaks op elkaar staan
Dat snap ik wel maar de vraag is of dit een politieke move is of een inhoudelijke.
Gezien zijn verleden vooral een inhoudelijke.
Zijn bedrijf is niet voor niets ooit overgenomen door Nvidia.

Dat betekend dat hij en zijn mede-oprichters talent hebben om iets te ontwikkelen waar Ati en Nvidia niet aan hebben gedacht.

Een leuke bijkomstigheid voor AMD is natuurlijk het politieke deel.
Je kunt dus een belangrijke man "weghalen" bij je concurrent.

Wat betreft het ondersteunen van CUDA:
Dat zal niet zo snel gebeuren. De techniek erachter is in bezit van Nvidia en zal derhalve AMD geld gaan kosten.
Wie zegt dat ze dat niet kunnen, ze willen gewoon het wiel niet opnieuw uitvinden als iemand al een wiel heeft uitgevonden.
Dan huur je diegene in om dat wiel in te zetten voor je eigen producten.
Dat is vrij logisch en veel voorkomend.
Hij is tevens niet weggehaald bij de concurrent maar gewoon aangenomen. Dat hij toevallig iets gemaakt heeft dat de concurrent ook gebruikt is niet hetzelfde.
AMD zal nooit vrijwillig een gesloten standaard van Nvidia gaan gebruiken. Hun physics implementatie zal dus naar alle waarschijnlijkheid een open standaard(OpenCL) gaan betreffen om zo ontwikkelaars naar hun kant te trekken. Daarbij is Cuda wel het meest gebruikt, maar nog steeds bijna niet gebruikt. 98% Van de markt wacht nog op wat AMD gaat doen. Ze willen immers niet maar door 50-60% van de videokaarten ondersteunt worden.
Of het nu havoc opencl cuda of whatsoever is, ze hebben gewoon iemand nodig die weet hoe je zo'n dingen doet op een GPU :)
Nee, dat hebben ze helemaal niet nodig, want die mensen hebben ze al lang in dienst.

Wat deze persoon met name weet is hoe je dat soort dingen NIET doet op een gpu.
AGEIA is een mislukking geweest. (hij heeft geluk dat NVidia het gekocht heeft)
Vervolgens komt PhysX ook bij Nvidia totaal niet van de grond.
CUDA heeft wat bekendheid gekregen, maar is ook nog steeds een vreselijk kleine niche markt, waarbij iedereen wacht op een standaard die door iedereen ondersteund word.

Bepaald niet wat deze man in gedachten had toen hij AGEIA opgericht had.

Waarschijnlijk heeft hij lessen getrokken uit het verleden en heeft hij interessante ideeen over de manier waarop je een Fusion APU wel een success kan laten worden.

En dat is bepaald niet voor de hand liggend.

[Reactie gewijzigd door mjtdevries op 27 mei 2010 13:15]

'k vermoed dat dit eerder zal te maken hebben met het ontwikkelen van een server lijn...
Het enigste waar Nvidia nu echt een voorsprong heeft op ATI is dat Fermi gebruikt wordt om dedicated floating point berekeningen te doen in servers. (zie bijvoorbeeld dat IBM geen cell cpu, maar nvidia fermi gaat gebruiken hiervoor)
Ik vermoed dat ATI hier vooral wil in verder gaan, daar dit een wel heel lucratieve markt is waar de winstpercentage vele malen hoger ligt dan wat ze kunnen halen op een gewone GPU...
Het Fusion concept van AMD verschilt van de Core i in dat AMD veel meer transistors aan het GPU gedeelte wilt geven. Waarbij Intel een standaard IGP op de processor die brengt, wilt AMD het equivalent van een 46xx ofzo op de die krijgen.

Er komen dus een hele processors meedoen. OpenCL heeft hierbij het voordeel dat het ook op een gewone processor kan draaien. CUDA is voor nVidia GPU's, maar een OpenCL instructie kan door alles worden uitgevoerd als er ondersteuning is. Zo zou je dus met één set aan instructies de APU kunnen sturen en zal de interne hardware deze verdelen op over de x86cores en shaderprocessors.

Ontwikkelaars hoeven dus geen rekening meer te houden of de hardware veel of weinig grafische capaciteiten beschikt, het zal altijd optimaal draaien.

Waarbij nVidia zich op de HPC markt richt met Fermi en Intel zegt dat het enige grafische dat consumenten nodig hebben HD decoding is, gaat ATI voor de tussenliggende markt.
Wie zegt dat Intel de igp ook niet sneller gaat maken. De eerste stap is "een" igp te integreren. Daarna is het een kwestie van marktbenadering hoe snel die igp moet zijn. AMD gaat een snellere igp integreren dan intel nu heeft. Maar de vraag is of dat voor veel mensen uit maakt. Een krachtige videokaart wordt ook voornamelijk gebruikt voor games. Speel je geen games heb je weinig aan die krachtiger igp. Speel je wel veel games, wil je misschien ook een krachtiger CPU dan een i3. Uiteindelijk gaat het om balans. AMD legt die anders dan intel en dat geeft ons weer wat te kiezen.
het gaat hier niet om gpu's maar om apu's (cpu)
APU = CPU + GPU.

Het idee is dat de GPU van de APU bepaalde taken kan overnemen die nu nog door de CPU worden gedaan. Denk hierbij vooral aan physics en dergelijke, waar een GPU veel beter in is. En dit soort dingen (Cuda, PhysX, Havok, ATI Stream) worden dus door het GPU deel van de APU afgehandeld.
Ook het renderen van je 2d desktop is door gpu's overgenomen en ze zijn bezig zulke ondersteuning voor internet browsen te maken. Integratie van cpu en gpu gaat zulke dingen alleen maar makkelijker maken. Voor gamen zul je nogwel van de deicated gpu's afhankelijk zijn, ik hoop dat ze ook gaan werken aan samenwerking. Het zou fijn zijn als de apu bijv. de desktop blijft renderen terwijl je dedicated kaartje(s) het gamen doen zodat alt+tabben soepeler gaat en gebruikelijker gaat worden bijv. en dat je dedicated kaartjes ook volledig uitgeschakelt zullen zijn als alleen tweakers.net gerendert meot worden (het zal nog wel 10-15 jaar duren voor je daar quad sli's fermi's voor nodig gaat hebben :p)
Voor gamers zie ik juist meer voordeel om de physx door de APU te laten doen ipv ook door de GPU zoals bij Nvidia. Dan kan de dedicated GPU helemaal voor de graphics worden gebruikt terwijl de CPU ook wordt ontlast van dergelijke berekeningen.
Voor games zie ik meer zin in hardware onafhankelijke middle ware. Die gewoon GPU mogen gebruiken Waar iNtel Havok heeft beperkt tot CPU door HavokFX te killen.
En nV PhysX SDK voor hun GPU karretje te treken.

Onafhankelijke middleware zou cuda met ATI steam path kunnen gebruiken of beide hardware platformen met DX10/11 CS of OpenCL kunnen aanspreken.

De enige reddings is dat er snel. 'n derde PHysics middelware opstaat die even nr 1 en 2 van de troon stoor en nV en AMD GPGPU onafhankelijk is. En dan wordt de annimo bij dev's om een flink de default basis gameplay physics eens heel stuk hoger te zetten.

Maar dat zie ik niet gebeuren.

Wat wel beperkd mogelijk is dat Licenceerbare game engine bouwer zelf hun Physics lib implementeren en daarmee vrij zijn kwa te gebruiken API. Dus OpenCL DX11_CS of (cuda pad en AMD STEAM Pad).
Ik denk dan aan de crytech engines.
Met de laatste paar generaties Gpu's van Nvidia kunnen ook phsysics door de gpu gedaan worden.
ipv alleen standaard x86 type cores op een processor, zie je nu zoals ik het begrijp op dezelfde chip andere cores die bepaalde taken veel effectiver doen. Meer cores waarbij software niet hiervoor geschreven is zal weinig zin hebben dus moeten zowel intel als AMD meer doe in deze richting om de CPU/APU sneller te maken. Voor het echt intensieve reken werk zal een echte videokaart en een CPU nog wel een tijd gescheiden zijn, maar een APU heeft toch zeker wel zin om het energie verbuik laag te houden als je met eenvoudige taken bezig bent.
Meer cores waarbij software niet hiervoor geschreven is zal weinig zin hebben dus moeten zowel intel als AMD meer doe in deze richting om de CPU/APU sneller te maken.
deze 'cores' zijn gewoon moderne dx10/11 GPU's en als zodanig kunnen ze overweg met openCL en microsoft direct computeshaders.

dus of intel dat nu wel of niet doet, de software om er gebruik van te maken zal gemaakt worden.

[Reactie gewijzigd door Countess op 27 mei 2010 12:31]

Het zou wenselijk zijn eens een standaard voor alle OS'en te maken en daar lijkt OpenCL goed voor , het is nu alleen nog maar de vraag welke leveranciers van games , applicaties en dergelijke dit ook gaan doen anders heb je er nog maar weinig aan.

Door de marktposities van beide graka bakkers zie ik dit nog zo 1,2,3 niet komen.

Dat OpenCL een breder spectrum kan bieden was en is wel duidelijk geworden alleen zie ik dit ook weer niet zo snel van de grond komen , OpenGL is daar al weer een voorbeeld van dat er jaren overheen gaat wat jammer is.
Ligt het aan mij of is het tegenwoordig in om projectleiders in de spotlight zetten als ze een baanwissel doen, voordat ze uberhaupt iets gerealiseerd hebben bij de andere partij

Doet me altijd denken aan die films:

From the executive producers bla bla bla ...
Hij wordt Vice President van een afdeling... is iets anders dan een project leider haha
Maar zijn het de bedrijven die die projectleiders ineens in de spotlight zetten of is het de pers?
Ik vind het een leuk bericht ik weet nog toen ik batman arkamasylum speelde op mijn 8800gt en daarna op hd4850 (omdat me 8800gt was verbrand door me overclock die 1,5 jaar heel goed heeft gedraaid ) had een gevoel dat op 8800gt wat mooier uit zag ( de cape flapperde wat mooier op 8800gt dan op hd4850)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True