Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Submitter: Henk007

Ppu-fabrikant Ageia wordt overgenomen door Nvidia. Er waren al geruchten dat de producent van de physics-versneller Physx in de etalage stond, maar het was nog onbekend wie de potentiŰle overnamekandidaten waren.

Hoewel er nog weinig bekend is over de gevolgen van de overname voor de producten van Nvidia, laten de partijen al wel doorschemeren dat de Physx-technologie in combinatie met de Geforce-kaarten veelbelovend is. Ageia-directeur Manju Hegde stelt in een verklaring dat de combinatie van de physics-software van Ageia en de parallelle rekenkracht van Nvidia's producten een 'perfect fit' is. Over de hoogte van het overnamebedrag werden geen uitspraken gedaan.

De Ageia-software wordt onder andere gebruikt in ruim 140 games voor Playstation 3, Xbox 360 en Wii. De fabrikant oogstte verder bekendheid met de Physx-ppu, die de uitvoering van de natuurkundige software aanzienlijk kan versnellen, maar die nog geen commercieel succes werd. Door Nvidia-topman Jen-Hsun Huang wordt 'Geforce-accelerated Physx' in het vooruitzicht gesteld, wat er op wijst dat de specialistische natuurkundeprocessor zijn langste tijd gehad heeft. De Ageia-software zou dankzij Nvidia's Cuda-platform immers even goed op veelzijdige Nvidia-kaarten kunnen draaien. Een beslissing daarover is echter niet bekendgemaakt.

AMD en Nvidia werken al langer aan het uitvoeren van natuurkundige bewerkingen op de gpu, maar dat zal waarschijnlijk pas echt van de grond komen na de introductie van Directx 11. Het is de bedoeling dat deze versie, die in 2009 wordt verwacht, standaard physics-berekeningen aan de gpu kan uitbesteden. De eerste gecombineerde Ageia/Nvidia-producten zullen naar alle waarschijnlijkheid niet voor het einde van dit jaar gereed zijn.

AMD werkt al enige tijd aan het Fusion-project, dat een hybride cpu/gpu moet opleveren. Deze fabrikant hoopt eveneens om grote hoeveelheden generieke instructies parallel te kunnen uitvoeren. Momenteel wordt er gewerkt aan de 'Swift', een hybride chip die is gebaseerd op het ontwerp van de Phenom-core.

Ook Intel zit niet stil; dit bedrijf zal in de eerste helft van 2009 Havendale introduceren. Deze cpu is niet alleen voorzien van een ge´ntegreerde pci-express-interface, maar beschikt ook over een ge´ntegreerde gpu. Intel richt zich hiermee op de desktopmarkt, in tegenstelling tot AMD dat met Fusion vooralsnog op de notebookmarkt lijkt te mikken.

Moderatie-faq Wijzig weergave

Reacties (39)

Ik kan me nog een artikel herrinneren dat de gpu bakkers zeiden dat Ageia op termijn overbodig was en dat ze zelf met oplossingen daarvoor zouden komen, lees, andere eigen oplossingen. Blijkbaar krijgt Nivida dat dus niet voor elkaar :)
Op het moment dat je als GPU bakker ook physics wil gaan doen dan is he tnatuurlijk zeer interessant om een bedrijf over te nemen op het moment dat dit toch al te koop staat. Hiermee haal je aan de ene kant de nodige know-how in huis waardoor je niet alles zelf hoeft te gaan ontwikkelen maar aan de andere kant is het ook zo dat je concurrent het bedrijf niet overneemt wat hen weer een voordeel op zou kunnen leveren.

Nu weet ik niet hoeveel ze ervoor hebben betaald en of het waarschijnlijk was dat AMD dit bedrag uberhaupt zou ophoesten, maar als je de mogelijkheid hebt, waarom er dan geen gebruik van maken.

Verder is het natuurlijk zo dat dit soort dingen langzaamaan worden geintegreerd op 1 kaart. Zo hadden we vroeger de PowerVR en 3DfX kaarten die zorgden voor de 3d accelertie, nu is iedere chip in staat om dat te doen, zelfs de onboard dingetjes (niet dat ze er snel genoeg voor zijn in veel gevallen, maar ze kunnen de instructies verwerken). Zo is het ook gegaan met hardwarematige videoacceleratie (vroeger hadden we nog losse kaarten voor mpegplayback, om DVDs af te kunnen spelen, nu kan een videokaart dat zonder losse add-onkaart doen).
Physics is dus een logische volgende en het zou me niets verbazen als er nog een flink aantal van dit soort zaken zullen volgen.
In het bericht wordt eigenlijk niet veel gezegd. Behalve 'n heel groot vemoeden dat nV nu de PPU gekilled heeft. Aangezien de PPU niet in nV portefuile past. Ze hebben al unified shaders voor Vert/Pix/Geo en ook Physics. Dus niet zozeer door geen sucses maar eerder door hostile take over wordt PPU de nek om gedraaid.
PR mannen van ageia en nV komen natuurlijk met hun officele PR geneuzel. alsof dat niet zo is. Op langere termijn kunnen Ageia PPU patenten gebruikt worden om de Shader array architektuur meer optimaler voor phsyics te maken. Tenzij dit bots met optimalere VS/Ps/GS architektuur.

Maar de reden is net als die van iNTel.
Havok FX is de schakel die GpGPU gamephysics tegen CPU Physics op grote economische schaal mogelijk maakt. CPU VS GPU. is afhankelijk van middleware.
Is dus gekilled door iNTel door havok fX weg te nemen. Maar uiteraard maar van tijdelijke aard. Gezien dX11. nV maar ook ATI mist dus 'n popu middleware om GpgPU Physics grootschalig uit te rollen. Daar heeft nV dus een stokje voor gestoken. Maar ten voordele van GPU algemeen maar meer voor nV.
Novodex(PhysX SDK) kan daar voorgebruikt worden. Ageia is dus 'n logische kandidaat voor overname. AMDTI is niet kapitaal krachtig. Maar nV wel.

Voor nV dus PPU overboard en GPU in de plaats. Het gaat nV vooral om de SDK.
nV visie is dus kill competerende hardware en fill in de missing middleware.
Twee reden waarbij die laaste mogelijk de grootste is. Inhoe vere iNtel en ATI en nV zich door competitie bedreigd voelden. Viel dat waarschijnlijk mee.
PhysX addon blijf alleen wordt dit dus een extra GPU bij prikken ipv PPU.
Want je GPU heb je al hard nodig voor die zwaar GPU GFX afhankelijk games te kunnen versnellen. SLI is leuk maar met zwaar GpGPU Physics speeld het dus net als een enkele, kwa FPS. Dus als je SLI eigenlijk meer voor FPS heb gehaald ga je al naar triple of 2+1.

Voor ATI vs nV
is dit is niet, goed want ATI wordt dan gebypassed.
'n R700 voor renderen en 'n GT200 voor Phsyics. Dus als PhysXKaart (PPU/GpGPU)

Daarom zij aTI iets in de trant van jammer tegen het wegvallen van HavokFX. Werd wachten op dX11.
En was nV nog steed ondanks deze domper, positief over 'n vervanger op korte termijn. Dit heeft al veel langer gebroed. Denk mogelijk als reaktie op iNTel. En als het nog langer gebroed heeft als competitie ellimneren. 'n tweevoud. Ageia en ATI dwars zitten. Die macht krijg je met middleware naar je toe trekken.
Wat PhysX vooral beteken voor nV. Maar ook voor gamers. Is meer vraag naar Shader power. Markt vergroting als meer sales meer omzet. De drijfs veer. Niet dat Physics goedkoop zal zijn. dan moet je genoegen nemen met cPU. Of 'n deeltje van GPU ten koste van FPS.
Die DX11 Physics component moet er maar snel komen.
Zodat aTI in de race blijft.

Hiermee is die middleware, naast dat het geen algemene standaard is ook zwaar merk gebonden. Ik zie liever onafhankelijke. zoals 'n standaar API
En nu gaat dus nV PhysX addon pushen als in extra GPU erbij ipv Ageia met PPU erbij. Er zal voor de gamer opzich niet veel verander in hoeveel het gaat kosten.
Maar het zal altijd zijn je krijgt wat je ervoor betaald.
Je enkele budged G-kaart is te zwak voor renderen en GPgPU PhysX

Dus die denken dat het addon dilemma voorbij is. is pech voor de budged en 'n dubbeltjhe op de eerste rij volk. Die addon wordt 'n GpGPU. Gkaart misbruik of 'n nV based PhysX kaart met GPU erop.
Ik denk dat ze vooral bedoelden dat een aparte ppu overbodig zou worden. De software kan namelijk ook door de GPU efficient uitgevoerd worden. Met deze overname koopt Nvidia dus een zo goed als kant-en-klare software oplossing, die ze naar alle waarschijnlijkheid op hun GPU zullen gaan laten draaien.
als ik het nieuwsbericht moet geloven is dat dus niet waar..
ze willen de gpu's uitbreiden met de techniek van ageia en zo 1 GPU chip produceren waar ook de natuurkundige berekening wordt geoptimaliseerd (dus 2 aparte chips zijn verleden tijd)
Nergens staat dat er perse 1 all-in-one chip gebakken wordt. Het lijkt mij het waarschijnlijkste dat de Physx chip voortaan mee gebakken wordt op een geforce kaart zodat de GPU en PPU samen razendsnel kunnen communiceren.
Maar als je tussen de regels doorleest en het nieuws/de ontwikkelingen een beetje volgt dan weet je dat uiteindelijk alles steeds weer compacter moet en dus zo veel mogelijk in 1 chip zal worden gestopt!
Die All-in-one chip is misschien niet de eerstvolgende serie maar die daarna maakt grote kansen dat wel te zijn.
Blijkbaar krijgt Nivida dat dus niet voor elkaar.
Zeker wel, maar het duurt nog tot de volgende grote nieuwe architectuur (voor DirectX 11) eer GPUs beter geschikt zijn voor interactieve physics.

Zo veel haast is er trouwens niet. Physics is overrated. 99.9% van de spellen doet het prima met physics op de CPU, en met octa-cores in het DirectX 11 era zal dat niet veel veranderen.

NVIDIA koopt AGEIA vooral omdat die toch verlies aan het draaien waren, en om mee te doen aan de hype. Intel heeft Havok en NVIDIA ziet zichzelf verplicht daar iets tegenover te plaatsen. Trouwens, NVIDIA is stinkend rijk...
Ze kopen hier ook niet het bedrijf (voor de winst) of de hardware kennis (hebben ze zelf ook), maar de software en bijbehorende kennis. Aegia heeft een physics-framework, en *dat* heeft nVidia niet. Althans, zo komt het op mij over in dit artikel.
Games als Supreme Commander 2 ofzo kunnen met een goeie physX chip anders wel met individuele (denk Halo warthog) physics kunnen worden uitgerust zonder dat je daar een super CPU voor moet hebben.
Havok is van intel, Ageia van nVidia... Is er nog eentje die door AMD overgenomen kan worden?

Ik hoop wel dat nVidia het platform gewoon "open" houdt (ook processor ondersteuning) en dat je niet opeens nVidia hardware nodig hebt voor spellen met Ageia physics.

[Reactie gewijzigd door knirfie244 op 5 februari 2008 10:26]

Zolang nVidia geen monopolypositie krijgt, doordat Ati bijv. failliet gaat (hoe lang duurt het nog?) kunnen ze moeilijk zeggen dat je een nVidia mˇÚt hebben voor game X. Dit laten de developers nooit toe. Wordt de game direct zo'n 40% minder verkocht.
Wat is dat toch altijd voor bull dat ATI ineens failliet zou gaan? Hallo, ze maken nog steeds goede kaarten tegen fatsoenlijke prijzen. En niet high-end genoeg? 3870X2 zijn ze toch redelijk lovend over in de reviews. Om over UVD nog maar te zwijgen, ik zou persoonlijk nooit een NVIDIA kaart in me HTPC gooien. Genoeg markt voor ATI zou ik zeggen...
Zou het kunnen dat die fatsoenlijke prijzen voor de consument nu net het probleem zijn?
Een bedrijf dat jaar op jaar verlies maakt zal ooit wel eens failliet gaan. Op dit moment ziet het er naar uit de AMD in de nabije toekomst er misschien eindelijk eens in zal slagen om break-even te draaien. 't Is maar te hopen dat ze onderweg geen recessie of zo tegenkomen...
als het goed is en ze wachten tot dx11 dan zullen de game engines gebruik maken van de dx11 API's voor physics en dan kan AMD gewoon zorgen dat hun drivers van de api's gebruikmaken.
Waarom zou je een API gebruiken die maar op een kleine minderheid van de beschikbare machine draait?
Gezien nV agressieve verleden denk ik het niet.

Ageia PhysX.
Of eerder nu nV PhysX zal niet GpGPU ondersteunen. Maar nV GPU.

maar zoniet. is dat heel sportief.
En als ze bij wonder ook PPU in de lucht houden
En als ook nog steeds de sDK free laten

verdienen ze voor mij veel kredit terug.

Ik denk dat dit 'n domper wordt voor aTI op korte termijn. Totdat DX11 er is.
Interessant. Er zijn al geruime tijd plannen om Physics door de GPU te laten doen en AMD heeft al veel plaatje laten zien waarbij men 2 of 3 videokaarten in een systeem zet waarbij 1 voor Physics wordt gebruikt dan. NVIDIA heeft ook al tijden dezelfde plannen.

Echter was er een tijd geleden al een domper toen Intel de Havok Physics software overnam. Deze werdt juist voor de normale videokaarten ontwikkeld om natuurkundige berekeningen uit te voeren. Echter horen we er maar weinig van sinds de overname en ik ben bang dat Intel de software voor zijn eigen spul doorontwikkeld.

Hierdoor bleven AMD en NVIDIA over met mooie plannen en plaatjes, maar zonder echte invulling. Deze overname door NVIDIA kunnen we ook wel als domper beschouwen. Zowel Intel (zeker als die ook met videokaarten gaat komen) als NVIDIA hebben nu dus behoorlijk wat kennis over natuurkundige berekeningen binnen gevist.

Alleen AMD heeft niks. Echter hebben ze ook geen geld om echt in de ontwikkeling te steken lijkt me. Verder is er ook geen 3e speler over die software klaar heeft liggen. Misschien dat ze wat bij Intel kunnen afdwingen in een deal met de CF licentie, maar ik ben bang, zeker wanneer Intel een eigen GPU bouwt, dat Intel op een moment niet meer afhankelijk is van NVIDIA en AMD. Zo'n deal lijkt me ook niet echt voor de hand liggend dus.

Kortom, AMD moet als de gek zorgen dat ook zij van hun praatjes daden maken. Het zal nog een heel klus voor ze worden om nu zelf software te gaan schrijven, maar misschien valt het ook wel mee. Iig is het wel een teken dat zowel Intel als NVIDIA nu Physics technologie hebben opgekocht.

Verder wel een mooie ontwikkeling. Physics zullen de volgende evolutie in gaming zijn en er wordt nu echt serieus aan gewerkt. Ik ben benieuwd wat 2009 gaat brengen.

Ik kan me verder ook voorstellen dat AMD de Swift ook gewoon als high-end product in gaat zetten. Niet vanwege de graphics maar de natuurkundige berekeningnen. Door de ontwikkelingen om een GPU te integreren in een CPU zie ik vele nieuwe dingen. Het startschot is al gegeven met NVIDIA's Cuda en AMD's tegenhanger. Ook het Torrenza platform is hier een voorbeeld van. Als je ziet hoe effectief sommige berekeningen gaan op een GPU (oa Folding@Home) dan zie ik een goede toekomst. De Hybride CPU's zullen veel meer power hebben voor bepaalde berekeningen. De programma's zullen dan alleen een kwestie van tijd zijn, net als bij dual- en multicore programma's. Al met al een goede ontwikkeling aangezien de normale CPU alweer vast staat. Je kan niet eindeloos er cores bij gooien. Op een bepaald moment heeft het geen nut meer, of kan het je zelfs tegen gaan werken.
De eerste domper is dat
1 ) HAvokFX vooral EffectPhysics gericht is.
A ) Door havok zo opgezet door de haken en ogen die aan Gameplay physics kleven.?
B ) GPU shaders niet optimaal voor Gameplay Physics maar wel geschikt?
2 ) HAvok FX 'n ADdon sDK is die nog cash kost en alleen maar Effect Physics bied staan dev ook niet om te springen.

3 ) Het 9 maanden later dan PPU/PhysX uitrolde.
A ) Havok is Popie.
B ) HavokFX niet onder devs. Niet veel titles die bekend waren dit te supporten. max 3?

4 ) Het nu door intel de nek om gedraaid is.

Is dus eigenlijk de 4de domper.
Daar zitten de mensen dan die trots al een PPu hadden gekocht. Kan hun enkel leren om volgende keer nog kritischer te kijken voor te beslissen om early adaptor te worden.
?
Niet echt ene doordachte comment: dit is net goed nieuws voor de huidige PPU-bezitters.
nVidea neemt Ageia over
-> Ageia technologie komt terecht in komende nVidia hardware
-> Ageia technologie wordt populairder
-> Meer developers optimaliseren hun games voor Ageia technologie
-> Bezitters van een PPU blijven hun hardware optimaal benutten.

Deze overname is net de redding voor PhysX imo: de technologie was niet immens populair, en dreigde dood te bloeden. Nu is de toekomst echter verzekerd, doordat een grote (de grootste?) fabrikant voor gaming-hardware de technologie omhelst.
Dat het de redding van Physx zou kunnen zijn ben ik het eens maar niet dat mensen hun huidig kaartje gaan kunnen gebruiken.
De best oplossing is dat er extra chipje op een graka komt of dat alle instructies in de GPU worden opgenomen. Dan moeten ze geen extra geld in de drivers pompen voor die enkele mensen die nu al een kaartje hebben.

Ik zie NVidia geen grote campagnes opstarten om die kaartjes te verkopen. Elke gamer wilt die dingen gewoon op de gpu of de cpu en niet in een aparte kaart dat plaats en geld inneemt.
Ik neem aan dat de game makers er voor zorgen dat hun games met de Ageia software werkt, en niet specifiek met de chip zelf. De Ageia driver zorgt vervolgens wel dat het met de PPU werkt, of in het nVidia geval met de GPU. Er zal natuurlijk wel verschil zijn in de snelheid die beide oplossingen bieden, maar dat is bijzaak. Dus volgens mij is het gewoon goed niews voor mensen met die kaartjes, gezien de waarschijnlijk grotere adoptatie van de physics.
Niemand heeft gezegd dat dit slecht nieuws is voor PPU bezitters, integendeel zelfs. De beste strategie voor NVIDIA is om nu zo veel mogelijk PhysX chips te gaan verkopen, zodat PhysX steeds populairder wordt. Hoe meer ontwikkelaars het in hun spel stoppen, hoe beter voor NVIDIA. Er wordt al gespeculeerd dat er een nieuwe PhysX kaart op de markt gaat komen voor een lagere prijs, waarbij NVIDIA natuurlijk alle marketing- en zakenrelaties kan gebruiken om de kaart in zoveel mogelijk PCs te krijgen.
Uiteraard zal er gewerkt worden aan PhysX op de GPU, maar dit is niet iets dat je in een maandje ontwikkelt. Als deze versie klaar is kan dat misschien het einde van de PPU betekenen, maar tot die tijd wil NVIDIA juist zoveel mogelijk games met PhysX op de markt, en zoveel mogelijk gamers die een kaart hebben.
Je GPU dat nV ding gaat ook maar vaker 'n jaartje mee of minder voor de hardware enthausiasten.
PhysX PPU was ten eerste gericht op de high-end gamers.
Want je moet toch even extra hardware kopen. Al die budged argumenten ten spijt. die zijn niet relevant. Wil je meer in je game enablen mits beschikbaar.
Zoniet dan ga je voor CPU default Physics met je goedkoop G-kaartje die je lang wilt houden. Meer hardware accelerated Physics is een optie. wat je budged bepaald.
Maar je krijgt het nooit voor niks.

Die PPU is nu dus 1,5 jaar gebruikt. wat lang is voor early adopters en enthausiast.
Ongeveer die 2 jaar wat ze als produktcycle claimden.
Als PPU aanhanger wacht je nu eigenlijk op PPU2. midden dit jaar.
Onder tussen
Graw 1 en 2 in volle glorie gespeeld.
celfactor
Warmonger
UT3 ageia maps.
en nog meer.

Voor Physics verrijkte game enthausiasten boeid het niet of dit 'n
PPU2 erin wordt geprikt. ALs er maar 'n shitload meer aan Physics er in komt goed toegepast prefereerd voor gameplay.
zou 'n Asus P2 Phsyics met Ageia P2 PPU.
Maar blijkbaar Asus Geforce PhysX met 'n G92 erop.
Of gewoon 'n 9600 naast 'n 9800

Rond deze tijd was PPU P1 sowieso onderhand aan vervanging to. GEzien CPU steeds dichter bij komen.

nV killed PPU dat zeker. Maar je krijgt er GpGPU PhysX voor terug.
nV ziet goud in ageia idee. meer sales van GPU in de plaats van PPU.

Heb zelf PPU gestoken in 'n CF mobo. CF oorspronkelijk voor HavokFX niet voor CF gebruik. Nu weet ik niet wat nv voor beperkingen heeft. heb in een systeem 'n 8600GT. In de nadere CF systeem met PPU 'n HD2900XT.
Ik had me dus ook al enigzins voorbereid op GpGPU Physics.
Heb ook 'n sLI systeempje.
Idee is dus het zelfde. Dat Hadrware PhysX veel computation power vereis en je dus krachtige hardware als in chips dadicated daarvoor nodig hebt of voldoende reserves.
En dat gaat dus net als addons geld kosten.

Wat ik mij nu juist afvraagd is of GPU door PhysX nu ook makkelijker Gameplay Phsyics gaan toepassen. en hoe goed of geschik GPU daar werkelijk voor zijn.
Klinkt allemaal veelbelovend, zijn ze al bezig over DX11 terwijl DX10 nog niet echt populair is :). Hoe dan ook ik ben benieuwd wat de resultate van deze samensmelting gaan zijn.

To Be Continued...
DX10 is nog niet populair vanwege de enorme systeem eisen. Het mag dan wel redelijk geoptimaliseerd zijn, als gamedeveloper gooi je daarom extra dingen erin die je niet ziet in de DX 9 versie, waardoor automatisch het net zo zwaar of zwaarder word. Sommige dingen hebben slechts een kleine impact op kwaliteit maar grote impact op performance(particles/rook die niet meer lijken op bitmaps als ze met een muur in aanraking komen, dat soort dingen)

Ik denk dat als het gemiddelde systeem van de consument sterker word, er veel meer directx10 zal worden gedraait en ook veel meer voor ontwikkeld word. Vergeet niet dat DirectX 9 nu bijna helemaal uitontwikkeld is door developers, en directx10 net begint te komen.

Het zou ook niet handig zijn van microsoft om weer de ontwikkeling tegen te gaan (directX10 liet erg lang op zich wachten, vanwege de Vista release), dus zijn ze alvast begonnen aan 10.1, en hoogstwaarschijnlijk ook 11. Een physics processor zal waarschijnlijk ook onderdeel worden van directX api, en zal een groot probleem uit de wereld helpen: gamecompatibiliteit. Nu moet een game het nog apart implementeren (net als Havok), maar via dx word het waarschijnlijk een stuk makkelijker. Dat betekent dus meer games die er voordeel bij hebben, en dus meer mensen die het kopen. De impasse die nu ontstaan is (te weinig mensen hebben 1, en te weinig games ondersteunen zodat er weing mensen het kopen) kan op die manier doorbroken worden
Ik ben nog altijd erg sceptisch over physics in DirectX (net zoals ik dat was over de PhysX kaart, en dat blijkt nu gegrond :P). Leuk voor de PC games, maar het is niet erg cross-platform. Een library als Havok is dat wel, en aangezien physics veel meer verweven zit in de gameplay dan bijv. graphics is het erg belangrijk dat deze op dezelfde manier wordt aangeboden op alle release platforms van een game. Er zal ongetwijfeld ook een Xbox 360 (of destijds wellicht een Xbox 720) implementatie komen, maar voor PS3 (en in mindere mate de Wii) zul je toch een andere oplossing moeten gaan zoeken. Op het moment dat je tˇch al een andere oplossing moet zoeken, ga je ook niet gebruik maken van DirectPhysics op de platforms die het wÚl ondersteunen, want dat is alleen maar meer werk.

Maar goed, er zijn natuurlijk genoeg MS-platform-only games die er wel gewoon gebruik van kunnen maken.
DX11 is iets voor na 2009.
Mits het uit komt midden 2009 begint game adotie pas. Dus de games daarvan kan je een redelijke begin aantallen pas evrwachten na 2010.

nV heeft dus totdan novodex (PhysX sDK) daar voor beschikbaar. In 'n jaartje ofzo.

Afhnakelijke hoe lang het duurt om nV GPU support te intergreren in PhysX SDK.
En eventueel PPU er uit te hakken.
Of dat PPU support wordt omgezet naar GPU.
laten de partijen al wel doorschemeren dat de Physx-technologie in combinatie met de Geforce-kaarten veelbelovend is.
Alsof het met ati kaarten niet zo veelbelovend is?

Ik vind de overname juist minder veelbelovend, ik had liever gezien dat ati de overname zou hebben, zodat ze weer wat op boxen tegen nvidia, waardoor de concurrentie weer aantrekt.

Goed voor de consument
Zowel NVIDIA als AMD/ATI hadden de plannen om physics door de GPU te laten berekenen. Eerst kon dat met Havok. Echter viel deze weg doordat Intel deze techniek heeft opgekocht.

Resultaat is dat AMD en NVIDIA mooie plannen+verhalen hebben, maar niet de kennis. Het is natuurlijk, zoals Terw_Dan en ik hierboven aangeven, logisch dat er een partij is die dan ook kennis van physics inkoopt (Ageia). NVIDIA heeft het geld, AMD/ATI helaas niet.

Als AMD het had overgenomen was er niks veranderd. Alleen waren de rollen omgedraaid: AMD/ATI die de kennis in huis zou halen ipv NVIDIA. NVIDIA die zelf als de donder dit moet ontwikkeling ipv AMD/ATI.

Beide opties zijn niet goed voor de consument. Op dit moment staat AMD eigenlijk buitenspel. Dit is puur een strategische set van NVIDIA die hard nodig was. Als het echt goed voor de consument was geweest dan was Ageia falliet gegaan en hadden NVIDIA, AMD en Intel gebruik gemaakt van de Havok engine. (waarbij Intel die laatste dus niet zou hebben overgenomen)

Verder is je quote natuurlijk pure markteing. Klinkt toch veelbelovend niet? Vinden aandeelhouders ook leuk.

[Reactie gewijzigd door GENETX op 5 februari 2008 11:41]

Beetje te simpel gedacht dat AMD buiten spel zou staan. ATI was de eerste die het potentiaal van de GPU op niet-grafisch vlak inzag, en demonstreerde. Dat was ook ÚÚn van de redenen waarom AMD hen omarmde. Aangezien zij voorop liepen kun je je afvragen of zij op dit moment uberhaupt een derde partij nodig hebben. Zowiezo denk ik niet dat een dwerg als Ageia zo bijzonder is voor AMD...

Verder moet je ook Microsoft niet vergeten. ATI is al sinds lange tijd bezig heel nauw samen te werken met Microsoft op alle hardware naadloos te laten aansluiten in DirectX. Dat zag je o.a. bij DX9 met pixels shader 2.0, hetgeen perfect aansloot op de Radeon 9700. Ook nu is ATI samen met Microsoft bezig om de mogelijkheid van physics op de GPU via DirectX te laten verlopen. Hetgeen zowiezo wel logisch is, aangezien physics vaak ook grafisch gerelateerd is. Je kunt wel duizenden objecten berekenen, maar die moet je dan ook weer renderen... En de gouden regel is dat je alles zo laat mogelijk rendert... Je wilt vermijden dat je dat over PCIe bottlenecks moet doen. En verder is het voor game fabrikanten natuurlijk best prettig om alles via een standaard API te kunnen doen. En daar is DirectX een logische keuze voor.
Waarom zou AMD dat beter kunnen. Daar zou de technologie sterven omdat ze geen geld hebben om er iets mee te doen. Een straatloper geeft je een krant met job advertenties, geen laptop waar hij eerst elektriciteit en een hotspot moet voor vinden.
AMD kan er genoeg mee doen. Voor de overname stonden NVIDIA en AMD namelijk gelijk: Beide de hardware die uitermate geschikt is om natuurkundige berekeningen uit te voeren. Echter niet de kennis om dit ook echt uit te voeren. Met Havok kon dit, maar die is overgenomen door Intel en dus weg gevallen voor AMD en NVIDIA.

NVIDIA heeft nu die kennis ingekocht, AMD niet. Als AMD ze had overgenomen dan waren de rollen omgedraait. Niets meer en niets minder. Beide zagen ze er brood in. NVIDIA heeft echter het geld, AMD niet. Als AMD ze had overgekocht dan zouden ze exact dezelfde stappen als NVIDIA namen: Mooi persbericht, dan de software ombouwen zodat deze werkt op de videokaarten die ze maken en later misschein nog een deel van het chipontwerp implementeren in de videokaarten of het Fusion project.

Een betere vergelijking zou zijn dat zowel NVIDIA als AMD electriciteit en een laptop (videokaart) hebben. Echter heeft NVIDIA itt AMD wel het geld om daar een hotspot bij te kopen waardoor de functionaliteit van de laptop wordt uitgebreid (de videokaart wordt met physics functionaliteit uitgebreid)

[Reactie gewijzigd door GENETX op 5 februari 2008 12:00]

Erg jammer dit. De PhysX engine mocht zowel commercieel als niet commercieel gratis gebruikt worden. Ik ben erg bang dat ze nu verdwijnen als product, en dus opgaan in NVidia -> extra chippie op de videokaart of iets dergelijks.

Ook zonder de PhysX hardware was de physics engine erg goed te gebruiken. Vaak was die sneller dan alternatieven. Ik hoop echt dat de software beschikbaar blijft en dat er nieuwe versies van zullen blijven uitkomen.
Ha bij de eerste geruchten al snel de 2.7.3 SDK binnen gehaald.
Jammer.
Op zich zie ik er voor nV geen grote nadeel om de SDK niet vrij te houden
Misschien voor Commersiel gebruik niet.
Of in combinatie met de twimtbp voorwaarden kan het gratis worden. Ten koste van aTI. natuurlijk.
Voor hobby use kan het vrijblijven.
Wordt wachten dus.
dit worden spannende tijden.
nu nvidia ageia en mental ray onder zijn hoede neemt.

dit zou voor een enorme boost kunnen zorgen in 3d pakketten.
kijk maar bijvoorbeeld naar softimage xsi.
die kan ook gebruik maken van de physics van de ageia kaarten..
Dat in combinatie met mental ray en hun eigen software cuda en sorbetto/gelato hebben ze een ijzersterke positie in de 3d-wereld te pakken.

ik ben benieuwd wat dit voor ons allemaal gaat brengen :)
Nou lekker dan als je zo'n kaart gekocht hebt. Gezien hoe NVIDIA met support om gaat als het op drivers aan komt. ULi hebben ze ook enkel overgenomen om dood te laten bloeden en dat was toch een klap voor mensen met een ATI Xpress200 chipset met ULi southbridge (fantastische combo). Zie daar nog maar es een fatsoenlijke southbridge driver voor te krijgen.
Door Nvidia-topman Jen-Hsun Huang wordt 'Geforce-accelerated Physx' in het vooruitzicht gesteld, wat er op wijst dat de specialistische natuurkundeprocessor zijn langste tijd gehad heeft.
och, SLI is na de overname van 3DFX ook lange tijd in de vriezer gezet, maar uiteindelijk... precies :)

ik denk dat ze nog wat schaalverkleining willen doen, o.a. doormiddel van een kleiner procede, en dan ook de eewige wat-vreet en koelproblemen onder controlle willen krijgen, daarna ligt de PPU wel weer in het verschiet, wellicht on-die met de GPU.

[Reactie gewijzigd door arjankoole op 5 februari 2008 21:27]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True