Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 92 reacties

Intel heeft laten weten dat het Havok heeft overgenomen. Dit bedrijf is onder andere bekend van zijn physicsengine. Hoeveel de chips- en technologiegigant voor de overname betaald heeft, is niet bekend gemaakt.

Havok-logoDe physicstechnologie van Havok is bedoeld voor de ontwikkeling van digitale animatiefilms en meer realistische videospellen voor zowel gameconsoles als pc's. Havoks technologie is onder meer gebruikt in games als Bioshock, Strangehold, Halo 2 en Harry Potter and the Order of the Phoenix en de verschillende The Matrix-films.

Zodra de overname is afgerond, zal Havok een zelfstandige dochteronderneming worden van Intel. Het is de bedoeling dat het bedrijf op normale basis doorgaat met zijn werk. Volgens Havok-ceo David O'Meara maakt de deal het mogelijk dat het bedrijf verder gaat groeien in een aantal nieuwe marktsegmenten. Welke dit zijn of hoe deze plannen concreet uitgewerkt zullen worden, valt echter niet uit het persbericht op te maken.

Moderatie-faq Wijzig weergave

Reacties (92)

of de physicschip bij op de cpu :o een ppu en cpu in 1 dus

@ rodka
ik meende dat de havok engine ook gedeeltelijk in Half Life 2 zat ;)

[Reactie gewijzigd door FragDonkey op 15 september 2007 19:10]

Ik denk zoiets als 'n SSE8 unit
Met speciaal voor Physics low level instructies die veelvuldig gedaanworden.
Zoals 'n array of zooi branch logics etc wat allemaal het meest optimale is om Physics calculaties te versnellen.
Daarnaast komt of is iNtel ook van plan om de Retail GPU markt te bestormen.
Omdat GPU door GPgPU ook 'n bedreiging vormt voor CPU markt. Vooral proffesionele GpgPU kaarten met 2GB of meer geheugen.

Unified shader voor
Vertex, Geometry, pixel en Physics prosessing.

Waar er vanaf design stage al rekening gehouden is met goede Phsyics performance en veelzijdigheid.
Unified shader voor
Vertex, Geometry, pixel en Physics prosessing.

Waar er vanaf design stage al rekening gehouden is met goede Phsyics performance en veelzijdigheid.
De GeForce 8 heeft ook al zoiets.
nVidia heeft het over 'Quantum Effects'. Physics op de shaders van de GPU: http://www.nvidia.com/page/8800_features.html
Ze hebben er een demootje met rook bij:
http://www.nvidia.com/object/geforce_tech_showcase.html

Maar verder heb ik nog niets van deze technologie gezien.
Ik heb eigenlijk uberhaupt nog niets gezien van physics op de GPU in de praktijk. Ook niet van HavokFX of de oplossing van ATi. Bestaan er eigenlijk wel spellen die het ondersteunen?
Ik ben namelijk wel benieuwd hoe de verhoudingen liggen. Ik vermoed dat CPU het traagst is, GPU daartussen, en PPU het snelst.
Quantum effects is marketings onzin. Vanaf SM3.0 wordt GPGPU Physics ondersteund.
Dat is dus de Branch lichte G70 en de Branch heavy R520 series.
R600 en G80 zullen meer gelijkwaardig zijn. Het zijn dus kwa hardware die Pixel shaders of unified shaders. Alleen nV geeft er 'n marketings draai aan.

Van GPGPU Phsyics zijn alleen shynthetische techdemo's bekend.
Crysis past wel in lichte mate GPgPU Phsyics to met hun inhouse zelf ontwikkelde Physics engine. Maar groten deels is dat nog steeds CPU Physics.

HavokFX lib is pas laat, maanden na PPU release als counter actie opgeleverd.
Dus waar Grin al lang voor PPU release met de PhysX sdk heeft mogen stoeien voor Graw1PC.
Moest HavokFX 'n tijd erna nog aan de markt gebracht te worden.
Volgens ATI loopt HavokFX titles met 9 maanden achter stand tov PhysX.
Dus rond de jaarwisseling zou je HavokFX titles mogen verwachten.
Ik denk eerder begin 2008. En goeie eind 2008.

Zover ik weet zij er twee HavokFX titles in aantocht.
Aangezien er geen Havok FX game lijst is moet dit per aankomende Havoc title uitgezocht worden.
Ik dacht maar weet het niet zeker.
Alan wake
Alone in the dark.

Kwa performance.
CPU en GPU zijn een range kwa Physics kracht.
CPU en GPU overlappen mekaar.
'n X1300pro bied niet veel meerwaarde tov 'n CPU volgens ATI. Dual/Quad?
vanaf X1650XT wordt het pas interresant en die presteerd als 'n 7900!
De reden dat Folding@home geen SM3.0 van nV ondersteund.

Ik schat dat 'n PPU tussen de X1650XT tot HD2600 presteerd

PPU heeft wat weg van de Cell CPU.
Quantum effects is marketings onzin. Vanaf SM3.0 wordt GPGPU Physics ondersteund.
Dat is dus de Branch lichte G70 en de Branch heavy R520 series.
R600 en G80 zullen meer gelijkwaardig zijn. Het zijn dus kwa hardware die Pixel shaders of unified shaders. Alleen nV geeft er 'n marketings draai aan.
Ik weet dat het via de shaders gaat, daar ging het toch om? Ik reageer op jouw opmerking van "Unified shader voor Vertex, Geometry, pixel en Physics prosessing.", en zeg dat nVidia dat heeft.

Maar vergis je niet in het ontwerp van de G80. Lees je ook eens in over Cuda en de onderliggende architectuur. De G80 is op dat gebied baanbrekend anders dan de G70... en hoewel ik van ATi's R600 minder weet (ik heb niet zulke uitgebreide documentatie als van NV kunnen vinden), doen de gebrekkige prestaties me vermoeden dat de R600 ook een stuk minder flexibel en modern van ontwerp is als de G80. Veel meer een 'R520 met DX10-features' dan echt een compleet nieuwe architectuur zoals de G80.
Lees dit maar eens door: http://www.stanford.edu/c.../061129-SU-EE380-Cuda.pdf

Vandaar ook dat ik vermoed dat ze met die Quantum Physics veel meer bedoelen dan alleen HavokFX-achtige troep kunnen draaien, en ook die smoke-demo doet vermoeden dat de mogelijkheden verder reiken, en natuurlijk Cuda zelf.

Nogmaals, ik vind HavokFX niet echt 'physics op de GPU', zowel Quantum Effects en ATi's physics-verhaal zijn volgens mij veel generieker bedoeld dan HavokFX (wat voor zover ik weet alleen 'non-interactieve' physics doet, de objecten doen in feite niet mee aan de gameplay, en bestaan alleen op de GPU, puur voor effecten), en zijn meer vergelijkbaar met CPU en PPU-oplossingen (en ook meer dan alleen SM3.0 gebruiken). Havok FX is meer voor extra eyecandy effecten, maar de physics voor de gameplay zelf blijven op de CPU.
Ik vraag me dan af hoe de prestaties liggen tussen de drie.

[Reactie gewijzigd door ddbruijn op 16 september 2007 15:23]

Ik zie eerder havok under de hood gebruik maken van cuda voor hun nV Path.
Ik zie hooguit de big boys die Licenceerbare Game-engine ontwikkelen. GPGPU door low level aPI benaderen.
De gross van de markt aan Dev's is afhankelijk van middleware voor een easy and fast time to market. En gaan dus voor 'n high level Physics SDK

Ook ik ben benieuwed naar HavokfX performance tussen nV en ATI gPU.
ATI architektuurs zijn al zwaar shader gericht dat het nu pijn doet.
Heel goed voor DX10 en physics. shaders genoeg.
Ze zijn mijn favoriet. nV smijt er meer marketing tegen en TWIMTBP helpt ook 'n handje.
Hierover is winig bekend hoe ze verhouden. Dat weten we dan pas na de eersre paar HavokFX title
s
Voor de PPU architectuur tidbits hier 'n linkje.

http://www.techzonept.com/archive/index.php/t-89459.html

PPU CELL en GPU hebben veel gemeen op hoger level design.
Maar er zijn ook grote verschillen op fine details.
Ik zie eerder havok under de hood gebruik maken van cuda voor hun nV Path.
Dat staat hier los van, wat mij betreft.
Ik had het erover dat nVidia hardware heeft ontwikkeld waarbij de shaders redelijk geschikt zijn voor physics processing.
Of Havok daar gebruik van maakt, of een andere API, vind ik niet zo heel relevant, al zal Havok idd voor ontwikkelaars aantrekkelijk zijn.
Punt is dus wel dat HavokFX *niet* hetzelfde kan als de 'gewone' Havok engine.
Het is puur voor bepaalde effecten (vandaar de naam, denk ik).
Voor zover ik weet is HavokFX de enige GPU-geaccelereerde optie die Havok aanbiedt, en is deze alleen op SM3.0-hardware gericht, dus we zijn nog niet zover dat we een Havok met Cuda support krijgen.

Dus helaas is het nog even wachten totdat we weten wat de moderne GPUs kunnen, qua physics... Als het er uberhaupt al van gaat komen dan.
of de physicschip bij op de cpu een ppu en cpu in 1 dus
Zal nooit gebeuren. Een CPU beschikt al over dezelfde SIMD-eenheden die je in een PPU aantreft. En in de niet zo verre toekomst hebben ze acht cores en SSE5. PPU's zijn totaal nutteloos.
Afgezien van het feit dat PPU's, zoals GPU's, specifiek ontworpen zijn voor het uitvoeren van massaal parallele berekeningen, en dus (vergeleken met een huidige general-purpose CPU) vele malen meer potentiele kracht/performance hebben. PPU's en GPU's lijken in dat opzicht veel op elkaar, en differentieren zich dan ook beide duidelijk van een CPU.

Een PPU zal dan ook een significant voordeel geven in situaties waar een zeer hoge mate van physics nodig is, alhoewel daar (zoals hierboven door SG aangegeven) tegenwoordig nog niet zo'n sprake van is. Dat sluit echter niet uit dat we in de toekomst meer spellen gaan krijgen zie qua physics zeer veel rekenkracht vergen.

Misschien wordt het tijd voor een GPU+PPU combinatie? Zeker niet ondenkbaar, lijkt me.
Afgezien van het feit dat PPU's, zoals GPU's, specifiek ontworpen zijn voor het uitvoeren van massaal parallele berekeningen, en dus (vergeleken met een huidige general-purpose CPU) vele malen meer potentiele kracht/performance hebben.
Je vergeet dat een CPU een vele malen hogere klokfrequentie heeft. Alle schattingen leveren op dat de PPU helemaal niet zo krachtig is en het waarschijnlijk verliest van een Core 2 Duo en zeker van een Core 2 Quad.
Misschien wordt het tijd voor een GPU+PPU combinatie? Zeker niet ondenkbaar, lijkt me.
Dat is nog onzinniger. De GPU is veel krachtiger dan de PPU en wordt iedere generatie flexibeler in gebruik. NVIDIA en AMD kijken neer op de PPU, en terecht. Men gaat geen transistors verspillen aan zoiets terwijl men ze beter gebruikt om de shader units verder uit te bouwen.
Die leuke hoog geklokt general purpouse CPU zijn niet goed in massive parralisatie toepassingen als Physics. Dat ze nog enigzins mee kan komen komt omdat de eerste PPU 'n lightweight design is.
125m transistors op 130nm dat 30watt mag verstoken. vergelijkbaar met 'n Budged midrange GPU. Alleen hebben die 'n wat hogere klok.
D'r is 'n 80nm in aantocht. Kan zijn alleen 'n wat hoger geklokte en of energie zuinige model.
Daarnaast 'n CPU is non dedicated dus wat 'n CPU bied is alleen 'n deel beschikbaar voor Phsyics.
Waarbij men 'n PPU of GPU's dedicated voor Physics kan toepassen.

En ja schattingen zijn leuk maar er zijn ook game uit die gebenched worden en die laten duidelijk zien dat de PPU krachtiger is met zware Phsyics taken zoals Clothes en fluids. En envoirmental destuctie.

Ben benieuwed wanneer PPU en CPU en GPU eens gebenched kunnen worden met 'n synthetische benchmark en paar zware Phsyics games die beide SDK ondersteunen. Dat laaste zal niet snel gebeuren. Die synthetische wel.

Uiteraard zal er ook 'n PPU2 komen. Die wat beter bij de tijd is. hopelijk 'n Heavyweight design op 'n wat moderne procede. Als GPU tegenhanger. Maar dat zal nog even duren.

Omdat GpgPU en PPU API afhankelijk zijn is de Performance van PPU vs GPU minder van belang. De game bepaald wat je gebruiken kan. Wat belangrijker is hoe veel meer Physics kracht 'n PPU levert tov CPU's.
GPU mogen en kunnen ook krachtiger zijn aangezien die krachtigere ook 'n stuk duurder zijn.

CPU en GPU worden krachtiger Voor PPU geld dit ook alleen wat voor Produkt cycle gaan ze aanhouden.
Een Physx-kaart moet juist berekeningen van de processor overnemen, als je een physicschip in de cpu zet bereik je net zoveel als een hoger geklokte cpu.
Ehh... Nee, want een PPU-unit (om het zo te noemen) op je CPU, neemt dan de physics voor zijn rekening... :)

Net als bij AMD's, die een memory controller aan boord hebben, waardoor de northbridge is komen te vervallen... :)
HL2:EP2 of EP3 want in EP2 zitten ze met movie-physics (of zoiets) maar dit kan evengooed door havoc code gedaan zijn!
Ja, of hij heeft het gewoon over Half Life 2 zelf, en niet de technische opvolgers EP1/2/3/etc ;)
Zouden ze toch ook maar Physicskaarten gaan maken dan?
Lijkt me niet, als je kijkt naar hoe slecht physics-kaarten worden verkocht. Het lijkt me eerder dat de Havok engine geoptimaliseerde code krijgt voor Intel processoren, en zo dus een betere 'game-processor' wordt.

[Reactie gewijzigd door Hylk0r op 15 september 2007 19:04]

Het verkoopt niet goed omdat de kaart gebonden is aan een specifieke API die alleen door specifieke software gebruikt word. Dit is dezelfde reden waarom 3dfx's Glide/Voodoo spul gestorven is. De PhysX kaart zou wel verkopen als Havok er ook gebruik van zou maken.
Ik snap alleen niet echt waarom Havok dit niet doet. Volgens mij hebben ze er alleen voordeel aan, tenminste, als hun engine de PhysX kaart beter kan benutten dan Ageia (de feature set van Havok's engine mag misschien wel veel minder zijn dat Ageia, maar performance is vaak belangrijker). Het zou kunnen zijn dat Ageia Havok geen toegang wil geven tot het gebruik van de PhysX kaart. Maar dat lijkt me weer een slechte zet van Ageia, want zo verdienen ze niks aan hun PhysX hardware. Hun physics engine is in principe gratis.

[Reactie gewijzigd door elmuerte op 15 september 2007 19:14]

De API van Aegia is gratis. Voor Havok moet je een licentie kopen en vervolgens krijg je de broncode en ondersteuning.

Waarom Aegia dan niet aanslaat? Je moet een kaart van 150 kopen terwijl een CPU het evengoed kan doen. Als je toch wenst een extra slot op het moederbord te gebruiken ben je nog steeds sneller af met een grafische kaart van 50 die sneller is in de berekeningen dan de PhysX. Maar meeste mensen zouden dan natuurlijk bij een upgrade van de graka, de oude gewoon recycleren.

Developers rekenen de klant dus liever een halve euro of weet ik veel extra aan, dan dat klanten extra hardware moeten hebben voor een feature.
D'r is een reden waarom Ageia PPU kaarten nog niet aanslaan en dat is.
Gn n populaire game maakt goed intensief gebruik van hardware accelerated gameplay Phyisics Die dus die game ook daadwerkelijk enhanced en dus unieke Phsyics rijke gameplay bied. Voor wat er nu beschikbaar is aan games bied de PPUKaart gewoon weinig value voor de Prijs.

Graw 1 + 2 zijn en Unreal 3 wordt ,Hardware accelerated effectPhyisics games.
Dit zijn de bekenste games in ageia stal.

HavokFX is ook vooral gericht op EffectPhysics gebruik. Niet 'n directe tegenpool. Wordt wel zo gezien. Havok gaat Hydracore voor gameplay Physics gebruiken. En dat is gewoon SMP op de CPU.

Kijk zo'n game als warmonger die wel full gameplay PhysX is heeft ook 'n PPU nodig, geen optie maar requierment. Dan kan je iets vernieuwends doen of iets op grote schaal uitvoeren kwa Physics. Cellfactor is 'n rushed projectje dat al de mogelijkheden laat zien. De potentie. Cellfactor is niet de limiet. Maar 'n onder de maat of gemiddelde poging.

Dan Die PPU is krachtiger dan 'n CPU. CPU kan ook wat Phsyics doen maar wel 'n stuk minder. d'r zijn dan ook leuke dingen mee te deon. GPU ook heel veel tot heel weinig maar dan vooral EffectPhysics.
Gameplay is ook mogelijk maar dan moeten ze de GPU direct gaan coden niet dmv havokFX. Maar GpgPu interfaces Cuda etc.

De Games bepalen of iets sucses vol wordt.

De knel punt is HArdware accelerated Gameplay gaat niet zo goed samen met online play. De reden dat Havok met FX genoegen neemt voor EffectPhysics.
Maar de Dev's zien dat niet zitten. Dus ook geen storm loop voor HavokFX bij de dev's. Volgens annand tech. Dan proberen ze juist PhysX in 'n online game te proppen dat is vragen voor problemen. Genoeg Singleplayer games waar je gameplay Physics op los kan laten lopen.

Voor 'n killergame Die echt de potentie van hardware accelerated Physics aanboord , dan wordt 50 150 250 350 'n steeds lagere drempel. afhankelijk per persoon.
Voor 'n topgame die met dat extra hardware helemaal super wordt.
Nu is het van 250,- naar 150,- gegaan. Maar wat PhysX PPU kaart nu bied is 'n addoncard waar niets veel zinnings voor uit is.
Het enige wat men dan ziet uitsteken is de prijs.

Kijk voor Crysis met Vista U64 'n 30"LCD QC_CPU en 2x 8800Ultra in SLI. kan dan wel goed benut worden voor veel games.

Prijs is 'n probleem omdat er niks zinning voor is. En uiteraard is dit 150 voor n componentje uit 'n algeheel systeem van +/- 2500,-

Unreal 3 zware heavy harware accelerated Gameplay Physics mods zijn dan mogelijk. Als Unreal populair wordt die kans is er. Er kunnen dan ook aardig wat PhysX Mod's komen. Ook goeie. En voor ieder wat wills.
Maar ook voor U3 clans bied 'n PPU meer waarde dan nu het geval is. Voor het EffectPhysics deel.

Daarnaast de Prijs van PPU vs GPU boeid totaal niet. 'n PhysX game doet geen ruk met GpgpU. En 'n HavokFX game ziet die PPU niet.
De games bepalen wat je nodig of optioneel kan gebruiken.
De PPU is kwa prijs ongeveer 'n budged midrange GPU. Kwa performance in die prijs range zijn beiden 'n stuk krachtiger dan 'n non dedicated Quadcore.

Ik heb dus 'n slot met 'n PPU er in en 'n CF slotje gereserveerd voor 'n als GPgPU misbruikte G-card. Als er 'n leuke HavokFX title uitkomt. En AM2 mobo waar hopelijk ook Phenom in kan. Voor Valve games met hun Hybrid threading.

Ik wacht af wat er met PhysX gaat gebeuren.
Warmonger en Unreal3 zijn belangrijk voor redlijke markt acceptatie. Plus wat HavokFX werkelijk gaat brengen als competitie.
Je hebt geen PhysX PPU nodig voor de PhysX physics engine. Als je geen PPU hebt gebruikt de PhysX physics engine wat er verder beschikbaar is (CPU, bij voorkeur andere cores).
Havok maakt standaard alleen gebruik van de CPU, de GPU driven Havok feature is een aparte extensie die ook gelicenceerd moet worden door de gamedevs.
De CPU kan het misschien even goed, maar die is ook druk bezig met andere dingen, je cpu kan ook even goed je beelden uitrekenen als je GPU, alleen niet zo snel.
Ik weet niet zeker of een CPU het evengoed kan, ik speel regelmatig Call of Duty Airborne en daar zie ik altijd mijn CPU op 100% draaien via mijn LCD op mijn toetsenboord. Ik heb een E6600 en alle twee de cores draaien 100% op dat moment... Viel mij gewoon op, en zelf denk ik dat dit wel met physics te maken heeft en daarvoor kan een physics kaart dus wel van pas komen. Maar goed, het spel ziet er gewoon fantastisch goed uit hier op een E6600 + 7900GTO, dus dan mag die CPU wel op 100% draaien, ik ga er geen physics kaart bij stoppen...
Het verkoopt niet goed omdat de kaart gebonden is aan een specifieke API die alleen door specifieke software gebruikt word. Dit is dezelfde reden waarom 3dfx's Glide/Voodoo spul gestorven is
Zoals Bacchus al lichtjes aangeeft: dit is niet de reden waarom 3dfx failliet ging. Glide was praktisch de 'native' mode waarin de kaarten werkte, maar ze konden ook perfect gebruik maken van OpenGL en DirectX 7. Als een spel Glide ondersteunde, betekende dit alleen maar dat deze mode speciaal geoptimaliseerd was voor de Voodoo lijn.

3dfx is failliet gegaan door een aantal foute keuzes. Ze hielden zich te lang vast aan dezelfde basis (de VSA-100) van hun kaarten en kochten teveel third-party technologie op in een poging dit te kunnen compenseren.
3dfx is niet failliet gegaan, de aandeelhouders hadden eieren voor hun geld gekozen. Dit nadat 3dfx idd een aantal productcycles gemist had, waardoor de waarde van het aandeel behoorlijk gedaald was.
Hiernaast waren zij ook nog in een groot juridisch gevecht met NVidia over multitexturing-techniek die vanaf de TNT2 t/m Geforce4 gebruikt was. Helaas hebben de aandeelhouders het niet willen gokken, want dit had een leuke cent op kunnen leveren voor 3dfx.

Ze waren bezig met "rampage" (pixel-engine) en "sage" (T&L engine), een gewaagde combinatie die erg snel zou zijn geweest. Dit had eigenlijk een zeer succesvolle lijn moeten worden daar de productie kosten erg laag hadden kunnen zijn.

De thirdparty overnames waren ook geen slechte aankopen (vooral gigapixel), echter wel erg duur. De grootste fout is echter de aankoop van STB geweest om zo inhouse hun kaarten te gaan maken.

Uit eindelijk is het grootste gedeelte van het bedrijf en know-how overgenomen door NVidia. Deze koos er helaas voor om de 3dfx-lijn op te heffen te gunste van hun eigen merk-lijnen.
Afgezien dan van het feit dat Voodoo prima overweg kon met DirectX en (Mini-)OpenGL.
Tis een beetje kip-en-ei constructie...physics kaarten worden niet verkocht zolang er geen games voor zijn..en niemand maakt games voor een kleine niche groep van physics kaart bezitters. Spellen moeten speciaal gecompileerd worden voor physics kaarten willen ze er gebruik van kunnen maken, net als dat spellen voor multi core ook geoptimaliseerd moeten worden om met 2 of meer cores te kunnen werken, alleen heeft een duals tripel of quad core identieke rekeneenheden, en da's met een physicskaart en je CPU niet 't geval....

Grafische kaarten hadden bij hun introductie 't voordeel dat spellen met een extra driver er gebruik van konden maken...ipv een complte recompilatie,,,,
Ja kip en ei probleem. Heefd zijn tijd nodig en wat push werk door leuke games. die er helaas niet zijn.

Nou dat special gecompileerd. nou nee. Dit is het probleem niet zozeer. Het probleem is meer higher level.
Zie het eerder zo er moet 'n wel en niet voor PPU gameplay Physics Path gecreerd worden. Het verschil zit hem in de Phsyics load. En wat te doen met al die Phsyics Gflops. Compileren is hier het probleem niet.
Ten eerste de Online Net load wat gameplay Phsyics kan genereren zorgt al dat serverbrowsen en Server filtering ook dit dilemma moet mee pikken.
zoals
16-64 player non PPU servers
2 tot 8 player PPU servers.
aLs het persee 'n online game moet zijn.

Dan moet ook die Extra Physics ook allemaal waar van toepassing in game content opgezet worden. zoals destructabel objecten of structures.
In een level editor moet elk object wat meer of heelveel Physics attributen gezet worden.
EffectPhysics heefd ook last op shader coders en art team.
Als je'eens de Reality builder tool van Cellfactor gebruikt heb dan weet je gewoon dat zwaar PPU gebruik ook de content / artist teams ook zwaarder gaan belasten
ipv 'n statische omgeving moet ene interactieve opgezet worden. Dat gaat niet vanzelf.

PPU support is geen lichte feature. Je gaat 'n game de Physics load verrijken. soms met neiuwe feature. die dus de gamedesign en game mechanics maar ook balancing kompleet om kunnen gooien.
Meer werk dus op heel veel vlakken.
zo geeft destructable enviorments al AI problemen met Pathing. dit heeft dan opeens een stuk zwaardere dynamische AI Pathing requierments.

Het is dus niet zo onbegrijpelijk in een niet zo innovatieve op save spelende industruie tussen Dev's en publishers. Die niet hals overkop zich op Hardware accelerated Phsyics storten. Er zitten veel Haken en ogen aan en is ook weer extra veel werk plus. Tegen over innovatieviteit en het onderschijden uit de massa of games.
Ik ben er wel bang voor, hopelijk kan AMD daar een tegenprestatie voor leveren. Bijvoorbeeld de optimalisatieresultaten overwinnen door rauwe kracht :P
Dat zou geen slimme zet zijn.

Optimalizeren is een eenmalige uitgaven waar je blijvend bij welk onderdeel ook profijt van zult houden.
Rauwe kracht zal je echt tot hardware om moeten zetten, en bij hardware moet je blijven vernieuwen en dan praten we nog geen eens over productie kosten die hierdoor hoger liggen waardoor de kosten op langere termijn hoger liggen dan het optimalizeren.

Slimme zet van intel, maar ik hoop niet dat dit gaat leiden tot het de-optimalizeren van AMD hardware. Hier heeft zowel de Intel als Amd fan geen trek in omdat andere hardware fabrikanten dit waarschijnlijk ook zullen doen, wat geen mooie zaak is voor de consument.

[Reactie gewijzigd door SniperFox op 16 september 2007 00:35]

'n mogelijke argument voor deze:

even de mogelijk heden voor iNTel brainstormen.

I) Competie kort wieken tov AMD.
1 ) SEE next met voor Physic specifieke instrukties kan dan zeer snel opgepakt worden. Deze SSE next Physics zal AMD sowieso 'n poos missen en later gen CPU ook hebben. AMD zal dus slechter presteren. Afhankelijk hoeveel winst behaald wordt uit deze instructies en optimalisatie daarvoor. 10 40%
2 ) De HAvok Lib's can iNtel en AMD CPU detecteren en dan tja iNtel in optimised draaien. en aMd geheel kortwieken.
3 ) Havok is dus niet meer onafhankelijk.

II Competitie van GPgPU vs CPU.
Andere redenen voor aquiering.
1 ) iNtel voeld zich bedreigd door GpgPU.
A ) kan HavokFX killen.
B ) Gaat zelf 'n GpGPU platform ontwikkelen en ook de GPU markt bestormen
En heeft dus inzicht nodig in de low level instructie mix van Game Phsyics en daar de optimale architektuur ontwikkelen voor next gen Dx11/12 Unified shades.
.2 ) GPU en Unified shader array op CPU's
.3 ) 'n Physics unit Cell achtigs on die bij CPU en of Physics unit )

III) MS DirectX Physics Component voor DX11 of DX12
Het complete Havok.paket inclu HavokFX wordt omge software engineerd naar
DirectX Physics.

I Hostile
II Gaan meespelen met competitie
III Gaan voor 'n standaard

Of 'n Mix van die drie.
Ik snap niet dat zo'n reactie als dit als ongewenst wordt gemod. Hebben we last van Intel fanmods ondanks het vernieuwde systeem?

Crp, en ook verder naar boven, BaRF hebben gewoon gelijk. Het grote gevaar van dit is dat Intel dit allemaal propietair houdt met als gevolg dat je bij iedere game in het splashscreen 'Optimized voor Core 2 Duo and Core 2 Quad' krijgt en dat als je een AMD processor runt je gewoon een crappy en langzame gameplay hebt. Mensen boycotten AMD. AMD lijdt nog meer verlies. En uiteindelijk sterft AMD een langzame pijnlijke dood.
ja de nVida: the way its meant to be played games spelen ook voor geen meter met een ATI zeker :')

[Reactie gewijzigd door Jimmie op 15 september 2007 21:00]

Omdat juist dit zulke reacties zijn die tot een fanboy oorlog aanzetten.
En die reactie is wel erg kortslachtig en heeft geen enkele waarde omdat enig bewijs of argument ontbreekt.

En dat bij AMD crap draaien is ook weer onzin, die programma's zijn ervoor zodat de developer een aantal devtools krijgt waarvoor Intel's CPUs ge-optimalizeerd voor zijn.
Hierdoor kan een intel processor gewoon op dit vlak beter scoren, maar om te zeggen dat ze er voor zorgen dat AMD crap gaat draaien is grote onzin.

Zulk soort programma's betekend niet gelijk dat een applicatie voor een bepaalde hardware gemaakt is. neen, het is alleen ge-optimalizeerd voordat deze op de markt komt. Hiermee krijgt de hardware fabrikant alleen een voorsprong op het optimalizatie proces.

[Reactie gewijzigd door SniperFox op 15 september 2007 21:18]

@The Triad

Nou nou, beetje dramatisch lijkt me.
Niks, maar dan ook niks, stond AMD in de weg om Havok zelf over te nemen.
Kennelijk hebben ze bij Intel een betere toekomst visie dan bij AMD.
Als dit het einde van AMD zou betekenen, lijkt me erg sterk maar wie weet, dan hebben ze dat geheel en alleen aan zichzelf te danken.

Intel is de betere keus op dit moment, en hierdoor in de toekomst een nog betere keus dan AMD, maar dat is dan toch echt AMD z'n eigen schuld.
En ik zou er niet rouwig om zijn.
Intel is de betere keus op dit moment, en hierdoor in de toekomst een nog betere keus dan AMD, maar dat is dan toch echt AMD z'n eigen schuld.
En ik zou er niet rouwig om zijn.
Ik wel in de zin dat dan alleen Intel als grote processor-fabrikant overblijft. Dus niet per se om AMD zelf als ze vervangen zou worden door een derde.

Maar ik vermoed dat AMD wel zal proberen terug te komen met een volgende haasje over ronde als gevolg als het lukt.
Dammit krijgen we weer 'oehoe deze muur valt beter in elkaar als je een intel hebt' in games :+
Liever dat dan dat je een extra physics kaart er in moet stoppen
Helemaal akkoord er is genoeg CPU kracht beschikbaar. Laat staan electriciteitsverbruik. Ik zie niet in waarom nog eens een kaart bijgestoken moet worden die niet eens 50% van zijn vermogen kwijt kan aan berekeningen in een spel.
Havok is dan ook de toekomst lijkt me...
Als je een core uit zou kunnen schakelen ten gunste van een gespecialiseerd insteekkaartje hoeft dat niet per se slecht te zijn. Die Physx kaart verbruikt ook maar ongeveer 25W totaal geloof ik, dus dat is niks vergeleken met videokaarten...
Intel: The way it's meant to be played behave :P
en waarom zou je dit erg vinden? AMD/Ati en Nvidia hebben ook al soortgelijke slogans. Meer nog: Intel is deze hype begonnen met Intel Inside, eigenlijk heeft elk iets of wat zichzelf op PR-vlak respecterend bedrijf dit soort slogans/breekpunten
Kan Ageia niet tasten in de library van Intel? Ik bedoel dat als je een Ageia kaart hebt en n van deze spellen speelt er toch op een bepaalde manier ondersteuning voor krijgt? Physics zijn physics toch?
PPU is closed hardware. En dus 'n blackbox en alleen toegankelijk met de Specifieke SDK. PhysX.
Op de havok site werdt geopt dat als Ageia PPU open maakt dat havok die ook optioneel zou kunnen ondersteunen.

Maar als Ageia dit zou doen en PPU 'n flop wordt kunnen ze moeilijk terug naar API only core busness.
Nu hebben ze die optie nog
De PhysX aPI voor Console is not free. Denk aan Wii Redsteel.
Oef was al even aan het vrezen dat havoc zou veranderen maar het lijkt erop dat ze toch gewoon verder doen.
En laten we HL2 niet vergeten... Toen ik die voor het eerst speelde had ik echt zoiets van... DAMN! Vooral vanwege de physics.
Dit lijkt mij duidelijk Bij deze gaat Intel de strijd aan tegen Amd voor de ultimate CPU/GPU/Physix Combinatie Chip. dat gaat veel beloven voor de toekomstige mogelijk heden die beide bedrijven zullen gaan bieden. zoals intel al eerder bekent maakte wilde zij hun positie op de GPU markt gaan vestigen, daarom denk ik dat de overname van Havok hierbij een groote rol zal spelen net zo als de overname van Ati voor AMD een belangrijke toekomstige zet is geweest. het is nog veel te vroeg om conclusies te nemen maar nu hebben beide bedrijven de juiste kennis in huis die zij nodig zullen hebben voor krachtige toekomstige combinaties van CPU/GPU/Physix oplossingen.
kortom dit gaat nog wat beloven voor de komende 3 jaar

[Reactie gewijzigd door Mietex op 15 september 2007 23:53]

Voorlopig hebben we denk ik nog een aantal jaren niets te verwachten van Intel/Havoc, aangezien Intel nog nooit een grote speler op de markt is geweest met high end kaarten waardoor ze dus achterlopen en ik denk dat de overgenomen divisie van Creative, ben de naam even kwijt niet echt vlotten met het ontwikkelen van nieuwe engine's.

Ik hoop dat Intel weer niet de fout gaat maken om snel iets te willen ontwikkelen op GPU gebied en alvast van te voren gaat bedenken dat hun toekomstige driver engineers echt rekening dienen te houden met krote tijden van upgrade's want de geschiedenis van Intel kennende kunnen we altijd lang wachten op update's, als die er uberhaupt zouden komen.

Maar ze hebben een kans en het zou voor de consument een aangename uitbreiding kunnen zijn in de GPU markt, lagere prijzen en misschien weer wat langer er mee toe kunnen doen met 1 high end kaart voor een langere periode want de laatste jaren brengen ze teveel nieuwe GPU's uit.
Volgens mij wil Intel niet dezelfde fout maken als bij de GPU. Door beter de noden van hoogperformante physics-berekeningen te begrijpen kunnen ze hun CPU's daarop afstemmen.

Ik denk dat AMD reeds een goede zet in die richting maakt met SSE5. Vermenigvuldigen en optellen in n instructie verdubbelt de theoretische rekenkracht. Dit doen DSP's en GPU's al jaren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True