Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 227 reacties
Bron: The Inquirer

In Groot-Brittanni is de eerste Ageia PhysX-kaart in de vrije verkoop opgedoken. Asus was de eerste met een productaankondiging, maar zal pas in mei de kaart op de markt zetten. BFG heeft nu als tweede exclusieve partner van Ageia zijn kaarten al gelanceerd. Voor iets minder dan tweehonderd pond kan het goedkoopste GX-021-BG-model gekocht worden, terwijl voor zo'n twintig pond meer de duurdere 023-BG-variant mee naar huis mag worden genomen. De eerste betreft de accessoireloze OEM-versie en is momenteel voorradig, terwijl de retailversie alleen op basis van voorinschrijving aangeschaft kan worden. Bij de retailversie worden zowel drivers als een demo-dvd met PhysX-toepassingen meegeleverd. De BFG-versie van de PhysX-kaart heeft 128MB 128-bit GDDR3-geheugen en een maximale bandbreedte voor twintig miljard instructies per seconde.

De PhysX-kaart, die ontworpen is om de cpu natuurkundig rekenwerk uit handen te nemen, heeft met name nut voor games. Ageia kondigde eerder al aan dat zestig spelontwikkelaars al meer dan honderd titels gepland hebben die ondersteuning bieden voor de PhysX-kaart. Ook Dell ondersteunt de kaart, aangezien de computerbouwer zijn Renegade XPS 600 standaard uitrust met de pci-kaart voor extra rekenkracht. Daarnaast zal Alienware de nodige computers voorzien van PhysX-hardware.

BFG GX-021-BG Ageia PhysX -kaart
Moderatie-faq Wijzig weergave

Reacties (227)

1 2 3 ... 6
Op het plaatje is volgens mij te zien dat de kaart een normale PCI aansluiting heeft. Zullen er ook modellen gaan komen met bijvoorbeeld een PCI-e x4 aansluiting of iets dergelijks? Lijkt mij interessanter dan een PCI ivm de bandbreedte
Nee, aangezien de kaart word aangestuurd met kleine pakketjes, is de bandbreedte van de pci-bus meer dan voldoende(volgens Ageia dan).

Voor de 1e gen. kaarten is geen PCIe aansluiting gepland.

Zie ook:
nieuws: Ageia PhysX PPU nader besproken
Inderdaad een gigantische bottleneck. PCI deelt 133 MB/s over alle apparaten, terwijl een beetje moderne CPU al 6.4 GB/s (50 keer meer) naar het systeemgeheugen ter beschikking heeft.

Investeer dus liever in een multi-core CPU en/of wat extra RAM en je zal er ook bij andere toepassingen bij winnen.
AGP4x en 8x en PCI 1 tot 16x is al eens gebenched en dat viel ook zwaar tegen die bandbreedte utalisatie.
Dus ik zou het eerst toch wel even gebenched willen zien of PCI wel zo'n grote ramp is mischien lever je wel iets in maar hoeveel?

We weten eigenlijk niet eens wat voor bandbreedte zo'n PPU voledig belast nodig heeft.

Realistische zoals in game toegepast Physics Benches kunnen dat op 'n gelijkwaardige PPU PCI PCIE1 uitvoering aantonen. Reallive PPU enable games met 'n benchoptie is weer beter..

Daarnaast heeft de PPU kaart 128MB local snel geheugen waar data objecten gestored worden.
Dus Object states en data zullen heen en weer gaan.

Dus in die traditionele Physics puur CPU bandbreedte zit ook de bandbreedte in die bij PPU tussen PPU en local ram zit.

Waarbij Software Physics die bandbreedte genereerd tussen CPU en systeem memory.

Dus Opdracht afgifte en resultaat return voor doorbewerking. dat is de bandbreedte belasting voor de PCI(E) bus.

Ben benieuwed hoe groot die is.
AGP4x en 8x en PCI 1 tot 16x is al eens gebenched en dat viel ook zwaar tegen die bandbreedte utalisatie.
Utilization is iets heel anders dan de maximaal beschikbare bandbreedte...en die is bij PCI-E 16x veel hoger dan bij AGP8x...
Dus ik zou het eerst toch wel even gebenched willen zien of PCI wel zo'n grote ramp is mischien lever je wel iets in maar hoeveel?
PCI is een gedeelde bus. Wanneer je (als de gemiddelde gamer) een X-FI in je PC hebt, deelt je PPU dus die 133mb van je PCI bus met de X-FI.
Dus in die traditionele Physics puur CPU bandbreedte zit ook de bandbreedte in die bij PPU tussen PPU en local ram zit.
Ik begrijp niet veel van deze zin, maar ik neem aan dat je de bandbreedte van het gddr3 vergelijkt met de bandbreedte van je systeem geheugen, ja dat is veel sneller. Alleen vraag ik me af waarom een PPU zo gigantisch veel geheugen nodig heeft...waardes zoals object posities e.d. (als zoiets al tijdelijk opgeslagen moet worden) heeft toch weinig tot niets aan data nodig... Snel toegankelijk geheugen (veel cache) lijkt me belangrijker dan grote hoeveelheden geheugen.
De reden dat ik jouw zin niet begrijp, heeft niets te maken met het feit dat ik het interview van Tim Sweeny niet heb gelezen, maar met het feit dat die zin niet te lezen is.

Ik vraag me af waar jij allemaal die cijfers en verhoudingen vandaan haalt. Er is nog heel weinig bekend, laat staat vergelijkbare info met bijvoorbeeld dual-core CPU's.

Verder heeft een videokaart het geheugen nodig voor textures, dat is gewoon een berg raw data...object states hebben geen megabytes of kilobytes nodig, maar bytes, wanneer fatsoenlijk gedaan (dit is dan per object, en in totaal dus een veelvoud hiervan).

Wanneer ik die demo van CellFactor zie, ben ik echt niet onder de indruk. Niet door de physics en al helemaal niet door de rest... ik betwijfel dat een extra core en waarschijnlijk een redelijk snelle single-core dit niet aan kan (voor de rest stelt het geheel weinig voor).

Dat een software oplossing trager is dan hardware, lijkt me duidelijk, maar jij hebt het over factor 100 tot 1000 (net zoals Tim Sweeny)...wanneer je een dedicated core gebruikt voor physics berekeningen, denk ik dat je een heel andere situatie krijgt.

Verder betwijfel ik dat er veel mensen zo'n extra kaart zullen kopen...300 euro PPU, 500 euro GPU, 600 euro voor een CPU... Terwijl hardcore gamers vooral het maximale aan performance willen halen en zo min mogelijk afgeleid willen worden door flashy/nutteloze effecten.
Na dat hebben neer getikd als reactie op eentje die meend dat 'n DC ook effe die PPU truckjes kan doen dus CPU met PC6400 zo veel meer is dan 133MB shared PCI wat de PPU heeft.

Heb ik tim sweeny interview gelezen. Zou je ook moeten doen en die staat gequote op 'n draadje op GoT.
Vooral als je die zin niet begrijpd

Als je weet dat GPU 'n sloot zeer snel videoram hebben en er nogal een berg werk verzet wordt tussen vidmem en GPU. Nou dat zal ook gebeuren tussen PPU en zijn local mem. De opdracht en resultaat verkeer is in verhouding klein dan de Physics berekeningen zelf die heel belangrijk, locaal gebeuren in snel geheugen.
Zoals ik al dacht en achteraf nog eens bevestigd wordt door TimSweeny.
Tim sweeny zegd in interview ongeveer, dat er nogal wat data nodig is om dat allemaal te berekenen dat maar eenmalig hoeft gezonden te worden naar het local PPU memory. initalisatie. Lijkt op GPU gebeuren. Texturemanagement.

'n Beetje Gkaart heeft nogal wat meer bandbreedte ter beschikking dan systeem ram aan de CPU. Zo ook de PPUkaart.En heel belangrijk de CPU kracht voor Physics valt nogal tegen maar de PPU heeft die kracht wel in de orde 1:100 tot 1000 En kan dus ook meer met die bandbreedte.

De CPU bandbreedte utalisatie is dus het Physics opdrachten verkeer + de resultaat doorverwerking maar ook de zware physics berekening zelf en dat is waar de botlneck zit 'n CPU die daar slechter in is en bandbreedte dat minder is.

Software = CPU met alleen systeem mem =
Opdracht+resultaat+berekening bandbreedte. = gedeeld met andere zware taken. Render,sound/netcode/gamelogic.


Hardware = (CPU opdracht+resultaat PCI) +( PPU berekening DDRIII )= Dedicated.

Wetende dat de eerste Voodoo1 ook niet zo'n zware bandbreedte utalisatie had als die 10th generatie 3D acceleratoren van nu.
Voor PhysicX 1 kaarten van nu zal Hardware Physics ook doorgroeien om het level van detail van Physics effecten op grotere schaal en het aantal Physics effecten steeds te vergroten dit is pas de eerste stap na jaren software matige Physics gebruik.
Die stap is groot maar er is nog heel veel ruimte over voor doorgroei.

En dan zal het opdracht+resultaat verkeer ook groeien maar dan staan PPU 3 al op PCI-e type 2
@SG:
Als jij nou eens begint om begrijpelijk nederlands te gaan gebruiken, dan heb je ook meer kans dat mensen even door lezen.
Wordt leraar het is duidelijk zat.
Verder blijf je ook nu weer allerlei zaken door elkaar halen.
Dat je Xenos en Xenon door mekaar haalt is niet zo erg,
Nice, maar iemand vind dat wel een grote punt, daar slaat die hele reply'eigenlijk op als in context daarvan.
Die persoonlijke aanval dus.
maar dat je denkt dat een powerpc hyperthreading ondersteunt geeft gewoon aan dat je totaal niet weet waar je over praat.
Nee. IBM heeft er geen marketings naam voor, zover ik weet. Maar xbox360 Previews Reviews noemen het gewoon HT zodat iedereen meteen 'n idee heeft waar het over gaat. En niet 'n Alinea aan definitie van IBMs Xbox twee treads verslindende per kern, met verwijzing naar iNtels HT, in een alinea moeten aan kaarten. Leentje buur HT zegt alles. Het is meer lui heid maar ja of dan krijgt reply's met van die zaken meteen 10 keer zo groot als je tot de puntjes van de i moet gaan uitwijden. Wel natuurlijk voer voor persoonlijk aanvallen en ge-mieren...
En dat maakt de rest van je verhaal (voor zover het uberhaupt leesbaar is) bepaald niet geloofwaardig.
Omdat ik mij niet zo goed kan verwoorden, houd niet in dat ik bij voorbaad ongelijk heb. Maar dat moet iedereen maar zelf over nadenken. Aangezien je niet zomaar alles moet aannemen ook niet als ze een snelle waffel op snel kunne typen. Maar het is ook mogelijk dat ik ongelijk heb, maar ik wijs gewoon op ene andere inkijk op de topic. We weten nog niet wat voor bandbreedte 'n PPU nodig heeft PCI is minder dan PCI-E 1x maar zal het nou niet of wel voldoende hebben aan PCI. Dat zal wel tot uitingkomen als de eerste benchmarks en games beschikbaar zijn. Dat wordt gewoon afwachten. Maar staar je niet blind dat PCI de boel afknijps want dan moet er wel iets om af te knijpen komen. En dat is nog onbekend. We weten nog niet veel maar PCI versie is bijvoorbaad al afgeschoten door velen en gezien de moderatie is dat de mening van de massa. Ik wacht eerst af. Maar geef wel een tegen mening om het ook van een ander kant te belichten. De voor en tegens.
Iedereen kan een leuk verhaal maken met een boel cijfertjes. Maar de daadwerkelijke onderbouwing en het effect in de praktijk is waar het om gaat. En dat gedeelte ontbreekt nog volledig.
We speculeren er gewoon op los kan er naast zitten maar aan de info die ik gedestileerd heb. Schiet ik PPU op PCI nog niet af. Wat anderen blijkbaar van andere mening zijn. Of het hele idee niet zien zitten. En zich er totaal dus niet neigen in te verdiepen maar wel al een mening hebben. En dat is dan ene negatieve. Het is nu nog gebaseerd op bevindingen van info over performance wat ze tot nu toe hebben losgelaten van de bron zelf, subjectief dus. Daarom speculatie.
Voorlopig zie ik een boel hype, maar totaal geen indicatie wat het nou daadwerkelijk in een spel gaat betekenen.
Hype? Misschien. Maar als ik de reacties lees is de kritiek en sceptisme groot. Dus is er wel hype en zijn we over het algemeen terug houdend? Misschien wel 'n beetje hype. De Dev's geloven er wel in. IIG ook 'n belangrijke in die markt. Elke start is moeilijk aangezien ze door havok FX meteen in zwaar water komen. Dan moeten de Dev's het nog waar gaan maken het licht niet alleen aan Agiea maar ook wat de dev's er mee doen. GRAW is de eerste belangrijk titel voor Ageia. alleen gebruikt die PPU voor Grafische verbeteringen van bijvoorbeeld explosies. Niet iedereen zal meteen storm lopen maar imposantere explosies is ook mooi meegenomen. Alleen diegene die voor die PPU kaart gaan voor GRAW zal geen grote groep zijn want velen zullen 300 te veel vinden. Voor wat GRAW bied aan PPU mogelijk heden. Wordt dus afwachten op PC GRAW reviews die ook PPU meerwaarde uitgebreid reviewen. Maar om meteen met Hype te gooien. Tuurlijk de kans is er dat PPU tegen valt. Mede door het te lang of helemaal weg blijven van een Class AAA top game die de PPU met zich mee trekt. En de verwachtingen waar gaat maken. Die mogelijk heid staat nog steeds open aan de hand wat wij ondertussen er over weten en dat is niet veel. Het uiteindelijke rendement van PPU PCI/PCI-E is nog onbekend. Ook is onbekend wat de invloed is als die PCI toch te weinig blijkt te zijn
PCI vs PCI-E is grof 'n factor 2 in worst case senario zal die 30.000 performance potentie gehalveerd worden Als het zo erg is dat zelfs PCIE1 volledig of meer geutaliseerd wordt.. 15000 Dat is natuurlijk zonde maar altijd 'n sloot meer dan wat 'n DC kan leveren. volgens de huidige performance uitingen. Kan ook zijn dat de eerste games niet het onderste uit de kan halen aangezien de games ook mede bepaald hoe zwaar de bandbreedte gaat worden. GRAW zou misschien genoeg hebben aan PCI variant maar bij Unreal2007 zou wel verschill aan kunnen tonen tussen de PCI en PCI-E variant. Doordat meerdere PPU features op grotere schaal geimplementeerd zouden kunnen worden. Maar hier over kunnen we nu alleen speculeren.
En dat is een heel slecht teken. Op het moment dat je die kaart gaat verkopen, moet je kunnen aantonen hoe geweldig het ding is. Zo niet, dan zit er een addertje onder het gras.
De nut en zin is alleen aan te tonen aan de hand van beschikbare games die het zodanig benutten dat het de game redelijk veel verrijkt. Kip en ei probleem eerst de hardware dan de software. Dus samenwerking tussen Dev's en hardware. PPU is dus ook uitgesteld vanwege dat het nogal even duurd er de eerste game beschikbaar is. Binnenkort GRAW. Als begin. PPU heeft een top title nodig die de PPU goed tot zijn recht laat komen vooral ook in het gameplay aspect. Dit is 'n groot probleem aangezien hier nog geen teken van is. OverHype is pas doorslaand negatief als ze op hun bek zijn gegaan. Nu liggen de opties volledig open aangezien er weinig bekend is en Dev's nog hard aan het timmerren zijn aan hun game projecten waar PPU gebruikt kan worden. Denk aan Unreal3 games. CellFactor? sloot ander titles het heeft toch ook zijn tijd nodig. Tijd die het misschien niet heeft Havok FX hijgt in de nek van Ageia.
Dat een single-core 30 40 objecten kan realiseren geloof ik je wel...Dat een dual-core, mits fatsoenlijk ontwikkeld, 300 objecten kan realiseren wil ik voor de grap ook wel even aannemen. Maar dat een nieuw product, wat nog niemand heeft kunnen benchmarken en we alleen maar op papier de performance van hebben gezien, 30000 objecten af kan handelen...dat betwijfel ik, tot ze met fatsoenlijke benchmarks durven te komen.
De publiek weet nog niet veel, maar de Dev's des te meer aangezien er al 'n titel bijna klaar is GRAW. Tim sweeny UE3 heeft tov ons natuurlijk nogal wat voorkennis en mogelijk al PPU kaartjes in bezit om hun game project op los te laten. Niet dat je hem blind moet geloven maar dat de PPU veel beter is dat geloof ik wel. Ondervoorbehoud. :) Hoeveel geen idee maar wil het bestaans recht hebben in een nieuwe markt en kost het ook wat, dan moet het wel veel zijn aangezien de massa toch eerst naar de centjes kijkt. En wat het brengt. Exact weten we het niet maar ook tov Havok FX is het onbekend. Ik zie 30000 als 'n referentie punt. kan dus stuk meer of minder zijn en ook voor welke uitvoering zou dat gelden tov wat voor config. Of is dat 'n ruime schatting. Volgens interne demo's? iig kunnen ze dat enigzins met demo's aantonen maar 'n demo is geen reallife game.

...aangezien AMD HT geen bal voorsteld als zo'n genral purpouse CPU die BEREKNINGEN die de PPU op snel DDRIII geheugen doet totaal niet kan evenaren.

AMD HT? Ik hoop dat je hypertransport bedoeld hier... laat even wat betrouwbare benchmarks zien ipv het marketing verhaal van Ageia proberen te vertalen.
Jij komt het Hyper transport terwijl ik het verder op had over xbox 360 6 thread verslindende IBM tripel (intel HT achtigs) IBM core. 'Hyperthreadende' IBM core. HT is iNTel naampje voor 'n variant van 'n breed toegepast techniek. Niet specifiek iNTel maar die geeft het beestje 'n naam. Ook leuk om die iNTel kreet los te laten op 'n IBM core.

Ik zal het eens toelichten. De bandbreedte HT als in AMD inter chip connect tech. Die is heel veel meer dan PCI. alleen Physics berekening van 'n DC core over HT is 0 zero nada nakkes. Maar dat is het punt niet.
De DC doet De Physics opdracht berekening en resultaat doorverwerking tussen CPU en Systeem mem. Membus. Alleen de Bus is niet het probleem de daadwerkelijke Physics berekeningen vinden ook op die membus plaats. Membus en HT zijn kwa bandbreedte niet gelijk maar niet met zo'n extreme factor. Maar de daad werkelijke Physics BEREKININGEN hoeven niet over de PCI bus.Die laat de PPU los Physics data in die 128MB DDRIII. Dan heeft de DC wel wat redelijke Bandbreedte tot zijn beschikking voor de berekeningen, het systeem mem. Maar de DC is door zijn general purpouse limieten 'n heel stuk minder krachtig in. n heeft minder bandbreedte tot zijn beschikking. De kracht van PPU zit hem waarschijnlijk in dat ie die kracht kan loslaten op 'n veel grotere bandbreedte.Die DDRIII bandbreedte zodat de PPU tot zijn recht kan komen. Daarnaast voor DC is de bandbreedte bij voorbaad al niet relevant aangezien de DC de Physics kracht mist om dat te kunnen genereren op 'n PPU gelijkwaardige niveau.
Bij tha 'way. Als je 'n AMD DC core gebruikt voor Physics. Dus die HT platform. Gaat de Physics belasting puur over de membus.
De PPU Opdracht en resultaat verkeer Physics belasting gaat via PCI/PCI-E naar HT naar de CPU/MEM en dan verder GPU. In geval van 'n hammer based systeem.
PPU gebruikt dus HT. Software matige oplossing CPU dus niet.
Dat je een naam door mekaar haalt, dat begrijp ik wel (heb er zelf ook eerst op moeten googlen). Maar dat je technieken aan producten toekent, die er met geen mogelijkheid in kunnen zitten, dat maakt de rest van je verhaal niet betrouwbaarder.
Ik duid een twee Thread verslindende feature van een niet iNTel core ook met HT aan. Zou eigenlijk 'HT achtigs' moeten neer poten maar ik was lui en had haast moest vanmorgen krabben. kon m'n replay niet 3 keer doornemen of het allemaal wel klopt.
Nogmaals, de xbox360 heeft een PowerPC CPU, dat is dezelfde architectuur die Mac vroeger gebruikte en IBM nog altijd in hun servers propt.
HT (HyperThreading) is een techniek van Intel, die ontwikkeld is voor de Pentium 4. Door de netburst architectuur van de P4, is het mogelijk om voor een beperkt aantal instructies, meerdere threads tegenlijk uit te voeren. Dit is geen volledige SMT CPU.
Xeon is de server/workstation processor van Intel, aangezien Intel helemaal geen component levert voor de xbox360, vraag ik me af hoe je die links allemaal verzint
Dat weet ik ook maar dat ge mierenneuk om 'IBM intel (tm) HT achtigs ' vs HT is wat overdreven maar is natuurlijk voer om 'n persoonlijk aanval vlink uit te breiden.
Ik zou ook liever een pci-e kaart hebben, alleen al gezien alle PCI sloten vol zitten.

Moderne gamesystemen hebben meestal toch al pci-e, en daarmee ook vaak een beperkt aantal gewoone pci sloten
Dus vanuit dat oogpunt lijkt mij pci-e toch beter voor zo'n kaar aangezien daar toch nog niet veel andere kaarten voor zijn.

Mijn gamebak heeft maar 2 pci sloten, daar van zal 1tje binnekort door een geluidskaart worden gebruikt, en in de andere zit een tv kaart. Daarintegen heb ik wel nog 2 lege pci-e sloten.
Deze opmerking raakt kant noch wal. Als de Ageia niet meer bandbreedte nodig heeft, is de PCI-bus geen probleem. Een PCI-E x16 - verbindung haalt (volgens wikipedia) 3,7 GiB/s. Dus is het onzin om een videokaart te kopen en kun je beter een snellere CPU aanschaffen?
Het probleem is dat hij wl meer bandbreedte nodig heeft. Ooit al een physics engine gebruikt? De data van en naar die engine is rap in de buurt van 133 MB/s. Bovendien is dat niet mooi uitgespreid per seconde maar heb je nood aan een piekbandbreedte die veel hoger ligt.
Jij ooit een physx kaart gebruikt? Als Ageia zegt dat dit voldoende is dan zal dat wel zo zijn he...

Immers ze maakten deze kaart toen PCI-express er al was dus als het nuttig was hadden ze zeker voor PCI-express gekozen
Ja, die moet je geloven; het gaat hier om een kaart welke puur voor de diehard gamers ontwikkeld is; als hij niet meer nodig heeft dan 133MB/s dan zal dat wel niet zo zijn, zo wel, hadden ze 'm gewoon op PCI-E uit kunnen brengen
Waarom met PCI-express beginnen als je eerst nog de PCI-versie kan uitmelken.

Is de sprong naar die duurdere (eventuele) PCI-express uitvoering meteen niet zo groot meer...
En die kaart zal op magische wijze minder bandbreedte nodig hebben? Sure...
Als Ageia zegt dat...
Geloof vooral de maker van het product natuurlijk. Ze zouden je nog een dooie muis kunnen verkopen als er op stond dat het je spellen spectaculairder maakte.
Volgens mij gaat er helemaal geen videodata naar/van deze kaart en alleen maar positie data etc. Als Counterstrike data voor positioning etc genoeg heeft aan een 56k modem, dan lijkt die PCI bus mij ook wel snel genoeg.
De berekeningen zelf worden natuurlijk op de kaart zelf gedaan....daarom is er ook niet zo heel veel bandbreedte nodig...
Er komt afaik. wel een PCI-e 1x versie.
200 pond is niet goedkoop

maar als de prijs tot zeg 2-300 euro zakt wil ik d'r wel een

trouwens als hardware altijd beter is dan software zou dat ook hiervoor moeten gelden toch
Dus je wil er een zonder de mogelijkheden te kennen? Dat is exact waarom zij dit kunnen verkopen zonder rele waarde. Waarom is de software nog niet beschikbaar denk je? Omdat dan de aap uit de mouw komt en ze er al een flink aantal verkocht hebben...
trouwens als hardware altijd beter is dan software zou dat ook hiervoor moeten gelden toch
Onzin. Die PPU is niet veel anders dan je CPU hoor. Er draait ook software op. Hij is enkel uitgerust met meer vectoreenheden, maar wel lager geklokt en met gigantisch trage I/O. De uiteindelijke effectieve rekenkracht zou wel eens heel dicht bij die van een CPU kunnen liggen (of lager). Dan ben je beter af met een multi-core CPU die je ook elders kan inzetten.
Die Dual Core en Multi core moet je zien als n CPU Door al Die-shrink passen er gewoon meerdere cores op aangezien het extreem parraleliseren van kernen om out of order code op voor te werken nogal laag rendement geeft. Dus wil de render pijp er op vooruit gaan zal dat ook SMP moeten worden. Van 3 naar 16 out of order pipes heeft geen zin. Door code afhankelijkheden.

DC is dus een antuurlijk gevolg doordat er steeds meer transistoren op 'n Desktop Die space kunnen.

PPU ontlast de CPU dus ook Dual core omdat die niet alleen beter in Physics is dan 'n Single core maar ook tov 'n Dual core. denk aan 30 rigid body vs 30000.
Als 'n single core 20% voor Physics gebruikt en ipv daar die extra core gebruikt dan ga je met die extra core 100% voor physics gebruiken er 5 maal op vooruit.
10% 10x
5% 20x.

Daarom is de triple core HT enable Xbox360 xenos CPU Physics effect van GRAW toch even wat minder dan de PPU accelerated effect verbeteringen.

Voorbeeld PCI vs PCI-E kan 30.000 kan dan 20.000 aanzienlijk minder maar nog altijd meer dan 'n DC. +/- 300 Bijvoorbeeld.

Todat CPU Asymetrishe cores gaan gebruiken zoals Cell. iNtel en AMD gaan ook die kant op. dus 4 Multipurpouse cores die dus slecht in Physics zijn maar kunnen alles. omringt door 8 Specialised Unit SPU. Of 'n array16/48 . Deze kunnen dan Physics en andere dingen en aanzienlijke factor sneller uitvoeren.

Dus DC is niet de tegen hanger van PPU maar 'n extra gevolg om toch meer uit die groter worden aantal transistors te halen. GPU(HAvok FX) of Cell of Asymetrishe Multy core CPU's zijn d tegenhangers. Waarvan HavokFX in de nabij toekomst de tegenhanger wordt.

Software matig houd in op dat Multipurpouse centrale unit de code draaien De CPU. Hardware is op Specialized Procsesing unit. Hardware accelerated. GPU / PPU / AIS1 / DSP.
@SG, Dude, je lult een hoop, maar je begrijpt er echt weinig van.

Hoe kom je in godsnaam bij 'triple core HT enabled xbox360 xenos CPU physics effect'... Tering man, de xenos is de video chip, Xenon is de CPU en dat is een triple core PowerPC (IBM) en HT (hyper threading) is een Pentium 4 (Intel) techniek, die helemaal niet toegepast wordt in de CPU van de 360.
Voorbeeld PCI vs PCI-E kan 30.000 kan dan 20.000 aanzienlijk minder maar nog altijd meer dan 'n DC. +/- 300 Bijvoorbeeld.
Huh?! Wat?! Ik neem aan dat je snelheidsvergelijkingen aan wilt geven tussen de verschillende componenten. Dude, hyper-transport (bij een AMD CPU) is vele malen sneller dan welke andere interface in je PC dan ook...

Ik heb niet eens zin om op de rest van je verhaal in te gaan...
Klop klepel :Z :Z :Z :Z :Z


Waar het uiteindelijk om gaat is of een specialistische CPU (PPU) op lage snelheid en met "oude" technologie geproduceerd en verder relatief hoge kosten doordat het een niche product is, het kan opnemen tegen de brute kracht van een general purpose CPU, op veel hogere snelheid met de allerlaatste technologie geproduceerd en met lage kosten door de gigantische aantallen waarin ze gemaakt worden.

De prijs van die PPU staat gelijk aan een X2 3800+. Bepaald geen kinderachtige CPU om dedicated physics berekeningen te laten doen....

Laat er eerst maar eens wat benchmarks komen, want opvallend genoeg ontbreekt het daar nogal aan.
Geen goed teken als je het mij vraagt...
Ik weet niet waarom ik al die moeite doe...
Er is vaker al vermeld dat betsaande software physics 30 40 objecten op screen kunnen toveren non dedicated gebruiken dev's 5 20% van de CPU cycles voor Physics aangezien ze het moeten delen.
'n kern van 'n DC zou je puur voor Physics kunnen gebruiken waardoor 30 40 al snel 300 wordt maar ver weg van die 30000 wat PPU kan
Dat een single-core 30 40 objecten kan realiseren geloof ik je wel...Dat een dual-core, mits fatsoenlijk ontwikkeld, 300 objecten kan realiseren wil ik voor de grap ook wel even aannemen. Maar dat een nieuw product, wat nog niemand heeft kunnen benchmarken en we alleen maar op papier de performance van hebben gezien, 30000 objecten af kan handelen...dat betwijfel ik, tot ze met fatsoenlijke benchmarks durven te komen.
...aangezien AMD HT geen bal voorsteld als zo'n genral purpouse CPU die BEREKNINGEN die de PPU op snel DDRIII geheugen doet totaal niet kan evenaren.
AMD HT? Ik hoop dat je hypertransport bedoeld hier... laat even wat betrouwbare benchmarks zien ipv het marketing verhaal van Ageia proberen te vertalen.
Er valt niet veel aan Xenos en xenon te begrijpen he wise ass. aangezien dat gewoon het beestje een naam geven is en ik geen tijd en zin heb om wat nou xenon en xenos bedoeld wordt aangezien het erg veel lijkt op mekaar.
Dat je een naam door mekaar haalt, dat begrijp ik wel (heb er zelf ook eerst op moeten googlen). Maar dat je technieken aan producten toekent, die er met geen mogelijkheid in kunnen zitten, dat maakt de rest van je verhaal niet betrouwbaarder.
Maar wat Xbox360 fanboys zeker wel uit hun kop leren. MAar daarvoor ben je fanboy. Daarnaast weet ik wel dat het 'n triple core is met HT en dat is meer van belang dan zo'n niet zeggend naampje wat aan Xeon doet denken.
Nogmaals, de xbox360 heeft een PowerPC CPU, dat is dezelfde architectuur die Mac vroeger gebruikte en IBM nog altijd in hun servers propt.
HT (HyperThreading) is een techniek van Intel, die ontwikkeld is voor de Pentium 4. Door de netburst architectuur van de P4, is het mogelijk om voor een beperkt aantal instructies, meerdere threads tegenlijk uit te voeren. Dit is geen volledige SMT CPU.
Xeon is de server/workstation processor van Intel, aangezien Intel helemaal geen component levert voor de xbox360, vraag ik me af hoe je die links allemaal verzint.
Dan zou ik het toch maar even door lezen van waar die 300 van daan komt.

Er is vaker al vermeld dat betsaande software physics 30 40 objecten op screen kunnen toveren non dedicated gebruiken dev's 5 20% van de CPU cycles voor Physics aangezien ze het moeten delen.
'n kern van 'n DC zou je puur voor Physics kunnen gebruiken waardoor 30 40 al snel 300 wordt maar ver weg van die 30000 wat PPU kan aangezien AMD HT geen bal voorsteld als zo'n genral purpouse CPU die BEREKNINGEN die de PPU op snel DDRIII geheugen doet totaal niet kan evenaren.

Er valt niet veel aan Xenos en xenon te begrijpen he wise ass. aangezien dat gewoon het beestje een naam geven is en ik geen tijd en zin heb om wat nou xenon en xenos bedoeld wordt aangezien het erg veel lijkt op mekaar.

Maar wat Xbox360 fanboys zeker wel uit hun kop leren. MAar daarvoor ben je fanboy. Daarnaast weet ik wel dat het 'n triple core is met HT en dat is meer van belang dan zo'n niet zeggend naampje wat aan Xeon doet denken.
@SG:
Als jij nou eens begint om begrijpelijk nederlands te gaan gebruiken, dan heb je ook meer kans dat mensen even door lezen.

Verder blijf je ook nu weer allerlei zaken door elkaar halen.
Dat je Xenos en Xenon door mekaar haalt is niet zo erg, maar dat je denkt dat een powerpc hyperthreading ondersteunt geeft gewoon aan dat je totaal niet weet waar je over praat.
En dat maakt de rest van je verhaal (voor zover het uberhaupt leesbaar is) bepaald niet geloofwaardig.

Iedereen kan een leuk verhaal maken met een boel cijfertjes. Maar de daadwerkelijke onderbouwing en het effect in de praktijk is waar het om gaat.
En dat gedeelte ontbreekt nog volledig.

Voorlopig zie ik een boel hype, maar totaal geen indicatie wat het nou daadwerkelijk in een spel gaat betekenen.

En dat is een heel slecht teken. Op het moment dat je die kaart gaat verkopen, moet je kunnen aantonen hoe geweldig het ding is. Zo niet, dan zit er een addertje onder het gras.
200 pond is ongeveer 300 euro, toch?!

Verder is het logisch dat het kaartje niet goedkoop is want ze richten zich op dezelfde mensen als die de duurste videokaart kopen.. op de mensen die het beste van het beste willen.
om exact te zijn, 200 is een 288.282
(bron = http://www.xe.com/ucc/ )
Mijn pricepoint zit op 100 euro. Meer ga ik echt niet betalen voor zo'n kaartje, aangezien een nieuwe videokaart al duur genoeg is.
Precies wat Esthero zegt, 2 euro is mooie prijs.

Ben bang dat we hier zitten met een door de commercie opgedrongen product.
Hmm...

Dit doet me denken aan vroeger... OVERAL had je een kaart voor nodig. Aleen nu heb je het niet perse nodig; maar het is wel makkelijk:

Zoals:
Videokaart (onboard is te langzaam)
Geluidskaart (onboard klinkt niet goed genoeg)
PhysX (CPU is niet sterk genoeg)

(weet iemand er nog 1? :P )
dvd afspelen had je vroeger ook een of ander kaartje voor nodig omdat het anders niet schokvrij ging.
Inderdaad, zon stomme MPEG2-kaart... koste je een aardige duit en dan zou alles verschrikkelijk goed draaien, ja en pasen en kerst vallen dit jaar opdezelfde dag, heb er nooit iets van gemerkt.

Dit zal niet zo'n groot succes worden als met de ouderwetse videokaarten waar je apart een plankie bij moest prikken voor 3d. Ik voorzie dat dit pas aanslaat als het geintegreerd gaat worden in je videokaart. Ik heb heel wat vrienden die zwaar gamers zijn, maar sleutelen aan hun pc?? Daar moeten ze mij dan weer voor bellen, steeds meer en meer mensen willen kant-en-klaar, alles-in-n-oplossing.

We zullen zien wat de toekomst brengt voor deze PhysX-kaartjes :z
3DFX sprong toen in ene gat in de markt. En hadden toen vrijspel voor 'n tijdje.
Ex-3dFX medewerkers(Agiea) doen dit nu ook weer alleen spring( door ATI ) Havok hen na, gebruik makende van ATI nV bestaande hardware die schijnbaar ook heelgoed geschikt is voor Physics.

Voodoo heeft de kans gekregen maar heeft het verprutst. Omdat ze puur 3dgamersmarkt afhankelijk zijn en dus de top moeten zijn.
nV,ATI maa rook Matrox hebben OEM of speciefiek markt als terugval.
Intergreren met je competitie zal nooit gebeuren.
Voodoo heeft juist eigen 2D toegevoegd aan hun eigen 3d part.
En ondertussen hebben Directx en openGL hard aan de weg getimmerd en is 2d/3d de standaard geworden.
En is er hevige concurrentie met nV geweest en verloren.

Nu springt dus havok er direct achteraan. En intergreren met vreemde GPU is eigenlijk einde oevening en wat on interresant door havok. Tenzijn Agiea zelf GPU/PPU combo op de markt introduceerd. Zij moeten intergreren kan dus niet met ATI nV hun Havok gebruikende competitie.
Als agia dit zou doen dan krijgt PPU meteen 'n deel van die breede PCIE16x bidirectioneel ter beschikking.
Uiteraard word havok op hun GPU deel niet ondersteund.
Zul je voor puur havok er toch 'n nV/ATI GPU naast moeten prikken.

Ze kunnen ook intergreren met soundchip
Ze moeten ergens een nieuwe markt creeren h. Vroeger betaalde je al snel zo'n 1500-2000 voor een computer die verouderd was na 3 maand.
Nu heb je al voor 700 een vergelijkbare configuratie: desktop en scherm. Die verouderd is na pakweg n jaar.

Enkel voor spelletjes zullen pc's nooit sterk genoeg zijn, voor de rest vermoed ik dat bijvoorbeeld voor HD TVer op lange termijn een onboard solution komt (onboard videokaart) en of korte termijn een softwarematige oplossing zoals vroeger BSplayer een lite player was voor schokvrije divx.

Deze FPU kaart en grapjes als Vista zijn er gewoon om de consument aan te zetten tot een dure aankoop. Net zoals je binnen het jaar een supersnelle Flash-HardDisk (FlashDisk) zult kunnen kopen die dan weer 300 zullen kosten net als vroeger en niet die belachelijke 60 voor een HD van vandaag.

Waar zijn de CD-R stations van 8500 gebleven?
Dit is de eerste keer dat ik iemand quasi-nostalgisch zie terugblikken naar vroegah toen alles duurder was. :+
Windows Vista..anders krijg je geen DX10 effecten :+
Nu je het zegt:

DX10 met PhysX en X-fi en Dualcore en SLI = :9~ in het kwadraat
X-Fi?

HAHAHAHA..

crashen in het kwadraat :P
Weet je het zeker? DX10-effecten krijg je pas bij Windows Vista en een DX10-certified kaart.
Netwerkkaart, is onboard meestal niet snel genoeg :Y)
Onboard Gbit controller met PCIe interface is toch een stuk sneller dan een Realtek 8139 kaartje hoor ;)
Vroegah had je voor de C64 ook zoiets, een powercartridge :)
(ik probeer het een beetje on-topic te trekken ;))

maar de KCS Powercartridge ontlastte niks, die voegde alleen functionaliteit toe of verving bestaande routines (zoals het laden vanaf diskettes) via bankswitching (16Kb geloof ik).

ik gebruik trouwens liever een Final Cartridge III :9
Powercartridges ftw! \o/ Die dingen waren snel!
Ik wacht nog op de insteek kaart voor enhanced PS/2.. Toetsenbord is zo traag :P
Gooi hem uit het raam, krijg je een versnelling van 9.8 m/s.
netwerkkaart
usbkaart

:+

iets sneller posten volgende x
ik heb nog een oude I/O kaart liggen :D
Als Dell en Alienware ze gaan gebruiken, zal de bekendheid van 'een extra kaartje' lichtelijk groter worden, en dus de drempel voor de gemiddelde consument misschien lager worden.

maja de prijsdrempel blijft natuurlijk een 'struikelblok'
Jammer alleen dat de meeste high-end kopers hun PC's zelf samestellen. (Dell verkoopt bijvoorbeeld heel weinig van hun game pc's)
De prijs is inderdaad hoog voor een 'extra' kaart.
Beetje high-end video kaart + dit ding komt dan ongeveer op de 800 euro terecht. Dat is wel erg prijzig.
Volgens mij kan je dan ook voor de 250-300 euro beter een betere CPU kopen.
Die gebruik je tenminste ook als je niet zit te gamen.

@Llanorant
3000/300 ach wat scheelt het.. ;)
Voor 3000 euro heb je inderdaad wel een aardige cpu ja :Y)
* mwvdlee ziet voor zich het wapperende spring-based cloth van een consument die met perfect berekende soft-body physics over een rigid-body physics struikelblok valt met 100fps.
De meeste mensen die een 'goede mainstream' videokaart kopen (30% van de mensen, schatting aan de hand van Valve statestieken) geven meestal iets van tussen de 150 en 200 euro uit aan een kaart. Ongeveer 2x zoveel mensen 60% koopt een nog goedkopere kaart.
90% van de gamers heeft dus zoenzo al niet genoeg geld voor zo'n dure add-on kaart.
Mischien 5% tot 10% van de gamers heeft wel 300 euro of meer over voor een 'vette' (dure) videokaart. (Dus mischien ook voor een PPU)
Deel dat getal door het aantal mensen dat net dat spel wil kopen die een PhysX PPU ondersteunt, en dan kom je waarscheinlijk dik onder de 1% uit.

Het ziet er dan ook niet naar uit dat deze PhysX PPU op zeer korte termijn 'mainstream' zal worden.
Ik ga hem in iedergeval zeker niet kopen.

Ik denk ook dat zolang een spel niet speciaal voor deze PPU is geschreven je er eigenlijk bar weinig aan zal hebben, en je die 300 euro beter aan een nieuwe videokaart kan besteden, dat zal waarscheinlijk doorgaans meer effect hebben bij een spel wat de PPU half ondersteund, dan er deze PPU naast te zetten..
Kan je die kaarten er nou zou bij inprikken, Drivers instaleren en klaar.
Of moet je videokaart er ook mee overweg kunnen gaan.
Dan nog is 200 pond erg veel zo'n 250 euro.
En dan de prestatie winst is dat nou wel dat geld waard?

Ik doe het in ieder geval zonder.
Dat geld kan ik heel goed ergens anders voor gebruiken (als ik het had dan :Y) )
Hij heeft niets te maken met je video kaart. Het is een rekenchip die speciaal bedoeld is om natuurkundige berekeningen los te laten op objecten. Dat die objecten dan weer gerenderd worden maakt voor de PhysX-kaart niks uit.
Enkel natuurkundige berekeningen of valt dat ding ook te gebruiken als je je cd's ript of misschien video bewerkt? Want dat is natuurlijk wel altijd de bedoeling geweest van de co-processor.
@ smmonk: Dat vroeg ik me dus ook af..

Hoe zit het met bestaande (recente) games zoals bijv. Battlefield 2, FEAR, Call of Duty, Farcry e.d. ? Krijgen die een patch ofzo voor deze kaart ?

Als er alleen maar nieuwe games uitkomen die deze kaart ondersteunen dan lijkt het mij de moeite nog niet om er zo snel mogenlijk een te kopen.
Het ding heeft een beperkte instructieset die specifiek gericht is op physics berekeningen.

Het is dus zeer twijfelachtig om je 'm voor algemene zaken als video bewerking efficient kunt gebruiken.

De normale general purpose CPU die je al hebt is daarvoor waarschijnlijk meer geschikt.


Voor bestaande games is een patch niet zo nuttig. Die doen nu weinig physics en daarom zal de cpu load ook niet erg afnemen als je dat door een ppu laat doen.
Ga je 300 euro uitgeven om je cpu 5% te ontlasten?
"En dan de prestatie winst is dat nou wel dat geld waard?"
Prestatie winst?

Ik denk dat je eerst wat meer onderzoek moet doen naar de toepassing van PPU. Dat is Physics performance dit houd in dat je CPU/GPU performance nada sneller wordt.
Maar die sunami aan Physics kunnen wel extra GFX belasting genereren die de GFX deel extra belasten en de CPU moet die resultaten weer ontvangen en doorgeven aan de GFX kaart. Plus de extra interactie van Gameplay Phfysics die de CPU ook zwaarder kunnen belasten.

Games kunnen 'n stuk complexer en dynamiser met veel meer interactie en gfx effects.

De PPU ontlast de CPU/GPU als de Physics belasting gelijk zou zijn voor software en hardware accelerated oplossing.
Maar PPU maakt heel veel meer Physics belasting mogelijk wat niet alleen de CPU/GPU meer kan belasten maar het resultaat kwa Graphics en GFX is ook weer van 'n andere orde.
Zo zijn de granaat launcher explosies flink opgepoets voor GRAW PPU enable game. Dit is dan puur grafische concept wordt verbeterd niet de Performance hangt af van de game data flow en hoe die door PPU veranderd is.

PPU kan 'n revolutie beteken in dynamisher en realistischere virtuele game werelden. Features die eerst beperkt toepasbaar kunnen nu op veel grotere schaal.

Het hangt nu af van de dev's hoe ze dat moois gaan toepassen
Performance? daar koop je het niet voor. Maar voor die nextgen features die NExtgen games kunnen brengen.

Zo vond ik die explosies in Operation flashpoint bagger. Gebouwen schade er simplistisc. Ook Soldner gebouw schade is een voorbeeld van beperkt ephysics belasting.

PPU kan die lat verheven naar stuk grotere hoogte. Afwachten wat de devs gaan doen en wat ze er uit kunnen halen.

Ik ben 'n liefhebber van de Ghost recon serie en GRAW
Ghost recon advanced warfighter. Is een van de eerste PPU games.

GRAW gebruikt tene erste PPU vooral voor de GFX 'n stuk op te peotsen realishere explosies. Nog geen gameplay invloed.

Maar ik overweeg dus wel om 300 neer te leggen.
Wacht nou eerst maar eens af wat er daadwerkelijk van die features in spellen gebruikt gaat worden.

De developers zitten er namelijk helemaal niet op te wachten.

Het is al erg genoeg dat ze een spel moeten maken dat goed te schalen is voor low-end tot high-end videokaarten en voor low-end tot high-end cpu's zonder dat daarbij de balans van het spel verstoort raakt.

Nou komt er ook nog eens een PPU bij om de zaak nog moeilijker voor ze te maken.
En al helemaal als het gameplay gaat beinvloeden.

Daarom voorspel ik voor de volledige eerste generatie spellen die er gebruik van maken het volgende:

1) Het zal puur om eye-candy gaan en er zullen vrijwel geen gameplay elementen in betrokken worden.
2) Het zal je cpu iets ontlasten, maar ook zonder PPU zul je het spel met alle opties kunnen spelen, als je maar een stevige cpu hebt. Ze kunnen er namelijk niet vanuit gaan dat hun klanten massaal zo'n PPU gaan kopen.
"De developers zitten er namelijk helemaal niet op te wachten." tuurlijk die groep die de zoveelste fps kloon uit kakken. Dat zal wel best een grote groep zijn.De dev lijst zegt toch wel wat anders. Er is duidelijk support.
Natuurlijk is er ook 'n elite groepje dat wel de cuting edge en de immergion wil vergroten door optioneel nieuwe wateren te bevaren zoals nieuwe hardware en API benutten. Zij bepalen mede of 'n nieuw idee kans maak daarna de concument met het laaste woordt.

En nu is Physics aan de buurt. Al is het niet PPU Agiea. Die heeft de bal laten rollen. Het is nu vroeg kan zijn dat als het tegen zit Havok het over neemd en dat Physics hardware acceleratie door standaard API zols mogelijk 'n Direcphysics module voor directX. Physics accelaratie standaard wordt alleen dan zijn we jaren verder. En als het tegen zit doet 'n GPU dat werk.
Of dat het nu PPU of extra GPU of Dual core GPU gaan doen of PPU geintergreerd met wat anders.

Daarnaast leggen de Physics rijkere games de lat ook weer hoger dus die forceren daarmee de competitie ook mee te gaan. En moeten ze dan voor n of meerdere oplossingen kiezen. Om competatief te zijn.

Ze moeten al de smp weg nemen. Unreal 3, Q4 ze doen die moeite wel. SM2.0 3.0 is ook Pixel code kloppen voor Pixel shader routines. Eerst in assembler extra werk. vooral als je meerdere paden ondersteund. Dan krijg je hogere orde talen Cg, rendermonky. shaders worden steeds krachtiger. 'n Dev kan het dan opeens niet meer ignoren en moet van wege de game moet enigzins grafisch competatief blijven.
Dev's jagen mekaar enigzins op. uiteraard zullen klonen bakkers wat terug houdender zijn aangezien ze tradeoff moeten doen. Minder tijd kleiner budged. kleiner team.
Physics zal ook op die fiets gaan. In het begin kijkt men de kat uit de boom. Maar zodra de eerste PPU en later Havokgames er zijn en die trekken toch ook als het games aantrekelijker maakt kwa gameplay en GFX nogal wat games uit de massa aan. kunnen latere projecten Hardware accelerated physics niet ignoren en moeten ze vanweg competitie redenen de markt verlangt het gewoon toch dat werk moeten verzetten.

Het begin zal stroef zijn totdat het op gang komt mits ze de kans krijgen. Om deze nieuwe markt te jump starten. Ook bestaat de kans dat ze uit de markt worden gedrukt.

GRAW valt onder je punt 1) PPU is er beperkt gebruikt voor eycandy. Maar heel belangrijk gameplay is king maar eye candy sells. Havok FX is volgens ingewijden meer gericht op eye candy?
2) is geen punt PPU mode in een game zal ten eerste Vooral optioneel zijn. Of betere game experience of meer geld in de beurs keuze is aan de gamer.
Antfucking: het is _ruim_ 300 euro, geen 250...
Dus dat maakt het nog erger :)
Antfucking: 200 pond is 288.139 EUR, zoals ook al eerder vermeld (bron: http://www.xe.com/ucc )
En @smmonk: de PhysX is gn co-processor in de context zoals jij die bedoeld (zoals een FPU of MMU) maar een dedicated processor voor bepaalde doeleinden. Dat 'ie 't werk van je CPU ontlast maakt hem wel min of meer "co-processor".
hoe zit dat dan met online games? Kunnen gamers zonder zo'n kaartje in de toekomst wel spelen tegen mensen mt zo'n kaartje? Hoe moet ik me dat nou voorstellen....komen er straks games uit waarbij je de physics omlaag kan schroeven voor de no-physicscard users(dus alles statisch ala Doom2) en een optie waarbij alles op max staat (dynamische physics) ?
Staat hier compleet los van... Aangezien deze PhysX kaart een add-on is. Ik kan met mijn AMD cpu toch ook tegen iemand met een Intel processor spelen :?

M.a.w. het renderen gebeurt lokaal en niet op de server van de online game. Die " serveert " alleen de game, stats e.d.

edit:
was blijkbaar niet de enige :+
dat is dus precies het probleem.....een PC ZONDER physics card is gewoon niet in staat om 100 vliegende objecten te berekenen....dus mijn vraag blijft...hoe gaan we dat online zien? Het verschil met een grafische kaart is dat wanneer je alle toeters en bellen uitzet je in principe nog steeds hetzelfde spel speelt....maar physics maken onderdeel uit van de gameplay:

Stel je nu eens even voor: iemand schiet in een FPS met een raketwerper op een stapel kratten....de kratten vliegen in het rond en vallen neer op verschillende plaatsen in de gamewereld....hoe zal deze situatie zich nu voordoen bij iemand ZONDER physics kaart? blijven de kratten bij hem gewoon staan? dan kan niet, aangezien bij iemand met een physics kaart de kratten verspreid liggen over het level. Verdwijnen de kratten misschien en verschijnen ze op magische wijze op de plaats waar de gamer met de physics-kaart ze ook heeft liggen?
Ik zou zeggen render dan niet de hele baan van de kratten, maar doe een zeer educated guess waar ze terecht komen.
Het ziet er dan niet uit, maar je gameplay verandert dan niet echt omdat de kratten op dezelfde plek terecht komen.
Uiteraard zul je dan wat afwijkingen tegen komen in de praktijk, omdat bijv. een rotatie ervoor zou kunnen zorgen dat de kratten mogelijk iets verder doorrollen, maar als je alleen de resultaten doorgeeft, zal de positie waarschijnlijk niet echt een probleem zijn voor de andere spelers.
Het enige verschil is dan dat de kratten mogelijk anders vallen dan wanneer iemand met een Physics kaart de kraten wegschiet.
Wat natuurlijk ook kan is dat de resultaten berekend worden door een medespeler die wel zo'n kaart heeft en dat die de resultaten doorgeeft aan de rest en dat de mensen zonder zo'n kaart dus alleen een hele beperkte weergave van de botsingen te zien krijgen.
De server berekent niet alleen de stats maar die berekent juist alle posities van alle objecten en de collissions tussen de objecten, zodat alles eerlijk verloopt ook als er lag is en zo. Omdat de server gewoon af en toe zegt waar alles is gaat jouw computer de gegevens van de server gebruiken om de baan vloeiend te berekenen...

Dus jah, een server met die kaart draait tig x sneller en ook een game met die kaart draait mooier... maar de server heeft m t hardste nodig, de gebruiker kan wel ff met een schokkerig gevalletje denk ik zow :+
dat is dus precies het probleem.....een PC ZONDER physics card is gewoon niet in staat om 100 vliegende objecten te berekenen....
Dat valt enoorm goed mee hoor. Ik heb net om wat C++ bij te leren een simpele simulatie gemaakt van botsende ballen, en dat verbruikt dus bijna niets van cpu (aan 200 fps). Af en toe is er een piek maar dat zijn de bugs die zich even laten zien ;)
Ik ben er dus zeer zeker van dat een proper geprogrammeerde engine helemaal geen hulp nodig heeft van zo een kaart. Nu maar hopen dat er geen dwaze spellenmakers afkomen met zever als "dit spel werkt enkel goed met een stinkkaart"
Ik heb een keer een TechDemo achtig iets van de Novodex physics engine gezien. Toen ik zo'n 100 objecten had ging mn FPS HEEL snel achteruit.

En in een Game zoals Far Cry (aangezien de levels heel groot zijn en er meer dan 100 dynamische objecten [kunnen] zijn) zullen er ook veel dynamische objecten tussen zitten die worden beweegd . Als je die allemaal tegelijkertijd zou moeten bewegen (A.I. gooit tafels/kisten om om er achter te schuilen) word het een beetje zwaar met je cpu'tje...
juist, moesten ze nu es die engine goed hebben gemaakt dan kon ik farcry op mijn c64 spelen??

dit slaat toch absoluut nergens op...
@ Bob_A
Lol, alsof jij een inschatting kan maken nadat je twee balletjes in C++ hebt laten botsen. Alsof de Cpu in een game de rest van de tijd uit zen neus staat te eten tot hij nog eens wat physics moet berekenen. Anders gezegd, ik denk niet dat hetgeen wat jij geprogrammeerd hebt nog maar te vergelijken is met een modern game.
Hetzelfde als jij nu met je Geforce 1, Counterstike tegen iemand speelt met een X1900XT, lijkt mij tenminste.
Op de AEGIA demo zie je een spel waarbij iemand met een jedi-knightachtige force objecten kan bewegen/verplaatsen...en ook doden.

Als je als ppu gebruiker iemand wilt doden zonder ppu, ziet hij die pbjecten nooit aankomen...
Zonder PPU kan iemand anders op zn minst toch wel zien of iemand iets optilt? Dan zorgen ze er gewoon voor dat normale objecten (als je er tegenaanschiet) gewoon blijft staan en dat dingen die je optilt ook echt opgetild word (zodat iedereen het ziet)

Op deze manier blijft de "Need for PhysX" gehalte laag! ;)
Dan moeten de dev's dus 'n keuze maken in het design. Single payer only game of PPU HavokFX users splisten tov de zwak physics bedeelden de massa. ALs Mplay toch 'n moetje is.
Als het gameplay gerelateerd is zal zo'n kaartje in de server moeten proppen, maar dan heeft iedereen er ook profijt van (ook de mensen zonder kaart).

Voor vpuur isuele effecten moet de client er zelf een hebben, maar dan kun je ook zonder spelen.. al blijft het een probleem dan soms (bv speciale effecten die belemmeren wat je kan zien, die moeten zoveel mogelijk hetzelfde zijn).
Multiplayer servers met "Ageia Card Required" misschien?
De physics zullen er altijd zijn.
Als een game gebruik maakt van PhysX software dan wordt er eerst gekeken of er hardware support is (deze kaart). Indien dit niet het geval is zullen de physics door de cpu afgehandeld worden.
Waarschijnlijk krijg je dan binnen een paar jaar een situatie als volgt:
Systeeleisen
3000+ single core, Ageia PhysX, ....
OR
4000+ dual core, ....
Afhankelijk van de zwaarte van de berekeningen kan het 1e systeem het 2e een heel eind voorbijsteken qwa fps.
Als er echt honderden games in aanmaak zijn met hw ondersteuning dan is dit de volgende revolutie op physics gebied.
Een nieuw systeem hoeft dan niet per se duurder te zijn.
Ipv een high end 500 euro cpu koop je dan een low end 200 euro cpu icm PhysX en voor games zal het sneller zijn.
Aangezien PhysX de locatie en andere attributen van objecten aanpast en deze terugvoedt aan de CPU, in tegenstelling tot shaders op GPU's die in de regel enkel ter visueel vermaak zijn en dus "teruggeschroefd" kunnen worden, lijkt het me zeer waarschijnlijk dat dit in e.o.a. vorm (gentegreerd in grafische kaart of in speciale gamer-CPU's?) ooit verplicht zal worden.
Positionering van objecten in de ruimte gebeurt serverside, jij voert een actie uit, en de server beslist wat het gevolg is. De server stuurt daarna de nieuwe status van de wereld door naar jou(dingen uit die wereld die relevant zijn voor jou althans).
Maar als een doos wegvliegt door een explosie en jij ziet pakweg 60 keer per seconde die doos op een nieuwe positie staan, dan gaan er natuurlijk geen 60 boodschapjes per seconde over je netwerk. De server stuurt enkele posities door op vaste timeframes en de client zal deze dan extrapoleren.
Maw. de berekening van de baan/rotatie/vervorming etc van die doos gebeurt serverside (anders krijg je immers synchronisatie fouten tussen clients onderling) Jij neemt slechts waar.

Wat wel zo is, des te meer objecten in de wereld die bewegen, des te groter de netwerktraffiek voor de server. En ik denk dat die bandbreedte eerder een beperkende factor gaat zijn wat betreft realistische physics bij multiplayer games, dan processing power.
Dat heb je nu al.
Als je spellen speelt op een kaart die alleen SM2 ondersteund zal je geen SM3 effecten hebben. (gewoon automagisch dus ;)
Leuk, maar eerst de software en dan zullen wel wel eens zien of dit plankje erbij zal worden geschroefd.
Al het filmpje gezien van de nieuwe Cellfactor :o

Filmpje is trouwens te downloaden van: http://www.cellfactorgame.com
al oblivion geprobeerd op je pc.....
Doom 3 systemen raken er al door oververhit....
Tis net als met alles wat nieuw is ... een "gadget" .... daar zal je voor betalen .... weet nog goed dat ik ooit tien jaar geleden een van de 1e 4 !!! Mb Videokaarten van Matrox kocht voor 1200 gulden .... alleen maar om 1280x1024 op toen nog 3Dstudio te kunnen draaien met full color .... , niemand die dat er toen voor uit zou geven... Want waar heb je nou 4 !! mb voor nodig !!...

Nu is t standaard dat je 256 Mb krijgt ... of meer .... dus over een jaar is t nieuwe er van, gebruiken meerdere spellen deze engine om te rekenen en krijgen we t voor veel minder met waarschijnlijk nog veel meer ... en cheaper....

ATI en NVidia gaan t zeker implementeren in de Vidkaarten ,..... en concurrentie is prijs dalend :))

Aloha
Als er nu ook eens games voor beschikbaar waren.... :+

Ik voorspel een flop van het jaar ...
Wat ik mij afvraag, is wat er gebeurt als je een spel met support voor deze kaart, zonder deze kaart speelt. Voor zover ik het begrijp, zijn deze natuurkundige berekeningen te zwaar voor de gewone CPU. Voor zover ik het begrijp, heb je al die extra physics ook niet zonder deze kaart. Maar dan wordt de gameplay toch heel anders? Als je ineens niet meer muren om kan gooien enzo, dan wordt het ineens een ander spel. Hoe zit dat?
Wat Halfgaar bedoelt is: in hoeverre benvloedt de aanwezigheid van de Physix-kaart de gebeurtenissen in het spel. Een spelwereld met 'echte' physics gedraagt zich anders dan een wereld zonder.
In de Ageia-versie kun je dan bijvoorbeeld na een explosie worden geraakt door scherven, of kan een gebouw instorten en je weg blokkeren. Hoe stuur je dan nog het verloop van het spel? En hoe programmeer je iets vergelijkbaars in de versie zonder PPU?

Dat is heel iets anders dan een GPU die iets fraaier kan weergeven met shaders.
Dat is inderdaad precies wat ik bedoel.
Ik dacht toch wat ander maar ja mijn reactie op die fiets:

Dat is nou juist 'n struikelblok die Game dev's te verhapstukken krijgen als ze 'n PPU pad en PPU loze pad in hun game stoppen. En hoe ze dat oplossen in multiplay omgevingen. Als het puur GFX effecten kan je PPU en nonPPU player op de zelfde server toelaten. Heeft PPU features effecten op gameplay en kan die player voor of benadelen dan moet je de community splitsen in PPU non PPU players. en dus apparte PPU servers.
Of server admins kunnen zelf rules modificeren.

De dev's bepalen dan wet het beste lijkt of hoe het ze uitkomt in hun specifieke PPU gamedesign.
I
Lol, denk je echt dat hardware accellerated physics zoveel effect zullen hebben op de gameplay?! Kom op man... dit is echt niet te vergelijken met de eerste 3dfx kaart hoor! En daar was het niet eens zo dat je met en zonder 3dfx kaart, andere gameplay had.

Ja, misschien breekt een muur op jouw PC in 10 stukken en bij mij maar in 8, maar dat zorgt er echt niet voor dat het spel heel anders speelt...
@Abom:
hele late reply:
Je overziet het niet goed. Heb je die filmpjes gezien van die kaart? Het gaat niet alleen om dat soort verbeteringen die jij noemt. Het gaat erom dat een vliegtuig die door een hele bult met kratten vliegt, al die kratten in het rondslingert. Als ik met zo'n kaart een doorgang kan blokkeren door een stapel kratten om te gooien, en dat lukt jou zonder zo'n kaart niet, dan heb je een probleem. Ik kan dan dingen doen die jij niet kan. Dat is iets anders dan wat die 3dfx kaart deed. Daar werd het spel niet anders van.
Je zou bijvoorbeeld de muur in 3 stukken om kunnen laten vallen bij de 'gewone' mensen, en elke steen apart animeren met de PhysX. Helzelfde geldt voor haren en gras: tot nu toe ging het ook, met de PhysX is het enkel mooier en gedetailleerder.
Voor zover ik weet, is dit dus niet het geval. Wanneer je geen physics kaart hebt, doet je CPU gewoon het werk. Het enige wat deze kaart je opleverd is betere performance en dat alleen wanneer het spel ontwikkeld is voor het gebruik van zo'n kaart.

Dit is gewoon weer een gadget om beter 3dmark scores neer te zetten. Volgens mij is je geld beter besteed aan een CPU met twee cores voor deze berekeningen dan zo'n kaart...

Ik vraag me sowieso af waarom die kaart zoveel geheugen nodig heeft...Die kaart heeft geen bergen data te verwerken zoals een videokaart dat heeft...
da's precies wat die engine van Havok doet...

ik ben benieuwd wat het verschil dus in werkelijkheid gaat zijns tsn de 2 verschillende benaderingen (havok vs ageia)

op papier is (lees reactie ietsje verder) de oplossing van gaeia mooier, maar ik vrees dat ze zich irl toch op gelijke voet zullen scharen in multiplayer spelen
@abom
Nee. Voor zover ik weet, is dit dus niet het geval. Het is eigenlijk anders. De muur valt in realtime bereken aan de hand van gedetaileerdere Physics collition detectie. Hoe de muur uit elkaar zal gaat vallen. En dat al deze delen Physics ook correct en realistish uitmekaar vallen en verdere inter collision daar weer overheen gaan.

'n bazooka, nade, carcrash in wall, geeft dus bij tien verschillende pogingen met een detailvershil dus, speed hoek en plaats weer 'n totaal ander resultaat. Als verpulverd, die 3 grote brokken, 10 broken,of kompleet uit elkaar gespat. afhankelijk van explosie kracht.

Brok stuken slaan stukken uit omringende muren beschadigen objecten binnen 'n bepaalde radius. Ook mede door collistion Physics per rond vliegende brokstukken.


Dus 'n tank shel 'n M203 nade 30mm gatling gun van 'n A10a geeft dus 'n ander resultaat.

Voorheen was dit op 1 of enkele fix manier of met 'n veel grofere detail loos manier. Denk aan de game soldner.

Het detail en realisme gaat dus weer n heel stuk om hoog maar dan is er ook weer 'n limiet van hoever 'n PPU ermee kan gaan.

Die M4 met M203 of die OICW wordt toch wel erg interresant.

@charellotus
Nee havok doet ongeveer hetzelfde met als nadeel maa rook voordeel dat het Physics resultaat al dichterbij het eind bestemming is voor gFX Physics effecten.

Havok FX leend zich meer uit voor Fire and forget Physics voor grafische effecten. Haar clothes partical dust. aanegzien het resultaat al aanwezig is in de Graphishe sub systeem.

Het resultaat als het niet doorberekend hoefd te woerden is dan ook meteen op de GFX bestemming.

Gameplay physics moet vaak op doorberekend worden en dus terug van GPU naar CPU

Maar beide oplossingen kunnen beide taken aan maar kan zijn dat de ene beter is in bepaalde set Physics features.

Om PPU met havok te vergelijken moet je wel in acht nemen dat PPU Physics belasting enorm verhoogd dus om Havok effectief te gebruiken moet je aardig wat GPU reserve hebben SLI CF is dan ook aangeraden of 'n appart GPU. Beide oplossingen gaan je dus geld kosten.
SG, dat verhaal heb ik dus nog nooit gelezen over PPU's, net zoals ik nog geen fatsoenlijke benchmark heb gezien van multi-core vs single-core + PPU. Het enige wat ik me voor kan stellen is dat Ageia geld betaald om er hardcoded in het spel voor de zorgen dat je zonder PPU minder gedetailleerde effecten krijgt...Ik geloof er echt geen hout van dat zo'n PPU ook maar een klein beetje sneller is dan een CPU.

Verder is de link tussen je GPU (PCI-E, gigabits) en je CPU vele malen sneller dan die van de eerste generatie Ageia kaarten (PCI, megabits)...

Links please...
Punt is jij wilt er niet aan dat de PPU SPeciaal voor Physics ontwikkelde hardware is en dit grote concequenties heeft op pwrformance. ondanks op 180nm zo'n CPU zwaar kan over treffen. Nou wij geloven iNTel marketings blaad ook niet. Agiea natuurlijk ook niet maar de Devs zeggen ook dezefde observatie als de bron zelf. Dus ik neem aan verwacht dus dat die PPU toch wel 'n stuk krachtiger is dan wat 'n CPU op de GPU kan toveren.
Houd in dat games vlink in physics kunnen groeien.

Het is handig om de tim sweeny interview eens door te nemen dan krijg je een indruk wat PPU zou kunnen betekenen voor 'n gamer. Dus niet van aegia zelf maar van 'n dev. En die heeft wat inside bevindingen en mening daarop gebaseerd.
Ook 'n hint van wat voor orde de performance zal zijn.

Nu kan je dit naast je leggen en neen kan niet.

we zien wel. Zo niet hebben we Havok FX nog. PGPU.
Dat effect heb je nu toch ook?
Er zijn eigenlijk al best veel games welke de PixelShader versie ontdekken en je op basis daarvan beeld naar voren toveren. Een wereld van verschil met bijvoorbeeld Far Cry, NFS, HL2 etc.
Voor degene die het willen testen, Rivatuner kan PS editen voor Nvidia kaarten (misschien ook ATI)
Punt is wordt het ge-eist in games nee. Staat los van achteraf patchen voor 'n klein deelmarkt. zoals die SM3 HDR+FSAA patches
@halfgaar
Games worden gemaakt voor 'n zo breedt target platform.

Dit houd in dat je 'n PPU 99% van de gevallen niet nodig hebt om 'n PPU game te kunnen spelen.
Nieuwe hardware wordt vaak Optioneel ondersteund.
Je haald dan niet het uiterste uit die game. Maar het kost je dan ook minder aan pegels om het te spelen.

Dit houd in dat de game de PPU detecteerd en 'n Optionele Physics belasting enable.
Single core 5% 20%
Dualcore renderen 1 thread 80 tot 95% Physics 75 tot 90%
Dualcore Render SMP 2 * 65% Physics 2x 25%
PPU Performace tot CPU SC 1:1000 1000%

Kan zijn als de PPU speciale Gameplay features mogelijk maakt en dit diep in de game design verweven is dat je dan wel een sterk slap aftreksel van die game krijgt of dat toch maar eisen die PPU. Die keuze voor het laaste zal als de PPU 'n sucses wordt mogelijk wel eens kunnen voorkomen. Maar dan zijn we jaren verder.

De eerstegames zullen niet alles uit de kast halen aangezien die mogelijkheden die er nu beschikbaar komen Game developen toch ook weer wat complexer maken. Vooral als je dit goed wil toepassen gameplay verrijkend.
wel, als je in een car race sim het simulatierealisme naar beneden schroeft dan rijdt de auto toch ook anders? dus zo bizar is dat niet

het moeilijkste lijkt me multiplayer spellen... waar die met da physx wel en die zonder dan bv niet door een muur zou kunnen schieten...

het grote voordeel dat de ageia oplossing heeft boven die van bv Havok is dat juist de gameplay verandert... in multiplayer zie ik dus niet veel verschillen tsn de twee, in single player is het voordeel mijns inziens duidelijk voor physx omdat het meerwaarde biedt

de engine voor de spelen is in elk geval ook bruikbaar zonder physx processor, dus realisme verlagen zal wel kunnen me dunkt
Ook in singleplayer spellen heb je grote problemen.

De gamebalance wordt namelijk ook in single player spellen verstoord.

Of het nou een menselijke tegenstander of AI tegenstander is die ineens door een muur kan schieten maakt niet uit. In beide gevallen is de gameplay veranderd, en moet je daar als developer rekening mee houden.

Voor singleplayer spellen is het daardoor wellicht nog wel erger voor de developer. (hij moet meerdere soorten AI's maken)
met 3d rendering gaat indien de videokaart het niet ondersteunt de processor ermee bezig. kan me voorstellen dat zoiets ook hier gebeurd.
Ik heb juist een ongelooflijk Voodoo-kaart-gevoel hierbij! Toen die kaart uitkwam, kwamen al snel veel developers met patches voor hun spellen zodat ze gebruik konden maken van de mogelijkheden van de Voodoo-kaart.
Ik krijg dat gevoel vooral als ik dat voorbeeldfilmpje zie, op de site van Ageia van Tom Glancy: Ik zie een zeer duidelijk verschil, dat het voor mij echt interessant maakt om zo'n kaart te hebben.
Ondanks dat hoop ik maar dat Ageia snel een videokaartmaker vindt, zodat ze een combi kunnen leveren, want een extra kaart erbij is maar moeilijk te verkopen, lijkt me.
je maakt een goed punt... de CryEngine is ook een van de weinige spellen die een 2e CPU ondersteund.. en zal dit misschien ook wel ondersteunen...
* TommelMOD hopes so :)

ik wil er zelf wel een, en zal (als de tijd rijp is aKa als ik genoeg geld heb) er dan ook wel een kopen :)
Unreal3 die Dualcore n PPU ondersteund.
Dat is toch Crysis? (niet echt Far Cry 2 maar wel 1 die de CryEngine2 gebruikt met Dx10)
Ik had al eerder gpost hier voor een ingame footage film met de physix engine , maar blijkbaar vind t.net dit minder interresant dan alleen het hardware nieuws dus zou zeggen kijk eens hier:

CellFactor: Combat Training
Gamesite: http://www.cellfactorgame...
Developer: Immersion Software / Artificial Studios

http://www.gamer.nl/nieuws/29958

De link naar de ingame HD footage is hier:

http://gametrailers.com/gamepage.php?id=2510

Deze movie toont wat deze kaart zo'n beetje allemaal op je beeld kan toveren!
Mooi uitgewerkte physics (uiteraard), maar helemaal niks dat niet met een stevige CPU kan gedaan worden.
Ik zou deze demo wel eens willen zien draaien op een machine zonder de PPU, ik draai zelf op een AMD64X2 3800+ met een X1900XT @XTX maar betwijfel of het een redelijke aantal fps haalt met die physX.

Men moet namelijk niet vergeten dat geen enkel object meer pre-animated is voor kapot gaan etc, evenals cloth reaction etc. want het spijt mij te zeggen maar goede cloth-animatie is in realtime nog steeds behoorlijk zwaar (probeer maar eens met 3dsmax)
en ik maar denken dat Valve helemaal de weg kwijt was met hun physics in HL2...het kan dus nog erger.

Het lijkt erop dat het spel niet veel meer heeft dan de physics, leuk, maar niet echt een boeiend spel.
Ja ja. Honderd spellen met support in de maak. Dat soort verhalen heb ik al duizenden keren eerder gehoord in de afgelopen jaren.

In werkelijkheid zijn het waarschijnlijk 2 spellen waar daadwerkelijk het soort support in zit waar je interesse in hebt, en 98 spellen waar de PPU voor 5% ontlasting van je cpu zorgt.
En van die twee spellen komt er eentje pas over 2 jaar uit...

Zo gaat het meestal...
Nou welk super spel er ook gebruik gaat maken van dat ding, ik laat het lekker links liggen, voor dat geld koop ik echt niet een kaartje waar je ook wel zonder kunt. Videokaart of processor is wat anders maar voor dit.

Ik denk niet dat dit een succes gaat worden, als het ding nu 75 euro was net zoals een goeie geluidskaart ok dan denk je er over na maar dit is teveel van het goeie, reken maar eens om wat je kwijt bent, 200 pond zeg |:( dat is niet aan mij besteed en ik denk dat heel veel gamers er ook zo over denken, leuk, maar duur en het is niet nodig, mocht een spel niet zonder kunnen dan zal het vast ook niet geweldig goed gaan verkopen want met dit soort prijzen heeft hardware als dit geen toekomst.
Heej! Dit is nieuw en nieuwe video kaarten zijn duurder!!! Net als Nieuwe Processoren!

Doe nou niet zo hyper... Na een jaar zijn deze kaartjes waarschijnlijk 100 (of minstens 50) goedkoper

trouwens probeer dit, dit of dit maar eens vloeiend af te spelen zonder PPU }>
Geen enkel probleem voor een dual-core processor. De tweede core is volledig ter beschikking voor de physics en dat is enkele miljarden berekeningen per seconde! Onderschat dat niet. We zien in die plaatjes nog niet eens duizend objecten, dus dat is een paar miljoen berekeningen per object. Belachelijk veel overschot.

Wie zo'n PPU koopt heeft zich goed laten vangen.
Quake4 haald ook meer render performance uit SMP.

Dus denk je dat ze die extra core vooral voor physics gebruiken dat houd in dat render setup niet doorschaald aangezien DC ook de mindere klok schaling moet opvangen. En om CPU bij deze dieshring krachtiger te maken konden ze niet om Dual en Multi heen dit is dus niet bijzonder maar meer 'n weg die onvermijdelijk is. Dus ik zie de DC net als SC gewoon als de CPU
Die alles kan maar nergens in uitblinked.

Unreal 3 ondersteund Dualcore en PPU maar zal Unreal3 Dualcore gebruiken om ook de render module SMP te versnellen. Ik heb zo'n vermoeden van wel.

En ja 'n PPU is veel krachtiger dan 'n zoon dual Multipurpouse cpu.

Voor non PPU systemen kan de Physics load als trade off opgevangen worden door de dual core. Houd in 'n render hit van SMP naar single tread voor die module.
aangezien de Physics routines nu die extra core gaan belasten. Wat die PPU sowieso veel beter kan.
Physics level ook 'n heel stuk terug. En voor SC zonder PPU de Physics nog meer terug.
En ja 'n PPU is veel krachtiger dan 'n zoon dual Multipurpouse cpu.
En waar is het bewijs van deze stelling?

Theoretische waardes hebben we niks aan. Benches willen we zien!
uhm... een dual-core is nog niet eens in staat om met zn allen het aantal berekeningen te kunnen behalen die de geoptimaliseerde ppu in zn uppie kan doen..
Mijn monitor ondersteunt jammergenoeg geen 500x375 reso anders ging ik de strijd met je aan :Y)
Volgens mij kan je met RivaTuner Custom Resoluties maken.

\[voorzichtig-modus]Wat voor pc heb jij?\[/voorzichtig-modus]
Mijn pc heeft geen enkel probleem met het laten zien van die .jpg-tjes. 8-)
Tja, voordat er grafische 3D kaarten waren had je ook een tweede kaart nodig voor 3D graphics.
En de eerste versies van deze kaarten waren ook nogal duur.
Is toch echt een gigantisch succes geworden.

Ik neem aan dat de PhysxX chips op den duur geintergreerd worden op de mainstream kaarten en niet meer apart aangeschaft hoeven te worden.

Voodoo history:
http://en.wikipedia.org/wiki/3dfx
Hier ben ik het mee eens. Trek de parallel maar naar de Voodoo kaarten, eerst add-on. Maar ik zie de chips later al gentegreerd worden in videokaarten.

Het zou wel mooi zijn als je deze PPU's voor andere specifieke berekeningen kan gebruiken. Ik denk dat sommige gespecialiseerde toepassingen er veel op vooruit zouden kunnen gaan. Zou hij te gebruiken zijn bij het renderen van een 3DS/Maya scene?
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True