Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 115 reacties
Bron: Gamers Depot, submitter: edward2

Ageia hoopt een tweede '3dfx-achtige' revolutie voor (pc-)spellen te kunnen ontketenen met de introductie van de PhysX, de eerste echte PPU (Physics Processing Unit). Het bedrijf is van mening dat de kwaliteit van de spellen veel beter kan worden door niet alleen de pixels maar ook allerlei natuurkundige berekeningen uit te besteden aan speciaal daarvoor ontworpen hardware. De PPU kan dus gezien worden als een aanvulling op de GPU. Het nieuwe product is een 125 miljoen transistors tellende processor met PCI Express x1- of x4-interface en 128MB GDDR3-geheugen, die puur is gebouwd om zaken als vloeistofsimulatie, collision detection, rigid body dynamics, soft bodies en schade mee te berekenen. Door de CPU daarvan te ontlasten wordt het mogelijk om scene's met enorme aantallen polygonen realistisch te laten bewegen, zonder de framerate volledig onderuit te trekken.

Ageia is overigens geen nieuwe speler op deze markt; het bedrijf ontwikkelt namelijk ook de NovodeX toolkit, een softwarematige natuurkunde-engine die ondere andere wordt gebruikt door de Reality Engine en Unreal Engine 3.0. Ervaring met hardware heeft het bedrijf ook al, maar tot nu toe alleen op het gebied van netwerkchips. Hoe dan ook denkt men de PPU voor Kerstmis op de markt te kunnen krijgen en verwachten ze dat minstens vijf tot vijftien spellen de hardware zullen ondersteunen. Welke dat precies zijn wordt voorlopig nog stilgehouden, maar de reacties van ontwikkelaars van bedrijven als Epic, Monolith en Gas Powered Games klinken in ieder geval enthousiast.

Ageia PhysX-kaart
Moderatie-faq Wijzig weergave

Reacties (115)

Interessante ontwikkeling.

integenstelling tot de normale verhoging van mhz van GPU en MEM of meer pixelshader units toevoegen,

bedenken ze een andere manier om games er beter uit te laten zien en het systeem daardoor te ontlasten


* 786562 David_p3
Vraag me af of ATI/Nvidia ook al niet zoiets bedacht hebben met dat hele SLI verhaal.
Dat ze eerst doodleuk SLI introduceren en daarna extra features met SLI bedenken.
Maar dit concept klinkt wel lekker, als het betaalbaar gaat worden is het extra lekker.
Zou je er dan ook meerdere kunnen schakelen?
Dus bijv. 1 videokaart en 3 of 4 van deze dingen?
SLi is niets anders dan het opsplitsen van het beeld en beide kaarten ieder de helft laten renderen. Het concept van Ageia is iets heel anders en moet meer vegeleken worden de vroegere een co-processor.

Hij neemt dus rekenkundig zware taken van de CPU weg om de prestaties op te schroeven. En CPU kan hier waarschijnlijk ook vervangen worden door GPU. In ieder geval houd het in, dat specifieke berekeningen niet meer door de CPU/GPU uitgevoerd hoeven worden, maar door deze PPU ( whats in a name ;) ) worden uitgevoerd, om zo sneller minimaal dezelfde grafische eyecandy op het scherm te toveren.
Sinds wanneer doet een GPU aan Physics dat doet de CPU dat is ook het enige ding dat ontlast wordt.

Daarnaast specialistische hardware SPU's zal nogal een stuk beter presteren dan dat algemeen ding de CPU.
SLI is voor zoiets nieuws totaal overbodig.
Daarnaast gaan deze produkten ook een generatie serie krijgen dus steeds krachtiger worden zodat het meegroeid met de CPU en GPU lijnen en dus ook Physic behoeften.
Als die dingen standaard beginnen te worden blijft PPU SLI alsnog ene optie omdat dan de Physic eisen standaard ook hoger worden van de games.

en er altijd software huizen zijn die toch een graadje hogere belasting kunnen aanbieden als optie.
nou, de GPU kan ook gewoon voor physics gebruikt worden als men dat wil.. er zijn genoeg programma's beschikbaar die de GPU voor andere dingen gebruiken dan alleen voor 3d..
Ik zie al die meuk toch liever op 1 kaart, dat kost de gemiddelde gamer al genoeg. Straks gaan al je sloten op aan je games, als je ook al SLI gebruikt...
Vroeger had je anders ook een videokaart, 3D acceleratiekaart en soundkaart nodig voor games...

Zijn ook al 3 kaarten... En toen waren netwerkkaartjes ook nog een must, geen onboard oplossingen...
Zijn ook al 3 kaarten... En toen waren netwerkkaartjes ook nog een must, geen onboard oplossingen...
In die tijd waren netwerkkaartjes nog niet mainstream, omdat toen net internet over de telefoon begon op te komen.
vandaar dat je niet goed tegen elkaar kon gamen over internet en dus via LAN ging multiplayen... Dus een modem erin én een netwerkkaart...
Ze spreken over een Physics Processing Unit, dus ik neem aan ze die PPU na verloop van tijd mooi naast de GPU op hetzelfde board kunnen plaatsen.
of zelfs integreren in de core van de gpu?

Imho gaat het hier eigenlijk "maar" om de volgende stap. Na T&L wordt het nu noodzakelijk om de berekeningen omtrent de natuurwetten te kunnen doen zonder CPU, zodat die zich meer kan bezighouden met ander leuks (AI bijvoorbeeld).
Dat deze grafische unit uiteindelijk op de grafische kaart terecht komt lijkt me niet meer dan logisch ;)
Als ik hier neuraal netwerk simulaties mee kan draaien zou ik anders wel een hele rij van die kaartjes in m'n pc willen hebben :) Integreren op video kaart kan me gestolen worden zolang de communicatie via pcie efficient genoeg is.

Ik zou eigelijk wel een HTX kaart willen zien met een Nforce Pro 2200 chip, Gigabit lan, molexje, 4 SataII ports en dan 4 van deze PPU's op de PCI-e lanes van de Nforce pro 2200. En dan natuurlijk nog een Quad opteron bord met een 2250 met alles benut en 3 HTX slots :) .. en toen werd ik wakker...
Nu maar hopen dat dit soort kaarten niet ook net zo duur worden als de videokaarten sinds de '3dfx revolutie' zijn geworden en dit zou wel eens heel mooi kunnen worden.
Voor de 3dfx revolutie waren 3dkaarten nauwelijsk een issue, daarna zijn spellen vele malen zwaarder geworden en is er dus zwaardere hardware nodig, die duurder is dan 4mb vid geheugen zonder gpu...
Sorry maar daar ben ik het niet mee eens. Een 8086 was vroeger ook 5.000 gulden (of meer?) nu heb je veeel meer power voor veel minder
Koop nu een "top"machine en je bent nog steeds dat bedrag kwijt.
Het is nu echter zo dat met "budget" machines ruim voldoende werk kan verzet worden. De vooruitgang naar wat betreft "algemeen" gebruik is niet meer zo groot.
Bovendien was een beetje schappelijk Diamond kaartje voor je 386 waar je Windows op wilde draaien en dan niet op een 14"schermpje ook al snel 600 tot 1000 gulden destijds...

Videokaarten (goeie) zijn altijd al duur, alleen is de markt een beetje verschoven van alleen de grafici naar iedereen. Dit ligt nog niet eens zozeer aan de 3dfx hype alswel aan het feit dat alles mooier flitsender en gaver moet en dus iedereen mooie graphics lijkt te moeten. Daar hoort ook de onderliggende hardware bij. En voor de modale gebruiker is nu, net als tijdens de 386 jaren, het standaard videooplosinkje meer dan voldoende. Alleen de freaks kopen voor 600 euro nog wat bijzonderders.
Als ze nu ook nog eens uitvinden hoe je cpu werk aan deze dingen uitbesteed als je niet grafisch bezig bent. Ik weet dat de berekeningen van een cpu anders zijn, maar sommige zijn uitvoerbaar op 3d-kaarten (eens een artikel over gelezen een fx5900 was 20x sneller dan een p2,4)

Errug handig bij dvd's (en)-coden renderen en crunchen. }:O }:O }:O
Moet heel eerlijk zeggen dat ik niet opnieuw op add-on kaarten zit te wachten. Tevens vind ik ze wat "te laat" hiermee, gezien de ontwikkeling van SLI, welke ik ook niet prefereer als oplossing om mooier je games te laten draaien, om de developers nog meer geld in hun zak te stoppen :z

Ik vind dat het tijd word dat Intel, MS, ATI en Nvidia eens rond de tafel moeten gaan zitten voor een geheel nieuw concept. Het voortborduren op oude concepten, bestaande technologie, helpt ons niet verder vooruit, behalve de paar megahertzjes meer en meer ram erop.
SLI is niets meer dan 2 kaarten ieder de helft van het beeld te laten renderen (of soortgelijks) met een theoretisch maximum van 100% prestatieverberering. Het betreft hier een heel ander principe.
Hier ontlast je de GPU door een aantal zwaar intesieve berekeningen door deze losse kaart te doen wat kan betekenen dat de GPU veel rekenkracht overhoudt om wel 300 tot nog meer % aan betere graphics op je beeld te toveren.

Het opnieuw doorlussen van mijn videokaart zit ik ook niet op te wachten maar het bijplaatsen van CPU, GPU, FPU, APU of x(whatever)PU daarentegen juig ik alleen maar toe.
Het is altijd wel makkelijk om te zeggen stop het gewoon op 1 kaartje of 1 chipie maar afgezien van het feit dat dit soms technisch (nog) niet haalbaar is zijn er daar 2 van alsnog beter. ;)
Hier ontlast je de GPU door een aantal zwaar intesieve berekeningen door deze losse kaart te doen wat kan betekenen dat de GPU veel rekenkracht overhoudt om wel 300 tot nog meer % aan betere graphics op je beeld te toveren
Nee, je ontlast de CPU ;). Afgezien van de trucs om algemene berekeningen over te hevelen naar de GPU, die je overigens in games niet zult tegenkomen (de GPU heeft het immers al druk genoeg), worden physics en AI gerelateerde zaken allemaal op de CPU berekend. Je graphics processor heeft namelijk geen zak aan die data en terug sturen over de AGP bus is veel te duur (hoewel dit met pci express wel anders zal liggen?).

Wat ik niet snap is dat ze nooit eerder zijn gekomen met zo'n soort coprocessor, want dat is het feitelijk. Er werd al in het begin van de vertex en pixel shaders gezegd dat dat heel leuk was, maar het veel handiger zou zijn als je dat soort dingen op een algemene CPU hebt zitten. SSE(2) en 3dnow! etc. zijn ook niet alles, je wil eigenlijk gewoon een volwaardige vector algebra cpu, die grote hoeveelheden data kan verwerken. We zijn inmiddels al weer jaren verder, ik moet zeggen dat het best lang heeft geduurd voordat ze hiermee kwamen, je ziet het ook al veel langer op de consolemarkt.
Wat ik niet snap is dat ze nooit eerder zijn gekomen met zo'n soort coprocessor, want dat is het feitelijk.

Physics zitten nog niet zo lang in games hé, Unreal Tounament 2003 is ermee begonnen 2 jaar terug (of nee Trespasser, maar dat was complete and utter crap), maar dat was enkel met "ragdolls", nog geen beweegbare objecten. Dan een klein jaar later denk ik is de Havok Engine uitgekomen die nu nog steeds in games wordt gebruikt en eigenlijk de eerste echte physics engine is.
Unreal 2003 als eerste physics in games? :D

Physics in games bestaat al jaren, het is alleen dat het tegenwoordig stuk realistischere vormen aanneemt. Maar denk bijvoorbeeld eens aan carmageddon.

Daarnaast is Havok al loei-oud ;)
Welke consoles hebben dit dan?
PS2, en de xbox2 doet het iets anders door er gewoon meerdere cpu's in te raggen, maar die kunnen ook wel wat wat vector processing betreft.

En "PPU" is nogal marketingjibberish, en het is jammer dat ze op de website niet gewoon wat meer informatie neerzetten over wat het nou precies inhoudt. Ik kan me namelijk niet voorstellen dat het een heel gespecializeerde cpu is die alleen die dingen door kan rekenen die ze op de website bespreken, het zou veel handiger zijn als het gewoon een vector cpu was met wat hippe features.
Welke consoles hebben dit dan?

Een Xbox heeft een normale cpu en normale videokaart, maar geen ppu voor zover ik weet.

Als een PS2 het wel heeft, dan is het ding blijkbaar niet erg krachtig aangezien ik niet heb gehoord dat er grote verschillen tussen de spellen op PS2 en Xbox zit.

Maar ik denk wel dat zo'n technologie het makkelijkste ingevoerd kan worden bij consoles.

Hoewel het dan wel weer moeilijk word om die spellen te porten naar andere systemen.
Maar dat wordt op de PC natuurlijk zowiezo het probleem.
dat nieuwe concept ga je terugzien in DirectX 10
want? hoe? ......
@ Parabellum: Ik wil niet moeilijk doen, maar volgens mij is dit nu precies dat nieuwe concept waar jij op/door/van verder droomt..
WTF heeft SLI hier in godsnaam mee uit te staan, mensen zijn soms zo dom he. SLI is een manier om 2 Videokaarten samen te laten werken, niks meer niks minder, we hebben het in dit hele bericht niet eens over videokaarten |:(
Ik ben het met je eens dat ze wat laat zijn. Maar niet vanwege het SLI verhaal. SLI is immers alleen op graphics gericht en deze kaart is juist niet op graphics maar op physics gericht.
De physics worden nu door de CPU berekend. Dat je dit naar een andere chip kan offloaden is erg handig omdat we de enorme snelheidstoenames wat betreft CPU's nu wel gehad hebben. We zitten immers al 2 jaar tussen de drie en vier GHz (als je de P4 neemt). Je kan door van deze oplossing gebruik te maken je physics een stuk complexer en dus realistischer maken en houd nog extra CPU capaciteit over voor bijvoorbeeld AI.
Dat ik toch vind dat ze laat zijn komt doordat er een chip aangekondigd is die ook goed physics kan berekenen en die zeer waarschijnlijk in veel grotere hoeveelheden geproduceerd gaat worden. Dat betekend dat die oplossing waarschijnlijk goedkoper wordt. Die aangekondigde chip heet de Cell processor.
Ik vind dat het tijd word dat Intel, MS, ATI en Nvidia eens rond de tafel moeten gaan zitten voor een geheel nieuw concept.
Cell processor anyone?
http://www.tweakers.net/nieuws/36122
Op zich een heel interessant idee, een game als HL2 met zijn eigen physics engine zou hier gigantisch van kunnen profiteren.

Maarrehhh.... als al dit soort dingen uitbesteed gaan worden aan gespecialiseerde hardware, waar heb je dan eigenlijk nog een CPU voor nodig? Zijn er eigenlijk wel eens studies gedaan naar een gedecentraliseerde pc?
Way-off-topic
.....HF2 heeft geen eigen physx engine, het is Havok2....
/Way-off-topic

Gedecentraliseerde PC is duurder en schept chaos, welk programma moet waarop draaien en waar gebruik van maken, er moet altijd een multifunctionele PU ergens over blijven om de 'rest' te doen. Een CPU blijft altijd noodzakelijk, maar naar mijn idee is de cpu van nu niet meer in staat te doen wat hij moet doen, en is x86 aan vervanging toe, en lijkt de cell meer toekomst te hebben dan de pc van nu inclusief add-in hardware accelarted physix kaarten.

Wat CPU in spellen blijft doen is bijvoorbeeld bot-ai, om maar een grote rekenkracht consument te noemen, net als physix, het kan altijd meer en realistischer, ligt er maar net aan hoe de programmeur het gebruikt.

Persoonlijk zie ik het idee van zoiets helemaal niet zitten, ik vind het een veel te cpu-achtige taak om dat door een add-in card te laten doen, misschien is het enkel mijn idee, maar bij video accelratie was het compleet helder waarom dat beter was als de cpu, maar nu twijfel ik of de bandbreette die zo'n add-in card krijgt wel genoeg gaat zijn, en of spellen het wel willen en zullen gaan ondersteunen, en hoe ze dat doen zonder de gameplay van een spel te beinvloeden.
Zo'n kaart heeft helemaal niet veel brandbreedte nodig.

Bij een grafische kaart heb je hoge bandbreedte vereisten vanwege de grote textures.

Hier heb je het voornamelijk over coordinaten van objecten. Dat vergt relatief weinig bandbreedte.
Physics renderen is toch gewoon met hele grote matrices kunnen werken, die kan je makkelijk parrallel berekenen wat een cellstructuur toelaat.

zelfde principe als de 3D engine, maar dan andere specs. het bij mijns inziens een zeer logische zet om dat generieke, doch zeer belastende proces aan een dedicated proc over te laten. Dan kan je CPU het volledig hebben over de applicatie zelf, dus over hoe en wat er moet worden gerenderd door physics en 3D
Cell structure (voorheen al genoemd): Sony, IBM, ..
Ziet er goed uit, maar wordt straks niet alles te specifiek uitbesteed aan een extra stukje hardware?

De CPU's worden steeds krachtiger en krachtiger, GPU's worden steeds krachtiger en krachtiger.

Is die combinatie niet voldoende?

Straks krijg je nog specifieke audio-hardware voor stemmen, met daarbij een stukje intelligentie die "emotie" kan nabootsen.

Ik zie een mooie toekomst voor ultra-big towers.
Klopt, CPU's worden idd steeds krachtiger, maar voor dit soort werk is dedicated hardware gewoon vole malen snellen met veel minder silicon.
Je zegt dat wel zo makkelijk, maar is dat wel waar?

Bij een grafische kaart is een aparte processor met name zo interessant omdat je daarbij zo makkelijk een heleboel parallele berekeningen kunt doen.
Bovendien moet de gpu supernsel met geheugen kunnen praten. Daarom is een aparte gpu met apart geheugen interessant.

Maar hier hebben we het volgens mij meer over normale berekeningen. Juist datgene wat een gewone cpu ook heel goed zou moeten kunnen.

Bovendien heb je er ook geen gigantische bandbreedte voor nodig.

Ik vraag me dus sterk af, of een extra normale cpu (dual cpu systeem) dat niet net zo effectief zou zijn als die ppu.
Uiteraard hangt dat ook sterk af van de prijs van die ppu.

Maar als die ppu wel veel efficienter is dan een cpu, en bovendien betaalbaar, dan is het uiteraard wel een hele interessante ontwikkeling.
het is altijd sneller iets volledig hardwarematig te implementeren dan het softwarematig op een allrounder te moeten doen.
het andere punt dat je aanhaalt is misschien wél van toepassing. Met de opkomst van multicore cpu's kan de load misschien beter verdeeld worden, en hoeft die ppu misshcien ook niet meer :?
Een oplossing als kleine insteekkaarten ergens op het moederbord die geen IO-sleuf nodig hebben, dan hoef je al geen big tower meer te gebruiken.

Of grafische kaartjes zouden ook zo'n renderer kunnen bevatten, waardoor je het weer terug op 1 kaartje hebt. Je zou zelfs een grafische kaart kunnen combineren met zoiets in een soort van SLI-mode.

Eventueel mooie upgrade voor kerst mocht dit product betaalbaar zijn en haar vruchten afwerpen!
Dit is niet echt nieuw. De amiga had zoiets al jaren geleden. Een stukje hardware voor geluid. Een chip voor beeld, een chip voor...

Hier werd dus een erg goede performance mee gehaald, het nadeel was dat het niet te upgraden was. Tenminste je kon wel je Agnus door een Fat Agnus vervangen maar het was niet voor watjes :P
Zit je daar met je vette nieuwe super CPU de nieuwste game te spelen, FULL LOAD... cpu load 2%...

:P

Toch kan dit wel een leuke oplossing worden, maar inderdaad al die extra kosten...
ziet er erg goed uit, heeft ie 2 kanten zodat hij op pci en pci express kan?
dat kan toch niet aangezien pci veel te sloom is voor dit soort dingen?

denk eigenlijk dat dit wel leuk gaat worden, helemaal als grote 3d design programma's het ook gaan ondersteunen (3dmax oid?)
de spellen zullen er iig wel lekker op vooruit gaan
pci veel te sloom is voor dit soort dingen
. Mischien valt dat juist wel mee. Hoe meer er rechtstreeks op de kaart berekend wordt, hoe minder verkeer er nog over de bus hoeft.
Nu nog speciale processors voor Gameplay en AI op een videokaart en je processor kan vrolijk DPC-records breken terwijl je aan het gamen bent :-)
De hoeveelheid data zal behoorlijk meevallen. Anders dan bij grafisch kaarten, waar hele textures van vele MB's tegelijk over de bus gesleurd moeten worden, gaat het hier voornamelijk om coördinaten. (Niet wàt moet er getekend worden, maar waar) Zelfs enkele duizenden coördinaten komen waarschijnlijk amper over de paar MB's.
Het lijkt wel alsof je vergeet dat 133MB/s (de snelheid die PCI theoretisch haalt) een hele hoop data is ;)
Daar vergis je je al lelijk.

De GPU van je videokaart is al een behoorlijk ding. Een van zijn beperkingen is de snelheid waarmee polygoon informatie over de AGP bus verstuurd kan worden, en dat is een beperkende factor voor het aantal 'punten' (detail dus) dat je in een scene kunt verwerken.

Die bitmaps (textures) nemen helemaal niet zoveel bandbreedte in - ze worden namelijk zoveel mogelijk in het geheugen van de videokaart opgeslagen, dat ook veel sneller is dan je gewone geheugen. Deze textures zijn redelijk vast per scene, dus die hoeven niet voor elk frame opniew ingeladen of gewisseld te worden. De geometriedata daarentegen is helemaal afhankelijk van de omstandigheden en daarom erg dynamisch.

Het soort toepassingen waar men hier aan denkt is het uitrekenen van individuele golfjes op een wateroppervlak waar je een voorwerp (bad guy of monster bijvoorbeeld) in gooit. Dat zijn heel wat vectoren (en vectoren zijn veel groter dan pixels) maar dat zijn vooral heel complexe berekeningen erop.

Kortom, die bandbreedte ga je nodig hebben (meer bandbreedte, meer detail) en zo'n PPU kaart gaat vooral helpen om het allemaal nog mooier te maken. De CPU kan zich dan bezig houden met nog slimmere AI, meer units, het volgen van meer "omgeving" (vliegen, grassprietjes, enzo), dus die wordt ook heus wel bezig gehouden.
Geinig. Ik denk dat je stelling klopt cdwave. Sterker GPU's zijn al complexer dan CPU's.

Maarruh, al die mensen die zeiden dat dualcore voor CPU's geen zin hadden in het kader van gaming. Core 1 = physics, Core 2 = meer omgeving enzo?

Ik vraag me dan ook af hoe lang we deze addon's zullen houden. (net zoals de 3d addonkaarten, was dat niet iets van Voodoo in de 386 tijd, nu ook uitgestorven zijn doordat de functies zijn opgenomen in de GPU)
De stelling klopt absoluut niet.

Een GPU is veel simpeler dan een CPU. Het is simpel gezet één pipeline die je 16 keer naast op een die plaatst. Dat vergt wel veel transistors en maakt de gpu duur, maar complex is het niet.
Een CPU is wat dat betreft een stuk complexer.

Dat de 3dfx add-on niet is gebleven komt volgens mij vooral doordat het voor de performance essentieel werd de gpu op de videokaart zelf te plaatsen.
Een heleboel mensen hadden graag add-on kaarten gehouden. Dan had je geen probleem dat je een lage 2D kwaliteit op de koop toe moet nemen als je een snelle gpu wilt hebben.
Nee je koos gewoon de 2D kaart die het beste overeen kwam met je eisen, en de 3D kaart die aan je eisen voldeed. Nergens compromissen.
Sorry cdwave, maar jij bent degene die zich lelijk vergist.

AGP is RUIM voldoende voor polygoon informatie.
Het is echt de texture info die de bottleneck vormt voor AGP (en waarom iedereen het gebruik van de AGP bus vermijd)

Je kan ook zelf makkelijk constateren dat je stelling fout is. Als de AGP bus daadwerkelijk een bottleneck zou vormen bij de polygoon informatie, dan zouden we nu bij alle spellen het verschil moeten zien tussen AGP4x en AGP8x, of het verschil tussen AGP8x en PCI-E x16.

Het verschil is echter nul komma nul. En daarmee is dus bewezen dat het bij lange na geen bottleneck is voor de polygoon informatie bij huidige spellen.

Overigens denk ik helemaal niet dat ze bij deze toepassingen individuele golfjes gaan uitrekenen. Daar hebben we immers al efficiente andere methodes voor. Maar het simuleren van kleding zal wel heel mooi kunnen. Een cape of rok die bv netjes valt. (Zal onmiddellijk zijn toepassing vinden in MMORPGs ;))
Gebouwen compleet aan gort schieten in een FPS hoort ook ineens tot de mogelijkheden.
Hij kan ook op een gewoon pci slot.

Dit was te lezen in andere artikelen, oa op gamer.nl

En het ontlast de CPU niet alleen, het geeft zelfs de mogelijkheid om veel meer objecten als physics te zien. Een CPU kan max. 30 a 40 objecten realistisch laten beweten. De PPU kan er rond de 40.000. Hiermee wordt het mogelijk om in plaats van alleen "nuttige" dingen realistischer te maken, ook bijvoorbeeld het haar van de speler te laten beinvloeden door wind, of een kogelgat van elke hoek netjes in 3d te renderen.
ik vroeg me al af waarvoor die 2de connectie was..

* 786562 H!GHGuY
Het nieuwe product is een 125 miljoen transistors tellende processor met PCI Express x1- of x4-interface en 128MB GDDR3-geheugen, die puur is gebouwd om zaken als vloeistofsimulatie, collision detection, rigid body dynamics, soft bodies en schade mee te berekenen.
hoe nauwkeurig zou dit stukje hardware zijn?
zou het kunnen gebruikt worden in professionele toepassingen waar er onder andere vloeistofsimulaties nodig zijn?
of blijft dat het terein van dedicated servers?
Het zou in sommige gevallen nuttig kunnen zijn om dat deel van het rekenwerk 'uit te besteden'
Renderen doe je met je CPU of renderfarm, maar omdat dat te sloom gaat voor games is er speciale hardware (3D hardware versnellers) die iets doen dat er op lijkt.
Physics gaat ook met de CPU of met supercomputers, maar omdat hardware minder snel te updaten is denk ik niet dat die met speciale hardware gaan werken.
Voor een betere raytracer hoef je dus niet nieuwe hardware te maken maar kan je een programma aanpassen. Dat zal ook met physics zo zijn, maar als het snel moet doe je het wel ff in speciale hardware.

realtime > speciale hardware
realistisch > speciale software
Net zoals je nu "consumenten" videokaarten en "professionele" videokaarten hebt zou het heel goed mogelijk zijn dat van dit concept ook een soort "pro" versie komt, die specifiek gericht is op zware applicaties en niet op games.

Als er een gat in de markt is dan wordt dat vroeger of later gevuld..
Zou mooi zijn als zoiets kan samenwerken met profi-CAD paketten, juist om zaken zoals <b>collision detection, rigid body dynamics<b> te berekenen. Dan denk ik b.v. aan SolidWorks/Catia/SolidEdge/Ansys

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True