Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties
Bron: CoolTechZone, submitter: player-x

CoolTechZone heeft van bronnen binnen Asus te horen gekregen dat de PhysX-kaart niet voor februari in de winkels zal liggen. Deze kaart, die natuurkundige bewerkingen van de processor moet ontnemen, zou volgens The Inquirer nog deze herfst op de markt verschijnen. Asus gaf echter aan dat de markt nog niet rijp is voor een introductie. Vooral het aantal spellen dat gebruikt maakt van de Ageia PhysX Physics Processing Unit op de kaart zou te beperkt zijn. Deze situatie zal echter in februari veranderen volgens Asus. Asus gaf trouwens wel aan dat de kaart al lange tijd klaar is.

Asus prototype uitbreidingskaart met Ageia PhysX-PPU
Moderatie-faq Wijzig weergave

Reacties (68)

He gatsie, wat een conservatieve opmerkingen hier zeg. Alleen maar een beetje mekkeren dat het te duur is en het waarschijnlijk geen succes zal worden. Als men ten tijde van de voodoo1 kaarten ook zo gedacht had zouden we nu nog pacman spelen :P

Ik vindt het een mooie techniek die wat mij betreft al veel eerder op de markt gebracht had mogen worden. Stel je eens voor dat je nou eindelijk realistische physics hebt in bv Battlefield, Need For Speed of UT? Nooit meer van die houterige animaties die net niet aansluiten op de omgeving, en dat allemaal door zo'n klein insteekkaartje. Tuurlijk zullen die losse insteekkaarten op den duur wel gaan verdwijen, alsof ATI en Nvidia niet liever zelf zulke features toe willen voegen aan hun kaarten.

Tis alleen maar de vraag wanneer dit gaat gebeuren, want het zal gelukkig zeker wel gaan gebeuren. En dat is maar goed ook, want aan van die pessimistische commentaren hier hebben we ook niets ;)
ik ben het helemaal met je eens!!

je moet deze kaart als tussenliggende fase zien. Momenteel zijn er nog te weinig games die er gebruik van maken dus zou het veel te duur zijn een video kaart om te bouwen voor physic (is er nog wel plaats op een video kaart??, twee koelers, voeding...etc)

Er moet altijd iemand de eerste zijn om het kip-ei verhaal aan het rollen te krijgen. Na verloop van tijd zullen alle games gebruik maken van steeds realitischere physics. Bedenk eens hoe duizenden blaadjes aan een boom door de wind bewegen, hoe houtsnippers wegspatten als een kogel inslaat...etc. Dit soort details kunnen nog lang niet real-time berekend worden Dit gaat echt VEEL power kosten. Dus alle extra's zijn welkom :9
de spatjes kunnen ze tegenwoordig al met sprites doen (FEAR na-gloeingen)
heel inzichtvol van jouw. :+

en ik hoop ook echt dat meer games dit gaan ondersteunen. nooit meer benen die door de muur steken of lelijke horizontale lijkjes op een trap

nou voegt ragdoll ook veel toe tegenwoordig maar echt perfect is het nog niet.

helaas zouden bij battlefield geen stukken vlees rond vliegen die opgechopt waren door de sollid rotorbladen
vooralsnog zou het beter zijn om deze chip gewoon op de nextgen video kaarten te implementeren.

als aiga nou gewoon de chips aan Nvidia of ATI (of aan bijde) verkopen/leveren kunnen ze netzo veel verdienen als niet meer.

en lijkt me sneller want PCI-e 16x wordt nog lang niet volledig benut.

want ik zie niet veel mensen deze kaart kopen, en een nextgen videokaart koop je toch wel op den duur

(en tegen die tijd zijn er al zat games die deze techniek willen toepassen. als ze wel eens willen investeren in iets dat misschien niet gaat lopen.)
gewoon door de strot dauwen die handel)
Tsja, op zich niet handig voor de GPU fabrikanten, maar als deze kaart van alles kan overnemen kwa berekeningen, kun je d'r ook een soort 'SLI' achtige opstelling van maken op vrijwel ieder moederbord. En dan is het wel weer goed voor de game-ontwikkelaars.
Klaag klaag klaag... het is ook nooit goed.

Deze kaart hoor niet bij de video kaart, want deze is niet alleen voor games bedoeld.
Als je nu eerst eens de documentatie nakijkt voor je een produkt de grond in boort, dan zou je zien dat het ook ingezet kan worden in andere bereiken dan alleen maar games.

En het is just goed dat het een apart kaartje is.

Een video MET deze feature zou dus rond de 100-200 euro duurder worden.
Koop je een nieuwe video kaart moet je weer die 100-200 euro extra betalen, wat je met een losse kaart bespaard had.
Dat is wel een beetje een naieve redenering. Natuurlijk, als de kosten van de productie lineair omhoog zouden gaan naar mate er meer electronica op een videokaart zit dan zou je gelijk hebben.
In praktijk is deze prijs van een hoop factoren afhankelijk. Een groot deel van het geld zal bv naar marketing, distributie en initieel ontwerp gaan, en maar een klein deel naar de daadwerkelijke productie en grondstoffen. Dus wat extra electronica hoeft hem echt niet 100-200 euro duurder te maken. Aanvankelijk wellicht wel maar, na een beetje concurrentiestrijd zal de videokaart MET deze feature zo weer op het oude prijsniveau zitten.,
Die kaarten zijn er dus al wat langer.
Maar onthoudt even dat de gemiddelde duurtijd van een game iets van 2 jaar is (reken dan niet ff de engine mee die er (appart) bij hoort).
En alle ontwikkelaars krijgen uiteraard ver van tevoren al een ontwikkelkaart om mee te werken.
Dat moet allemaal geintegreerd worden met bestaande softwareontwikkeling. De meeste content is toch onafhankelijk van wat voor game 'kernel' er gebruikt wordt.
Dus de enige impact die het heeft zal een klein gedeelte van de software zijn die moet worden aangepast.
Vind het dan helemaal niet gek dat ze gewoon wachten totdat die games er komen zodat je ook daadwerkelijk wat aan je kaart hebt.
Je gaat bijv ook geen Joystick op de markt zetten nu die USB3 ondersteunt.

En wees dan ook niet verbaasd als de ontwikkeling van die kaart in een sneltreinvaart doorgaat omdat het nog een leuke groeimarkt is die nog veel verder uitontwikkeld kan worden. Dus Asus is nu alweer bezig met generatie #2 om daar samples van te bakken en ontwerpen van generatie #3.
En denk dat je pas van een volwassen markt kan gaan spreken als die PPU standaard op je GPU kaart komt te zitten. Of dat hij standaard in elke Dell komt te zitten (bijv).
Als de wereld uit conservativelingen had bestaan, liepen we nog steeds rond in berevellen.

Mits goed geimplementeerd kan deze kaart hetzelfde voor physics zijn als de SoundBlaster Pro voor geluid, de Voodoo voor 3d graphics de voodoo rush voor single board 2d/3d kaarten etc...

Het is logisch dat over een tijd deze technologie geintegreerd gaat worden in grafische kaarten. Boeit niet zolang de aansturing maar vanuit DirectX etc gebeurt. Zolang er voor dit soort kaarten maarr een universele api komt zullen ze succes hebben.

Designer studios zijn tegenwoordig wat conservatiever dan 10/20 jaar terug. Toen had je lef als je méér deed dan Adlib en pc-speaker, nu loop je een financieel risico en wordt je teruggefloten door je boekhouder. Slagen of falen begint dus bij Microsoft en een universele physics api.
Interessant idee, een coprocessor voor "Physics"-bewerkingen. Als deze kaart inderdaad is wat de Voodoo was voor 3d graphics (zoals empheron mogelijk suggereert) dan kun je je ook gaan afvragen wanneer het in een ander onderdeel geintegreerd gaat worden.

Ik bedoel, de losse Voodoo kaarten voor het 3d-gebeuren naast de 2d grafische kaart is inmiddels ook vervangen door de 2d+3d grafische kaart.

De vraag is dan of het geintegreerd gaat worden in de grafische kaart of in de processor (vergelijkbaar met wat men al dan niet MMX, 3dnow!, SSE enz heeft genoemd).
Ik hoop het niet. Videokaarten zijn redelijk upgrade gevoelig voor de meeste mensen (zelf nooit langer dan 2 jaar zelfde gfx kaart). Het zou jammer zijn om dan 100-200 euro per video kaart meer te betalen per 2 jaar terwijl dit met een losse kaart niet nodig is.

Ik heb het id dat de physx kaarten minder upgrade gevoelig zijn of zelfs overbodig worden door dual core cpu's etc.

Edit: reactie op D. Kuipers.
Lijkt me leuk, maar inderdaad zowiezo een _zeer klein_ aantal spellen die dit ondersteunt dus het zal nog wel even duren todat we hiermee aan de slag kunnen gaan.

En ook vraag ik me af of zo'n kaartje in je PCI-slot wel effectiever is dan gewoon direct the physics laten berekenen door je processor.

En die koeling is jammer.. zo'n irritant klein *zoem* fannetje :+ ;)
Wat je op de foto ziet is slecht een "prototype".
Dus niet de kaart die zo op de markt komt.

De koeler die er op zit is trouwens een
Thermaltake GeForce 4 koeler.

Misschien zit er wel een passieve koeler of een heat-pipe
op het uiteindelijke product.
De koeler die er op zit is trouwens een
Thermaltake GeForce 4 koeler.


Als dat idd zo is dan heeft deze kaart wss "standaard bevestigingspunten" voor koelers, en past dus evt ook een Zalman VF700AlCU (voor eenieder die zo'n kaart koopt, en hem ook nog eens stil wil maken :) )
Het is de berekening die kostbaar is, niet het transporteren van de data.
De kaart heeft ook een bulk geheugen aan boord dus zoveel hoeft er ook neit verscheept te worden.

En dedicated rekenchips zijn gruwelijk snel tov een CPU.
Een GPU sjeest een CPU er in een factor 20 uit geloof ik.
Alleen kan een GPU alleen bepaalde dingen en de CPU kan alles. :P
Is er ergens een lijst van spelen die dit (gaan) ondersteunen?
Er zijn al een aantal engines die de Novodex-API ondersteunen en die maakt gebruik van deze kaart zodra deze aanwezig is in je systeem. De 2 voorbeelden die in het artikel van Tweakers genoemd worden zijn de Unreal Engine 3.0 en Reality Engine, alle spellen die deze engines gebruiken zullen dus automatisch de kaart ondersteunen (als ze tenminste een beetje efficient gebruik maken van die engines). Van de Reality Engine heb ik nog nooit gehoord, maar de Unreal Engine is best bekend en wordt in best veel games gebruikt en zal ook in toekomstige games nog worden gebruikt.
gezien de populaire physics engine Havok voorgenomen heeft om van de GPU gebruik te maken voor de physics berekeningen, vraag ik me af of veel devz support willen bouwen voor deze kaart. de kans dat dit grootschalig genoeg verkocht gaat worden is voor de komende jaren nog nihil denk ik.

een GPU heeft iedereen.
Tien jaar terug: als merk X de GPU niet gaat ondersteunen wordt het niks, een CPU heeft iedereen.
Ik zie hier ook een weinig levensvatbaar product in, zeker in het licht van dual-core processors en al helemaal gezien de prijs.
Ik zie hier ook een weinig levensvatbaar product in, zeker in het licht van dual-core processors en al helemaal gezien de prijs.
1. Een tweede core komt qua prestaties niet eens in de buurt van een PPU of GPU als het gaat om physics berekeningen.
2. Als je 8 pipelines van je videokaart gebruikt voor physics (dit ding heeft er denk ik wel 8 gezien het aantal transistoren) zal je toch met een redelijk dikke kaart aan moeten komen om niet te weinig over te houden voor grafische berekeningen.

Een 6800Ultra met 256MB zou in zo'n geval teruggaan naar een 6600GT met 128MB...
totally agree, als havok deze kaart gaat ondersteunen wordt het een succes, zoniet dan denk ik toch van niet (of iedereen moet overtuigd worden door UT2007)
Tja, is leuk en aardig, maar de meeste GPU's zijn toch echt bezig om al die mooie plaatjes te berekenen en hebben helemaal geen tijd om physics te berekenen..

En moeten wachten tot de GPU klaar is betekent weer extra controles, en geen zekerheid dat de GPU beschikbaar is om de betreffende physics te berekenen..
A. niet iedereen heeft een goede SM3.0-GPU
B. GPU's kennen niet zoiets als sterke out-of-order-processors....

GPU's zuigen gewoon in berekeningen... Laat dat maar gewoon aan CPU's over.
Ik vind het zo jammer dat die lui aparte PPU's willen maken, aangezien je dat veel beter door een CPU kan laten met meerdere cores/dedicated cores.. Fuck de PCI-infrastructuur, veel te traag... :z
Quote: Deze situatie zal echter in februari veranderen volgens Asus.

Welke nieuwe games komen er dus uit in Februari vraag ik mijzelf dan af! Ze zullen dit niet voor niets zeggen dus er moet iets staan te gebeuren in februari!
Ik denk eerder dat er games gepached zullen worden om de PhysX-kaart te ondersteunen.
Niet nodig. Spellen die van novodex gebruiken maken direct gebruik van PhysX als die aanwezig is.
En wat is dan het voordeel in die spellen?

Ze moeten immers nu al soepel draaien op machines die geen PPU hebben. Dan draaien ze straks wat "soepeler"?

Heb je daar dan zoveel geld voor over, of kun je dan beter gewoon zorgen dat je een up-to-date cpu hebt?
Misschien hebben ze een deal met Nintendo of Sony gesloten om dit ding in een console te stoppen...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True