Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: DailyTech

ATi Catalyst logo - bollenDe CEO van ATi heeft vandaag laten weten dat we voorlopig nog geen hardwarematige acceleratie van natuurkundige berekeningen hoeven te verwachten van het bedrijf. Hoewel ATi begin deze maand nog een versie van de Havok-engine liet zien die zijn werk kon doen op een Radeon-videokaart zal het nog negen à twaalf maanden duren alvorens deze techniek beschikbaar zal komen voor de consument. De hardware is al in staat om natuurkundige berekeningen uit te voeren, maar de drivers zijn hier nog niet klaar voor. Het is onbekend of de huidige generatie ATi-videokaarten geschikt gemaakt zal worden voor de hardwarematige acceleratie van natuurkundige berekeningen, of dat deze feature exclusief voor de nog te introduceren R600-core zal zijn. Momenteel blijft Ageia de enige fabrikant die een oplossing biedt voor het hardwarematig versnellen van natuurkundige berekeningen, maar enthousiast wordt deze kaart niet ontvangen.

Moderatie-faq Wijzig weergave

Reacties (37)

Ik weet toch niet wat we kunnen verwachten van deze kaart. Als je het je 3d kaart laat berekenen mis je frames omdat deze het te druk krijgt met andere dingen. En voor de extra kosten die 1 physx kaart oplevert kun je al een SLI of Crossfire opstelling draaien.

De verbeterde kwaliteit heeft natuurlijk wel voordelen, maar op het moment dat de spellen meer gaan eisen heeft je kaart niet genoeg power meer om en de physx en de gewone beelden te berekenen.
ja maar GPU's zijn gewoon niet gemaakt voor natuurkundige berekeningen

ik wil niet zeggen dat de PhysX oplossing geweldig is maar de kaart is ieg speciaal gemaakt voor de toepassing. ik denk dat zoiets veel beter zal werken dan een GPU die met een aantal aanpassingen wordt omgebouwd naar PPU.

de eisen voor PPU's zijn gewoon anders dan voor GPU's
GPU's zijn gewoon niet gemaakt voor natuurkundige berekeningen
Optica is volgens mij natuurkunde. Het is voornamelijk kijken wat jij ziet in een model van een wereld, wat lichtval hiermee doet etc.. Je zou je eens moeten verdiepen in 3d-engine's en 3d-kaarten en de techniek erachter.

Je kan ze misschien het beste vergelijken met een wat veredelde 2e T&L engine met een leuke partical-engine ;) hij hoeft alleen zelf de pixels niet te tekenen

Deze wordt deze niet gehinderd door een pixel engine bottleneck maar een snelheids- (van PPU) of bandbreedte-bottleneck (PCI)

Dutch_Razor
Hoewel ik het erg leuk vond om te lezen raad ik je wel aan een korrel zout te nemen bij een demo van ati zelf... ik wil best aannemen dat in die demo de ati inderdaad 2* zo snel was... maar geloof ook wel dat dit een best case-senario was :)
Laten we dan nog zeggen: even goed. Rekening houdend met het feit dat een X1600 de helft kost van die PhysX kaart.
Als is zo goed is tov de Physx en ze hem al kunnen laten zien, waarom moet het dan minstens 9-12 maanden duren voordat deze drivers vrijgegeven worden?
ja maar GPU's zijn gewoon niet gemaakt voor natuurkundige berekeningen
Weet je dat zeker? Physics zijn General Purpose berekeningen. En GPUs zijn vele malen sneller in General Purpose toepassingen dan bv CPUs of andere oplossingen. Gebleken is bv dat de R580 bij uitstek geschikt is voor dit soort berekeningen.
maak dat, gpus zijn veel sneller dan cpus in bepaalde general purpose toepassingen maar in 95% van de gevallen zal een cpu de beter zijn dan die R580 bovendien is er geen deftige api om general purpose toepassingen op de gpu te draaien
eigenlijk zijn ze in een aantal gevallen vrijwel gelijk.

daarbij kost die PPU kaart zo'n 250 euro, en zou je met een 2de (of 3de) VGA kaart van zo'n 150 euro al iets in handen hebben wat meer als voldoende is.
en zoals ook in het artical staat, de hardware is er al klaar voor, nu de software nog.
zoals je bij dat havok bericht ziet
gebruik je er een puur voor de frames en een voor de physics

of een 3 kaarten systeem 2 in sli en weer eentje voor physics
Ik heb nog geen moederbord gezien met 3 PCI-E sloten...

Maar je zou wel een dual-core GPU kunnen nemen en een extra single core kaart....

Aan de andere kant... Ik denk dat je met de Ageia PPU best goed zit.. er zijn maar 2 versies van deze kaart en alle games die het ondersteunen kunnen niet meer physics eisen dan dat er op gedraait kan worden. Bij GPU gebruik kunnen ze eisen dat je voor de volledigheid maar een extra 7900GTX voor nodig hebt.

Als het behalve brokstukjes en eyecandy ook iets van gameplay zou opleveren zou het leuker zijn. zoals interactieve brokstukken, nog realistischere racinggames, thermiek in flightsimulators....

@XIU:
Ja ik bedoel: geen 3x 16x. omdat de meeste grafische kaarten voor PCI-E voor 16x zijn gemaakt.
Nog niet, mijn moederbord heeft er zelfs 4
16x, 8x, 4x en 1x

Of bedoel je geen 3x 16x?
Of je zorgt dat je een dual core/cpu systeem hebt,
en dat de cpu de berekeningen van de physics kaart overneemt.
het enige euvel is, dat we moeten wachten, tot de drivers dit zullen ontsteunen
laat de CPU daar nou net niet voor geschikt zijn.

De CPU is goed in complexe berekeningen,
physics zijn daar tegen over zeer simpele berekeningen alleen zijn het er miljoenen en daar om zeer geschikt voor parallelle bewerking.

Het is net zo iets als 100.000 optel sommetjes moeten doen (bv. 2+3=?)

Daar kan je natuurlijk iemand als einstein (CPU) gebruiken.
Maar je kan ook 1000 acht jaar ouden kids (PPU) tegelijk voor gebruiken.
Wie denk je dat er sneller klaar is ?
Waarom allemaal zo zwart-wit ? Ik heb liever een 3D-Engine die alle hardware - GPU, CPU(s), Psysics-card, Sound-card, etc. - combineert (waar nodig & waar mogelijk) :P
Waarom lijkt het mij zo dat een oplossing met een extra videokaart beter wordt gewaardeerd dan een met een PPU? In beide gevallen zijn we een extra kaart aan het kopen. Want zeg nu zelf, als we de GPU oplossing nemen, wie zal die grafische pracht en praal van een game lager willen instellen dan mogelijk is vanwege wat physics? Okee, ik geef ook toe dat zo'n PhysX kaartje duurder uitkomt dan een (budget) video kaart, maar het zou toch kunnen dat er budget versies van dat PhysX kaartje uitkomen?

In ieder geval zou het beter zijn dat ze dit zo snel mogenlijk oplossen, dit gevecht voor de "standaard", want het laatste wat ik wil is én een extra video kaartje kopen én een PhysX kaartje omdat de een game dit nodig heeft en een andere game de andere.
In beide gevallen zijn we een extra kaart aan het kopen
Nee, dat is niet het geval.

Tenminste niet bij de ATI oplossing. Over een jaar wanneer er spellen zijn die daadwerkelijke interessante physics oplossingen zijn, en wanneer ook HavokFX en die ATI crossfire oplossing klaar zijn, dan hoef ik helemaal geen extra kaart te kopen voor physics.

Ik stop dan namelijk gewoon mijn oude videokaart die ik dan niet meer gebruik in dat tweede pci-e slot.

En dat scheelt mij dus de prijs van die PPU. Het kost je natuurlijk wel een crossfire mobo als je dat nog niet had, maar dat is goedkoper dan die PPU.

Bij de Nvidia oplossing heb je niet de optie om je oude ongebruikte videokaart in te zetten als physics kaart, en tov die Nvidia oplossing heb je gelijk dat het maar de vraag is wat gunstiger is.
Het enige voordeel van die Nvidia oplossing is dan dat je de videokaart in SLI kan gebruiken wanneer er geen physics kaart nodig is, maar je gaat er juist vanuit dat over een jaar er genoeg spellen zijn die het wel nuttig kunnen gebruiken
Dat "recyclen" van een oude GPU kan alleen maar als je effectief een oude GPU hebt EN de benodigde plaats. Ik kan legio voorbeelden bekenken waar je geen oude GPU hebt (als je bv van nvidia komt ofzo) en toch physics wilt. Betreffende de plaats, wel, wat doen we als we een crossfire opstelling willen maken? We kunnen niet zomaar een derde PCIe 16x slot erbij toveren, dus, tenzij we zo'n bord hebben kunnen we geen dual GPU voor het grafisch geweld gebruiken.

Okee dan, dan hebben we geen extra kaartje voor de physics, maar we konden dat toch nog doen "tussendoor" op een (of twee) GPU('s). Wel, ik zou het redelijk irritant vinden als mijn crossfire opstelling zou laggen door extensieve physics berekeningen.

Verder moet je ook rekening ermee houden dat die drivers pas binnen een jaar afzijn. De werkomgeving is dus dan af, niet de games ervoor! En dan is het nog wachten op een moederbord met 3 16x PCIe sloten voor zulke opstellingen (de meeste zullen graphics hoger stellen dan physics, dus eerste "oude" GPU zal waarschijnlijk in het grafisch crossfire gedeelte opgenomen worden). Daarom alleen al is de Ageia opstelling redelijk elegant, een PCI of PCIe 1x slot is véél minder "kostbaar" dan een 16x PCIe slot.

Uiteraard heeft elke opstelling zo zijn sterke en minder sterke punten. Ik hoop voor de consumenten dat de zwakste er snel uit zullen zijn, om niet onnodig veel onnodige hardware te moeten kopen.
Klopt. Dat recyclen van een oude GPU is op dit moment alleen interessant voor mensen die op dit moment een ATI X1000 serie kaart hebben.

En aangezien ik zelf zo iemand ben spreekt die optie me geweldig aan.

De benodige plaats heb ik niet, maar dat is tegen die tijd wel te regelen. Een crossfire mobo is goedkoper dan een PPU.

Verder is er een goede kans dat ik tegen die tijd wel een CPU upgrade wil doen, en dan moet je toch al naar een nieuwe mobo toe. Dus dan gaat het zelfs alleen maar om de meerprijs van een crossfire mobo tov een normaal mobo.
ik gok dat de standaard of MultiCore CPU word en de PhysX kaarten overbodig of dat het geimplanteerd gaat worden in de GPU

3DFX anyone ;)
3DFX heeft 2D toegevoeg aan hun chip. Wat gaat Ageia dan toevoegen aan hun chip.
?CPU
?GPU
?DSP
?AIPU
euhm denk dat ie bedoeld dat Ageia een zelfde pioniersdood zal sterven als 3dfx ;) maar ik vind het wel erg ver gezocht .. 3dfx was tenmminste een echte pionier :+

Maar overigens wel grappig dat het ook een add-on kaart is net als Voodoo (1)

misschien een co-processor voor de generaties AMD dan maar toevoegen ;)
Het verschil tussen een videokaart voor physics en een speciale physics kaart zit hem erin dat je videokaart ook nuttig gebruikt kan worden op het moment dat je spelletje geen support voor physicsberekeningen op dat ding heeft. Die ageia kaart hangt op zo'n moment maar een beetje doelloos in je systeem stroom te vreten.
Hopelijk gaat Nvidia snel gebruik maken van deze situatie, en wel binnenkort (goede) physics acceleration ondersteunen op hun kaarten.

Dan is er eindelijk aan alternatief voor Aegia (sp?), mits het betaalbaar is,en ondersteunt gaat worden
Nvidia KAN er geen gebruik van maken.

Dit gaat namelijk over zaken zoals die Crossfire oplossing waarbij je een X1600 naast een X1900 zet.

Maar HavokFX is voor Nvidia en ATI precies gelijk. En het enige dat HavokFX vereist is een SM3 videokaart. Maar HavokFX is voorlopig ook nog niet klaar.

ATI is nog bezig met alternatieven voor HavokFX, maar Nvidia niet.

De werkelijk relevante vraag is dus wanneer HavokFX klaar zal zijn.
Ik blijf toch een beetje moedeloos worden van het idee dat een GPU geschikt zou zijn als PPU. Ja, tuurlijk beide zijn goed in vector berekeningen. Maar dat wil nog niet zeggen dat je er ook goed physics op kan doen, zo heb ik nog altijd geen raytracing implementatie op een GPU gezien die ook daadwerklijk sneller is dan op de CPU (terwijl daar toch veel onderzoek naar gedaan wordt).

Hopelijk ziet ATI dit ook in en zullen ze physics pas ondersteunen zodra ze de nodige aanpassingen hebben gedaan aan hun GPU's zodat ze een waardig alternatief kunnen bij voor de PPU van Ageia.
Ik wordt moedeloos van mensen die klakkeloos aannemen dat de PPU veel sneller is omdat ie er voor gemaakt is.
Met name als het BEWIJS al is geleverd door ATI dat hun GPU ook goed geschikt zijn voor physics. Hun demo's waren minstens zo indrukwekkend als de PPU demo's. (heb je die ATI cloth demo gezien?)

Die PPU heeft twee heel belangrijke nadelen tov CPU's en GPU's.

1) een 'oud' productieproces waarbij de snelheid laag is.
2) een niche markt, waardoor de productiekosten hoog zijn.


Uiteindelijk komt dan de vergelijking, wat dan het beste presteert voor dezelfde prijs als die PPU.
Die CPU heeft een modern productieproces ie een snelheidsvoordeel heeft voor dezelfde prijs.
De CPU heeft een gigantisch grote afzetmarkt waardoor de productiekosten laag zijn. Je kunt daardoor dus een sneller model CPU kopen voor dezelfde prijs.

De vraag is dan of die snelheidsvoordelen opwegen tegen de betere efficientie van de PPU.

Op die vraag kan niemand op dit moment een antwoord geven.

(Ja, ATI en Nvidia omdat ze al wel een PPU gekocht zullen hebben om de prestaties te vergelijken, maar die gaan hier echt geen reactie posten)
Kortom, ATI zocht de publiciteit toen Ageia zijn Physx kaart uitbracht om hen the wind uit de zeilen te nemen, nu blijkt dat ATI helemaal niets concreets heeft nog. Wat een verassing... Daarnaast kan de ATI en NVidia physics oplossing niet de gameplay beinvloeden zoals Ageia wel kan, het is alleen cosmetisch. Aldus Edge Magazine.

Ja het zal wel leuk worden als Ageia zijn software aanpast zodat het niet alleen zijn eigen kaart gebruikt maar ook de GPU. Dan staat ATI en co met lege handen.
Dan heeft Edge magazin dat fout.

Er is specifiek aan Havok gevraagd of hun oplossing alleen eyecandy doet en geen gameplay kan beinvloeden. En Havok heeft gezegd dat ze met HavokFX EXACT hetzelfde kunnen doen als Ageia.

Er is GEEN beperking tot alleen eyecandy. (Maar in de praktijk zullen spelfabrikanten zich daar zelf wel toe beperken aangezien ze dan bij de gameplay geen rekeningen hoeven te houden met mensen die wel of geen physics hardware hebben. Kijk ook bij de PPU versie van GRAW: ook dat is ALLEEN maar eyecandy!
Ik heb momenteel een uitgeschakelde onboard videokaart (Intel 865G). Als ik deze nou eens zou kunnen misbruiken voor physix, dat zou mooi wezen!
Voor HavokFX heb je minimaal een SM3 kaart nodig.

Maar bovendien wil je een SM3 kaart met een snelle branching implementatie omdat dat essentieel is voor goede physics prestaties op je GPU.
Dus in de praktijk kom je dan op een ATI X1000 kaart.

De toekomstige DX10 kaarten zullen er allemaal wel aan voldoen, en dan is een onboard kaart wellicht een aardige budget oplossing.
Misschien kan het jzelfs wel een impuls geven aan mobo's met wat sterkere onboard gpu's.
Kunnen ze die GPU's dan niet modificeren naar PPU's?
ik dacht dat ageia ook gebruikmaakte van de gpu processor in de kaart? zijn allebei vector berekeningen dus kan heel goed.
Ik denk dat de ageia kaartjes wel in prijs zullen dalen zodra ati met deze techniek uitkomt. En misschien heeft ageia dan zelfs al een snellere versie beschikbaar. Op dit moment wordt de gpu en de cpu al vrij hoog belast en ik vind persoonlijk de extra kaart zoals ageia dat bied de oplossing hiervoor, en iig niet extra belasting op de gpu zoals bij de havoc engine. (zelfs niet in sli of crossfire)
Ageia de enige fabrikant die een oplossing biedt voor het hardwarematig verschillen van natuurkundige berekeningen, maar enthousiast wordt deze kaart niet ontvangen.
Dat is vermoedelijk versnellen ipv verschillen. 8-)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True