Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 79 reacties
Bron: HardOCP

ATi heeft op de openingsdag van Computex in Taiwan een versie van de natuurkunde-engine Havok gedemonstreerd die op een Radeon-GPU draait. Het systeem is bedoeld voor mensen met CrossFire-configuraties, waarbij één kaart de natuurkunde kan doen en de andere kaart zich puur met de pixels bezighoudt. Het is echter ook mogelijk om het extremer aan te pakken met drie kaarten: twee om te renderen en één voor physics. Een aantal verschillende fabrikanten van moederborden zou al bezig zijn met ontwerpen met drie PEG-slots om dat mogelijk te maken. De kaart die met Havok aan de slag gaat hoeft overigens niet identiek te zijn aan de andere kaart(en) en zou bovendien helemaal niet zo krachtig hoeven zijn. Volgens de claims van ATi zou een X1600 XT al genoeg zijn om de PhysX PPU van Ageia te verslaan en een X1900 XT zou maar liefst negen keer zo snel zijn. Bij welk soort werk vermeldt men echter niet: er zijn grofweg twee categorieën effecten te onderscheiden en al eerder werd voorspeld dat een GPU het visuele deel (rook, water, vonken, etc.) veel beter zou kunnen afhandelen dan andere taken zoals zwaartekracht, bewegingen en botsingen. De Havok-engine kan dit alles sowieso aan, maar of ook echt alles zoveel sneller gaat op een Radeon dan op de PhysX PPU valt nog te bezien.

ATi is in ieder geval niet de enige die vertrouwen heeft geuit in de technieken van Havok: ook nVidia werkt met ze samen om deze vorm van natuurkunde-versnelling naar de GeForce te brengen, waardoor de nieuwe hardware van Ageia - die in tegenstelling tot een videokaart geen enkele andere functie kent - in een benarde positie terechtkomt tussen twee gevestigde namen. Het bedrijf mag dan wel een voorsprong hebben genomen, maar echt overtuigende spellen zijn er nog niet en het product is dan ook nog lang niet zeker van een permanente positie in high-end spelmachines. In sommige gevallen is zelfs gebleken dat de videokaart moeite heeft om de extra complexe spelwerelden die PhysX kan simuleren op het scherm te tekenen en dat de prestaties hierdoor juist achteruit gaan in plaats van vooruit. Concurrentie vanuit de videokaarten zelf zal het alleen maar moeilijker maken om een voet aan de grond te krijgen.

ATi Physx
Moderatie-faq Wijzig weergave

Reacties (79)

Waarom zou Ageia hierdoor de markt uitgedrukt moeten worden? Ik vind het alleen maar een nadeel als dergelijke upgrades afhankelijk worden van mijn videokaart. Deze functie van ATi werkt alleen bij het gebruik van 2 Ati kaarten en niet bij het gebruik van 1 nVidia-kaart en 1 Ati-kaart. Dan zou ik elke keer dat ik mijn videokaart wil upgraden 1 of 2 nieuwe kaarten van hetzelfde merk moeten kopen als dat ik al heb. Daarnaast is een SLI board vereist voor deze functie.
Uiteindelijk is het dus gewoon makkelijker om een Ageia PCI of PCI-e kaart te kopen, dan is een SLI mobo ook niet nodig, maar dan wil ik eerst wel eens zien of de game-experience er zo veel beter van wordt.

Weet iemand hoe er met de extra physics wordt omgegaan in multiplayer games? Vooral als niet alle spelers een dergelijke kaart gebruiken.
het is vrij simple
of 150 euro voor een X1600xt
of 250 voor een dedicated phycisc processor kaartje.
@ countless
Simple 2 Ageia PPU verdeeld over twee aGP systemen.
Velen moeten eerst van AGP of single PCIE16 naar SLI/CF paltform gaan.

@ DavidAXe

Gameplay Physics moeten de interactiverende Physics objecten status veranderingen ook gesynchroniseerd worden naar alle Clienten toe. De Server heeft dan vaak ook 'n PPU nodig.Dit houd in extra veel netwerk verkeer.
Zover ik hoor ondersteund Havok FX Gameplay physics minder of niet. en is het vooral gericht op eye candy physics.

Omdat eyecandy physics vooral een cleint aangelegenheid is kunnen Niet PPU en PPU enabled gamers wel met elkaar spelen en heeft dit nauwelijks extra bandwide belasting.

Voor Gameplay phsyics is dit dus een grote struikel blok. Meer phsyics meer netwerk verkeer.
Gameplay Physics is dus wel te doen voor single player games of van 'n paar Mplayer is in snel LAN verband.

Dus Het gemis van gameplay Physics is wel 'n gemis maar hoedf niet zo'n grote impact te hebben als Dev's gameplay Phsyics ten voorkeur van online Play droppen en puur voor eye candy Physics gaan.
je snapt natuurlijk wel dat bijde bedrijven )nvidia/ait) concurenten zijn dus ze zullen nooit MET elkaar werken ook omdat het gewoon 2 verschillende architecturen zijn.
Sluit maar vast een abonnementje krachstroom af :)
Als je daarvoor je eigen holodeck kunt draaien....
lezen mensen, het kan met drie kaarten maar ook met twee waarbij de physics kaart niet indentiek hoeft te zijn aan de render kaart.

m.a.w. voor graphics een 1900xt en voor physics een 1600xt. Totaal net zo duur of misschien wel goedkoper als de kaart van Ageia...

totale kosten volgends de pricewatch zouden dus zijn;
¤ 482,41 voor de 1900xtx en ¤ 145,06 voor de 1600xt. beide kaarten van Asus.
nVidia heeft al aangegeven dat ze brood zien in de mogelijkheid die ATi biedt om twee verschillende kaarten te gebruiken. Op dit moment kan SLi Physics alleen maar twee identieke kaarten ondersteunen, en dan wel het liefst vanaf een 7600GT of hoger. ATi Physics hoeft dus geen twee identieke kaarten te hebben. Hier heeft ATi dus een voordeel tov nVidia en het is eigenlijk voor het eerst dat nVidia openlijk positief is over iets dat de competitie ondersteunt. :D

Offtopic: Topictitelfoutje: "demonsteert" moet demonstreert zijn. ;)
Wow, zo'n concept is ideaal als upgrade-traject.

Als je je grafische kaart upgrade hoef je hem niet meer voor een habbekrats op marktplaats te zetten, maar kan je hem gewoon inzetten als physics-kaart :)
(en dan kan je je nog oudere grafische kaart die dienst deed als physics-kaart op marktplaats zetten :+ )

* anandus ziet hier wel heil in, een tweede leven voor computercomponenten :)
en derde leven zul je bedoelen :)

maar toch is het jammer dat het alleen cia een PCI-x 16 slot kan want ik heb nog zat AGP kaartjes
Dit is nog het begin... ooit zit het allemaal weer in 1 kaart.
Jup, maar dan krijg je er weer 2 om in crosssli te draaien, voor iets nog snellers!
Het mooiste zou zijn wanneer dit gewoon deel van DirectX wordt, en de videokaart tegelijk graphics en physics kan behandelen.

Dit heeft dan het grote voordeel dat de data die the physics engine genereert dan niet over de PCI(e) bus naar de graphische kaart hoeft te worden gepompt.

In games wil je het liefst zoveel mogelijk in (pixel) shaders doen, en zeer zeker geen vertices over de bus aangeleverd krijgen, ongeacht of dat van een CPU of hardware physics engine komt.
Nou daar heb je dan ff 2000 pleuro voor nodig.

twee keer een X1900XT voor de crossfire setup + een X1900XT voor de Havok lekker prijzig.
Maar als je dit in een zelfbouw systeem zou zetten met top onderdelen blijft je denk ik als nog onder de 10.000 dollar van de Dell XPS.
En als je dat geld er voor over hebt moet je dat vooral doen naar mijn mening.
Je hoeft geen CF setup te hebben voor gebruik te maken van de Havok engine, kan ook gewoon met 1x 1900XT + 1600XT.

Als je toch al een 1900XT hebt dan is het wel leuk om een goedkope 1600XT erbij te gooien. Misschien is een 1600PRO ook wel voldoende.
Het wachten is dus op een X1600XT met énkel de voor physics benodigde transistors, en daardoor dus een stuk goedkoper. Niet te vergeten dat je waarschijnlijk ook iets minder dan 512MB geheugen GDDR nodig zult hebben voor physics en het gehele kaartje dus stukken goedkoper kan.

Grootste voordeel van de aanpak van nVidia/ATi is dat de hardware al in bezig is van 90% van de gamers en de overstap naar dedicated physics dus gelijdelijk kan.
Die kaart zal eerder duurder zijn. De X1600XT is een redelijk mainstream kaart die dus veel geproduceerd wordt en makkelijk te verkrijgen is. Een gestripte X1600XT die niet als videokaart gebruikt kan worden kost extra aan ontwikkeling én vereist dus aanpassingen aan de productielijn. De prijs van deze omzettingen (voornamelijk tijd dat de productielijn stil ligt) kunnen best wel eens hoger zijn dan de winst door de besparing op de componenten. Daar bovenop krijg je nog eens de extra voorraadkosten voor de distributeurs en winkeliers.

Je levert een hoop functionaliteit in en de kaart is niet of nauwelijks goedkoper. Lijkt mij nu niet de basis voor succes
Het verhaal van Pietje Puk *klinkt* misschien geloofwaardig voor wie denk dat grafische kaarten zo ongeveer op dezelfde manier geproduceerd worden als auto's, maar het is, wel, totaal stierenuitwerpsel.

Er bestaat niet zoiets als een 'productielijn' bij het produceren van kaarten: je hebt tientallen parallel bestukkingsmachines die elk verantwoordelijk zijn voor het bestukken van een volledige PCB. Vervolgens wordt alles door een reflow machine gedraaid om een en ander te solderen, waarbij het er absoluut niet toe doet welk soort componenten erop staan.

Als je een verschillende kaart hebt, is het een kwestie van een aantal bestukkingsmachines een ander programma te laten draaien en de feeden met iets andere componenten.

Hetgeen daarom niet wil zeggen dat ATI met een physics only kaart op de markt zal komen, maar de reden die hierboven zijn aangegeven ivm productie impact is echt wel onzinnig. Down modden die handel.
Ok, effe reageren op newinca:

Er is meer dan alleen het aantal 'parallel bestukkingsmachines' die bijkomen voor een productie.

Een custom x1600xt betekend dat men de gpu core moet herdesignen, en dat grapje om te herdesignen, testen, herdesignen, nog een testen, herdesignen, en nog eens testen, kost GELD. Het is enorm twijfelachtig dat men effe de x1600xt cores de quads gaat uitschakelen, want zo een productie opstarten op al een midrange kaart, betekend veel te grote cores op de waffles. En te grote cores kost geld. En je moet ook niet denken dat men 50% kapotte cores draait. één van de eerste doels bij een productie, is de yield zo goed mogelijk maken, want het geld zit bij de werkende high end kaarten.

Nu, ivm de parallel bestukmachines, ben je vergeten dat een custom productielijn ook betekend dat de men de aantallen moet inplanten in de planning. Je kan niet zeggen, effe 1 lijn gaan gebruiken voor physics x1600xt, want je moet plannen hoeveel vraag de markt heeft. Te veel vraag, moet je beslissen om een nieuwe lijn op te starten, of een oude om te vormen, te weinig vraag, zit je met reststok, en dat daal snel in waarde.

Dan heb je nog custom tests die men moet draaien, want een custom physics engine gebasseerde op de x1600xt, idem probleem.

Dan zit je met transport, ipv gewoon 10 x1600xt's naar een winkel, moet je beginnen weeral te vertakken, wat meer logistiek werk is.

En de lijst gaat verder. En er zijn nog een hoop verborgen kantjes. Daartegen, wat men nu wilt, is gewoon one fits all principe. Geen restok, geen geld aan herdesignen, extra logisieke kosten, nee ... Plop, de winkel in, en als mensen een physicis of een gpu willen, zelfde kaart. Plus! Mensen hebben de keuze! Je Main gpu is naar de botten, plop, effe je x1600xt gebruiken voor display, ipv te gebruiken als addon kaart.

Ik raad je dringent aan om eens deftig met mensen te spreken die ervaring hebben hiermee. Een nieuwe productie lijn effe opstarten is niet zo simpel, en zeker niet zo kostenloos als je denkt. Idem met herdesignen of strippen van een core. Aan ieder actie die men onderneemt, waardoor men afwijkt van het massa productie model, zijn ALTIJD kosten aan verbonden.

En zeker nu dat de physics kaarten nog niet populair zijn, is de zet om de gpu die als beide kan dienen uiterst intressant.

Hell, het kan zelf een uitstekende zet zijn, sinds dit mensen kan aanzetten sneller te upgraden, omdat men hun oude kaart niet meer moet kwijtraken tegen een appel & een shik.

Zodus, je oproep om 'Pietje' te downmodden zou je beter oproepen op jezelf.
@Argentus

Ik ben het 100% met je eens dat het voor ATI op dit moment vermoedelijk geen zin heeft om een aparte physics-only kaart uit te brengen, wegens een heel aantal redenen die jij terecht opnoemt (stock, marketing, logistiek enz.)

Dat gezegd zijnde, zijn hier een aantal redenen die hiervoor, in tegenstelling tot wat jij en PP beweren, *geen* hinderpaal vormen:

- ATI hoeft helemaal geen custom x1600xt hiervoor te designen en hoeft daar dus ook geen geld aan te spenderen. Pakweg 20% op een GPU chip is specifiek voor graphics en niet echt bruikbaar voor een physics-only chip. Als er enkel een defect is in dat onderdeel, kan zo'n chip zonder problemen nog gebruikt worden in de physics only kaart. Ipv die dure chip weg te gooien als scrap, kunnen ze er toch nog geld uit slaan.

- Ik weet best dat men zo'n hoog mogelijke yield wil krijgen (ben je helemaal daar zelf op gekomen?), maar dat betekent niet dat je geen fall-out hebt. De procentuele markt voor GPU's is nog steeds veel groter dan voor physics processors, dus er is weinig kans dat men, om aan de marktvraag te voldoen, volledig werkend GPU die's zou moeten opofferen als physics-only kaarten.

- het testen van de dies kost niets meer: gewoon ervoor zorgen dan je testprogramma afzonderlijk de specifieke grafische blokken kan testen. Dat is in de meeste gevallen zowiezo het geval. Het is daarna gewoon een kwestie van de dies in de juiste bin te plaatsen. Ooit al eens in het ATE-lab met een Agilent of Terradyne tester gewerkt? Ik wel. Het kost welgeteld 20 minuten om zoiets toe te voegen aan het programma.

- Het inplannen van aantallen is puur een marketing en stock probleem. Technisch gezien is het verwaarloosbaar: je kan een hoge volume bestukker op een paar uur tijd omschakelen het ene naar het andere product, op voorwaarde dat je geen al te exotische componenten gebruikt. In dit geval zou het physics-only board enkel een aantal componenten minder hebben wegens geen video output, hetgeen een en ander nog gemakkelijker maakt.

- het board testprogramma voor het physics-only board is een subset van het GPU board testprogramma. 'nuff said.

Als jij me een aantal mensen kan aanwijzen die ook meer dan 10 jaar ervaring hebben als technical lead in het designen en produktieklaar maken van chips, dan wil ik daar gerust even mee praten, als collega's onder elkaar.

Tenslotte: de 300mm schijven die hier af en toe mijn bureau in de Bay Area passeren worden 'wafers' genoemd ipv 'waffels', al vind ik dat laatste wel een stuk lekkerder.
Nou je over budget hebt, op alle moederborden van ATI zit een Xzoveel GPU chips op, die zou wellis inschakeld mogen worden vind ik, aangezien het compatible is met zijn broers, alleen met minder geheugen (meestal 16~32MB, perfect voor berekeningen, zonder grote textures). Zou die voor een van die taken ingeschakeld kunnen worden.
Aangezien die onboard GPU toch niks doet, als je een PCIE kaart hebt, vindt ik dit een geweldige uitwerking, maar dan ATI wel willen meewerken, specificatie opzetten en drivers voor schrijven. De laaste punten, daar is ATI nou absoluut geen topper van!
Want een extra kaart verkopen, levert toch meer $$$ op. Hoop dat nVidia meeleest.
Een X1600XT is we eventjes wat anders dan een gedowngrade X300 onboard..
Als die physics x1900 ook wat anders kan doen dan is het wel leuk 3x x1900. Anders is het onzinnig om 3 van die warmte/stroom slurpende bronnen in te stoppen.

Een x1600 is net zo snel is als de agia kaart. Dit maakt het een goede keuze, scheel een hoop geld warmte en stroom.

-te laat-
Mwa, waarom?

Wat mij leuk lijkt om bij m'n videokaart (X1900 ofzo) een X1300 van zeg 50 euro bij te prikken en deze wat Newtoniaanse bewegingen te laten uitrekenen. Vind ik veel interessanter dan meteen 300 euro aan Ageia over te maken.
Iets minder dan ¤230 kost dat ding.
Als Nvidia ook met iets verglijkbaars komen, wordt die Ageia PPU zo de markt uitgedrukt.

Heb je een game zonder physics kan je die 2de kaart gewoon gebruiken als vid-kaart, ik zie hier meer toekomst in dan in die PPU kaart van Ageia.
Zoals AvalOne een aantal posts hierboven al aangaf: nVidia heeft al een eigen versie. Zie deze link. nVidia maakt het mogelijk om de physics EN het grafische gedeelte door 1 kaart te laten berekenen. Vaak is het namelijk zo dat de GPU soms niks te doen heeft. Een klein deel van de GPU is dan gereserveerd om physics uit te rekenen. Je kan ook gewoon een 2de kaart erbij gooien en dan wordt de 2de kaart voor die physics gebruikt.
Misschien komt nVidia ook wel met de mogelijkheid om een 2de langzamere kaart bij te steken. Dat opend iig wel een hoop mogelijkheden. Of misschien de mogelijkheid om grafische kaart in een PCI-X 1x slot te doen? Voor physics is dat misschien voldoende.
Gezien de ATI performance claimes heeft nv meer problemen met concurentie tov van aTI dan Ageia.
En dat 'n X1900xTX meer zou kunnen doen in z'n spare time dan 'n 7900GTX.

Waar 'n 'n X1900XT in meer normale settings die meer CPU dependant zijn ook krap aan Semi 'X1600XT' performance kan leveren. Doet 'n 7900GTX mischien X1300

ATI is dus sowie so als die eenzijdige nog niet objectief geteste performance dé betere Havok fX oplossing die tegen momentum maakt tegen Ageia.

nV kan zich beter richten op 'n Krachtigere shader architektuur.

Aangezien we toch eerst moeten wachten op Triple PCI-E 16 mobo's en voldoende aanbod. Hopelijk zijn er dan ook al bench resultaten die de Performance verschillen objectief aan tonen.

Plus gezien de gevarieerde Physics power wat 'n Havok FX game voorhanden kan krijgen moeten de opties wel erg flexible in te stellen zijn.
Interessant, benieuwd of nvidia ook met zoiets komt (verschillende kaarten naast elkaar). 2+1 opstelling :D, wel heel erg prijzig. Wel leuk als een x1600xt net werkelijk net zo snel is als Ageia.
Als je het flauwe spelletje wil spelen wie eerder was... dan moet je echt even je feiten checken. ATi was eerder hoor. ;)

Al tijdens de lancering van de X1800 serie lieten ze demos zien van physicsberekeningen op hun GPUs. Dit was dus al in Oktober 2005. Iedereen zat vanaf dat moment al gespannen te wachten op de officiele introductie.

Zie ook bv:
http://www.xbitlabs.com/n...splay/20051005202331.html

en dit op 11 Oktober 2005:
ATI practically kicked off its press event for the Radeon X1000 series with a physics demo running on a Radeon graphics card. Rich Heye, VP and GM of ATI's Desktop Business Unit, showed off a simulation of rolling ocean waves comparing physics performance on a CPU versus a GPU. The CPU-based version of the demo was slow and choppy, while the Radeon churned through the simulation well enough to make the waves flow, er, fluidly. The GPU, he proclaimed, is very good for physics work, and he threw out some impressive FLOPS numbers to accentuate the point. A Pentium 4 at 3GHz, he said, peaks out at 12 GFLOPS and has 5.96GB/s of memory bandwidth. By contrast, a Radeon X1800 XT can reach 83 GFLOPS and has 42GB/s of memory bandwidth.

This demonstration was more important as a statement of position and direction for ATI than anything else. NVIDIA has been rather enigmatic about any plans for physics processing, and has seemed to step out of AGEIA's way for the most part, welcoming the PhysX effort as another means of improving PC gaming. ATI is clearly ready and willing to take on AGEIA's PhysX card by using its GPUs for physics simulation, and the company believes that the more general programmability of its Shader Model 3.0 implementation in the Radeon X1000 series could make it a viable competitor there. There was talk of a CrossFire dual-GPU config in a split setup, with one GPU handling graphics and the other handling physics for certain games, and somebody present even suggested the possibility of a third GPU on a PCI card dedicated to physics processing. The folks from ATI seemed to like this suggestion.
http://techreport.com/onearticle.x/8887

nVidia sprong hier handig op in door in Maart de boel al te paperlaunchen, maar nog is hun SLi Physics niet flexibeler (alleen gelijke kaarten) noch sneller (X1600 > 7900GTX) dan ATi Physics.
Het is heel simpel, HAVOK zit erachter, de achterliggende gedachte komt van www.gpgpu.org.
zo simpel is het dus niet. Havok is maar één van de spelers.
ATI's eerste demo was helemaal niet op basis van Havok, maar een eigen API.
ATI heeft dan ook aangegeven zich niet te willen beperken tot Havok, maar een eigen algemene API te willen maken zodat de gpu's daadwerkelijk als gpgpu in te zetten zijn.
Ik krijg zo ook de indruk dat ATI lucht kreeg van Ageia aan de hand van early press berichten van ageia. En deden een proof of concept van dat kunnen we ook de eerste GPU Physics demo's.
Havok ziet de bui ook hangen en moet mee gaan. Maar hebben een te grote achterstand om zelf met PPU hardware te komen dus gaan ze voor de API tour en nemen voorbeeld aan ATI, de hardware oplossing, maar hebben dan 'n partner nodig en nV heeft daar wel oren naar.
Dus de eerste nV havok FX demo's.

Ageia heeft al hardware en API op de markt en wacht nog op voldoende games. De eerste is al losgelaten. Havok Fx heeft wat achterstand API wijs. Maar de hardware is al ruim voorhanden. en wat achterstand in Game support.

Die HardOCP PDF en sommige plaatjes heb ik al veel eerder gezien. Oud nieuws? of meer uptodate.

Daarnaast zijn e rberichten over AMD enthausiastme over Ageia Physics. Als Co Proscesor.

Kan zijn dat Havok FX de slag gaat winnen als Addon API oplossing. Maar Ageia kan gaan bundelen met CPU bakker. en van de andere kant de markt bestormen. CPU ipv GPU. En alter als joint operation ondie bij een of ander modulaire AMD core.

Havok FX heeft denk ik meer te vrezen voor DirectXPhysX of 'n OpenPhysX API

Dus API als core busness heefd ook niet zo'n heldere toekomst.
Zal wel aan mij liggen, maar zie hem nergens melden dat nVidia eerder was, alleen dat ze al wat hebben.

Sommige mensen lijken wel flamebaits te willen zien.
Dat ligt niet aan jou. Maar aval0ne heeft een bepaalde reputatie hier.
Als je zo'n reactie leest van de grootste Nvidia fan op tweakers, dan wordt het wat sneller als flamebait gelezen, dan wanneer een willekeurig iemand die opmerking maakt.
Jij maakt er een spelletje van! Avalone wou alleen maar behulpzaam zijn t.o.v. Bajaking door te laten weten dat waar hij benieuwd naar was of het zou komen er al is! Hij heeft nergens iets gezegd over wie er eerder was!
Volgens de Inquirer is de X1600XT twee keer zo snel als de Ageia en vier keer zo snel als een G70.

In press briefings, you generally expect a best case to be shown by the presenter, not untruths, but selective numbers. In this case, ATI showed off numbers where the a lowly RV530 absolutely spanked a G70 and G71 for physics. When you look at the performance relative to a R520 or R580, it gets even more abusive. The numbers ranged from a worst case where RV530 was 'only' 4x faster than G70 to a best where R580 spanked the G70 by 15x. They also went on to show the X1600XT as 2x faster than Ageia, and the X1900XTX being 9x faster.
Volgens de Inquirer :+
Volgens ATI...
Maar in beide gevallen kun je er natuurlijk wat vraagtekens bij plaatsen.

Aan de andere kant is dat grote prestatieverschil toch ook wel te verklaren. Het is bekend dat Nvidia's implementatie van dynamic branching vreselijk traag is, terwijl ATI's implementatie erg goed is.
Die functionaliteit wordt in spellen nog amper gebruikt, en dus merk je er niet veel van. Maar bij physics berekeningen is het wel van belang.
Volgens ATI...

Wow wat erg dan is ie 6x zo snel...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True