Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 133 reacties
Bron: HardOCP

Nadat physics-uitbreidingskaarten en -coprocessors de laatste tijd uitgebreid in de spotlights stonden, is het bedrijf AISeek nu met een nieuwe toepassing van coprocessors op de proppen gekomen. Het bedrijf dat zich bezighoudt met kunstmatige intelligentie heeft namelijk een dedicated cpu voor 'artifical intelligence' ontwikkeld. De IntiaTM, zoals de chip genoemd werd, moet het mogelijk maken complexe werelden te creëren in games en af te stappen van de voorgeprogrammeerde interacties tussen karakters. Toepassingen van de chip in de praktijk zijn nog niet bekend en over beschikbaarheid wordt met geen woord gerept, maar AISeek publiceerde op zijn website wel al enkele oogstrelende demo's.

Daarin wordt geïllustreerd hoe met de IntiaTM een 'line-of-sight' berekend wordt, zodat karakters op intelligente wijze gebruik kunnen maken van hun omgeving om zo te schuilen voor vijandige objecten. In een tweede demo wordt de interactie tussen verschillende karakters gedemonstreerd. De laatste demo toont een onvoorspelbare veldslag tussen twee legers, waarbij de artillerie de weg vrijmaakt voor het voetvolk, gevolgd door een tegenaanval van de vijand. Deze tegenaanval wordt echter geblokkeerd door de tanks. De AISeek-processor staat hierbij in voor het berekenen van de pathfinding-algoritmes en line-of-sight-gegevens.

IntiaTM-coprocessor voor AI: demo
Moderatie-faq Wijzig weergave

Reacties (133)

Wel een leuk idee op zich, alleen ik denk niet dat het succesvol wordt. Ik zie meer toekomst in zwaar parallele CPU's (a la de Cell) die dit soort dingen op een x aantal extra PSE's kan afhandelen dan dat we onze PC's helemaal vol gaan proppen met dedicated hardware voor vanalles en nog wat. Sterker nog, ik denk dat over een jaar of 10 losse 3D versnellers niet eens meer bestaan omdat tegen die tijd software rendering op een grid processor met voldoende PSE's net zo snel en veel flexibeler gaat zijn.

Verder vind ik pathfinding en line of sight berekeningen nou niet typisch AI toepassingen...
Verder vind ik pathfinding en line of sight berekeningen nou niet typisch AI toepassingen...
Niet? Zonder AI zouden dit soort berekeningen praktisch oneindig lang duren. Maar het zijn wel de minder in het oog springende kanten van de AI.

Daarnaast, wat is AI als we niet eens weten wat I is? ;)
Niet? Zonder AI zouden dit soort berekeningen praktisch oneindig lang duren. Maar het zijn wel de minder in het oog springende kanten van de AI.

Hmm misschien versta ik het verkeerde onder 'pathfinding' maar ik dacht altijd dat dat neerkwam op de kortste route vinden over een map enzo. Met andere woorden een variant van het kortste-pad algoritme op een graaf. Inderdaad een lastig (NP-compleet) probleem, waar hele goede benaderingsalgoritmes voor bestaan die redelijk efficient zijn, maar niks met kunstmatige intelligentie te maken hebben...

Line of sight lijkt me ook niet meer dan kijken wat er zichtbaar is vanuit een bepaald standpunt, en daar zijn ook al verschillende efficiente oplossingen voor die puur procedurele zijn en niks met AI te maken hebben.
Misschien niks met kunstmatige intelligentie, maar wel met AI, waar hier AI staat voor de "slimmigheid" van computertegenstanders. En bots die niet kunnen bepalen waar jij staat en niet om een pilaar heen kunnen lopen zijn nou niet direct slim te noemen; ook al zijn ze in staat Kasparov eruit te schaken.
Nou ik ben niet zo onder de indruk als men 2 algoritmes heeft geoptimaliseerd. Met name padvinden, wat men met het a* (A-ster) algoritme doet, is een gewone berekening, door de alsmaar groeiende processor zal deze kaart snel in het niet verdwijnen.

Misschien iets meer voor routeplanners en dan nog.

A.I. bestaat uit vele algoritmes dus ik zeg niet dat die kaart niet werkt, maar flexibel is hij al niet , en ik heb mijn twijfels of hij niet snel voorbij wordt gestreven.
Kan je niet meer modereren, maar een 4+ vind ik het zeker niet waard. Behalve die twee "optimalisaties" die je noemt, gaat deze AI verder, het combineert de LOS met de path-finding of vice-verca, het houd rekening met verniewde omstandigheden, zoals een muur die tot puin word geschoten, waarop de troepen van de tegenstander handig van het puin gebruik maken om dekking te zoeken. Let wel, dit is dus niet een voorgeprogameerde actie, waar je na een paar keer weet, oja daar gaat de muur stuk, en dan doe ik dat. Nee, de muur kan op elke plaats kapot gaan, het gat kna groter/kleiner zijn, het puin valt elke keer anders, etc.etc.

Dit begrijp ik tenminste uit de tekst die ik op die site lees, als dit zo is is dat best een behoorlijke vooruitgang.

En dat programmeurs te beroert zijn om aan de AI te werken, dat betwijfel ik. Zelfs diehard warsim ontwikkelaars hebben er grote moeite mee, of het nou de algoritmes zijn, de pathfinding en/of de berekeningen in ene acceptabele tijd te persen, ik weet het niet.

Feit is wel dat we nog géén echte goede realtime AI hebben, als zo'n bedrijf dan met een chip komt met een "recept" voor alle game-ontwikkelaars, ben ik zéér benieuwd.
De kern van AI is juist veel branching. Dus heel veel parralel taken met veel " If what then this else that."
De body code van "This" en "that" is computationa power op wat local stored AI data.

'n AIPU Zou dus een Array of 'n grote zooi units met veel branching logic en wat nog meer nodig is om wat compleet te zijn.
Voor afwijkende units kan er 'n top highlevel software laag er boven. Soort HelHAl. Of later Speciale unit worden toegevoegd die bepaald veel gebruikte algoritmen patterns versnellen. AIPU2 nieuwe featureset toevoeging.

Zoals vroeger T&L unit werden toegevoegd en alter Shaders.

Probleem is de architektuur van PPU en AIPU is nog ene groot vraagteken.

Ati shaders engine hebben ook aardig wat branch functionalitijd. Misschien de PPU ook wel.
Somige hardware kan misschien ook daarvoor misbruikt worden. Alleen in welke maat van alle mogelijek AI features die voor games nuttig zijn kan worden versneld.
Dat zou mooi zijn, een spel dat geen twee keer het zelfde is.
ja, dat is een mogelijkheid. Wat ook kan is dat alle AI van games zich vergelijkbaar gaat gedragen.

hardware implementaties hebben altijd beperkingen, software is volledig vrij - praktisch gezien uiteraard ook beperkt door de power van de CPU.

bijvoorbeeld: enkele GPU generaties geleden vond ik dat alle 3d accelerated games er nogal hetzelfde uitzagen, het is pas sinds de invoering van programmeerbare pixel- en vertex shaders dat er weer grotere verschillen komen.

AI is trouwens moeilijker hardwarematig te versnellen omdat er maar weinig algemeen geldende principes zijn die AI definiëren. Uiteraard zijn er wel enkele zeer low level AI problemen die steeds terugkeren zoals path finding, maar ik twijfel voorlopig toch nog over het nut van dit product.
Tuurlijk met Software kan je alle kanten uit. Alleen tov Dedicated enigzins restricted hardware. kunnen sommige dingen veel verder geschaald worden door veel grotere computational power.

Wat niet kan, kan je dan nog altijd in software doen.
Totdat de nextgen AIPU extra speciale unit heeft om dat ook even mee te pakken.

Denk ook dat PPU en AIPU ook zullen evolueren to een totaal oplossing voor alle AI toepassingen en alle Physics. Het is 'n begin.
nog een paar jaar en we hebben 20 co processors :D
Ach, vroeger hadden we ook een co-processor naast de normale processor, toch? Voor floating point berekeningen enzo :)
nogsteeds eigenlijk alleen zit die nu in de CPU zelf.

kan met dit soort dingen ook gebeuren, al zie ik het eerder in de GPU... al hoewel, die zijn al erg groot meestal.
Ik vind dit wel een leuk initiatief, zolang het goedkoop blijft. Ik heb geen zin om straks haast niets meer aan een upgrade van mijn graka te hebben, omdat de rest nog even sloom is.
Amiga had er geloof ik 7 ... is dus niets nieuws. En AMD heeft toch nu ook zo'n bus voor hun CPUs ontwikkeld die het eenvoudiger voor coprocessors moet maken?
Voor zover ik weet zat er in een Amiga een 680x0 processor van Motorola. Aangevuld eventueel met een FPU, een MMU, de audiochip (Paula?) en een videochip. Mis ik er nog één?

Uiteraard was dat ding erg flexibel uitbreidbaar met andere processors (vooral de 2/3/4000 series).

[nostalgie modus]
Those were the days
[/nostalgie modus]
@MMORPG-addict:

De Amiga is volgens mij uiteindelijk gefaald omdat de meeste programma's (in elk geval games) zelf de hardware programmeerden, en niet via de systeem libraries. En terecht, want de systeem libraries waren daar niet krachtig genoeg voor.

Het gevolg is dus dat nieuwe Amiga's 100% backwards compatible op hardware-register nivo moesten zijn omdat anders de oude games niet meer zouden werken.

Hierdoor was het toevoegen van nieuwe hardware features ontzettend lastig en raakte de hardware vanzelf verouderd.

Oorspronkelijk was het best handig dat je je tv kon gebruiken als monitor, maar toen de pc hogere resoluties (non-interlaced) aan begon te kunnen, bleef de Amiga achter. De nieuwere Amiga's ondersteunden dan wel hogere resoluties, maar waren slecht backwards compatible.

Omdat de pc vanaf het begin verschillende soorten hardware ondersteunde, kwam er behoefte aan libraries zoals DirectX, zodat de hardware vrijwel nooit rechtstreeks wordt aangesproken.
En nog een Copper (co-processor voor het programeren van video registers). Een blitter (programeerbare geheugen blok kopieerder/manipuleerder en grafische lijnen maker). Audio draaide inderdaad ook zelfstandig.

Maar als je op die manier coprocessoren gaat tellen dan zitten er in je PC ook al veel meer. Wat dacht je van programeerbare DMA kanalen (lijken op de blitter van de amiga). Zelfstandige geluidskaart, grafische kaart met tig mini CPU's (allemaal veel krachtiger dan de Copper van de Amiga). Volledige hardware ondersteuning voor 2D en 3D tekenen (veel en veel meer dus dan de lijntjes die de blitter kan tekenen). Verder geheugen controllers en andere onderdelen die je in een PC tegenkomt kun je ook allemaal als co-processoren gaan tellen.

Ik ben ook wel eens nostalgisch (Amiga was leuke hardware om te programmeren en nog redelijk makelijk te begrijpen ook). Maar ik ben ook realistisch, een PC is toch nog veel beter uitbreidbaar concept geworden, juist omdat alles niet zover geintergreerd was als bij de Amiga.
Nog steeds begrijp ik niet echt hoe een produkt als de AMIGA heeft kunnen sterven.
Eerst een 500, later een 2000 met ATX kaart (wat een geldverspilling want er was werkelijk niks dat die 80286 beter kon dan mijn Amiga)

Nee, C64 en later Amiga waren revolutionaire dingen van Comodore.

En volgens mij had de Amiga 500 (en de orriginele Amiga 1000) 3 co processoren....beeld geluid en fpu/mmu
@MMORPG-addict

Dat komt waarschijnlijk door de licenties. De IBM pc kende geen licenties, met het gevolg dat iedereen daar apparatuur/cloon voor/van kon maken. Ondanks dat het toen en nu misschien niet de beste arch. is heeft dat toch het succes bepaald.

[edit]
Nog iets, het os DOS was ook op licentie bij MS dus dan konden anderen ook zo doen. (Dit was slim van ome Bill daar is hij rijk van geworden)
"Nog steeds begrijp ik niet echt hoe een produkt als de AMIGA heeft kunnen sterven. "

Tja, ik heb dat met de Acorn Archimedes :-) Ver in zijn tijd vooruit, de eerste betaalbare RISC computer, etc, etc. Diverse dingen in de GUI vond ik beter.
"Dat komt waarschijnlijk door de licenties. De IBM pc kende geen licenties, met het gevolg dat iedereen daar apparatuur/cloon voor/van kon maken."

Nee: de IBM PC was het aaneenknopen van diverse hardware onderdelen, wat anderen ook konden nadat het BIOS geREd was. (Compaq was geloof ik de 1e die dat deed).
Mismanagement bij commodore... :(

Had niks met het product zelf te maken, als commodore zijn zaken op orde had had de Amiga mischien wel groter dan de mac kunnen zijn
en nog redelijk makelijk te begrijpen ook
Kun je dat eens uitleggen ? Wat is er moeilijker aan hedendaagse hardware ? En alhoewel de PC veel beter uitbreidbaar is kan dat ook niet een nadeel zijn ?
Die allemaal eigen taak hebben en de main cpu die peutert uit zijn transistors. :+
CPU heeft het dan waarschijnlijk druk genoeg met het coordineren van de boel :)
Amiga O+

Ver zijn tijd vooruit.
Erm...niet echt. Cell is een stell inline processoren; dit zou een cpu zijn icm een gpu (die heel anders wekt, en an sich meer qua architectuur op een cellprocessor lijkt, als je er een aantal van "netwerkte") die matrix berekeneningen maakt en een andere co-proc die LOs berekent (ik neem aan mbv raycasting) en waarschijnlijk een soort van hardware matige A* uitvoort.

Ofwel een kluster verschillend opererende chip tegenover de cell, waar er gewoion 7-8 dezelfde chips werken.
Doet me denken aan Fat Agnus die Paula, Gary and Denise bezig houd.... ( in ieder geval voor de mensen die nog "Rock Lobster" op hun mainboard hadden staan, alweer een jaartje of wat geleden...)
Ik zie meer een (aantal)programmeerbare co-processor.
Die kunt aanzetten in een modus voor je toepassing.
fysiek, AI ,GPU(die zal wel zelfstandig blijven), andere algoritmes.
De meeste games laten sowiso al een processor links liggen als je een dual core hebt. Laat ze eerst maar eens dat ding nuttig gebruiken voordat ze een berg onzinnige co-processors gaan maken |:(
'ze'... zeg je. De mensen die games maken, maken geen co-processors en volgens jou slaat 'ze' op de games én op de mensen die co-processors maken, maar in werkelijkheid zijn het twee verschillende partijen.

Ik snap denk ik wel wat je bedoeld ;) : Straks komen er games uit die zo'n co-processor vereisen, terwijl je tweede core niet eens gebruikt wordt, daar ben ik het wel mee eens. Er is hierbij wel een eventuele kanttekening; is zo'n co-processor die hier gepresenteerd wordt niet veel beter in het type berekeningen die voor AI nodig zijn, terwijl een 'gewone' cpu dat misschien helemaal niet is? Een beetje hetzelfde idee als dat een GPU heel goed is in het berekenen van grafische dingen, terwijl een CPU daar veel langer over doet.
is zo'n co-processor die hier gepresenteerd wordt niet veel beter in het type berekeningen die voor AI nodig zijn, terwijl een 'gewone' cpu dat misschien helemaal niet is?
Vermoedelijk wel als je per Mhz gaat kijken, maar dat is nog geen rede om die tweede CPU niet eerst een zinvolle taak te geven. Zo'n mooie Core 2 of Athlon64 core kan heel wat AI doen als je hem aan het werk zet.
De meeste games. bedoel je alles van voor 2006 terug tot tetris. Ofzo.
Dit is de grootste non argument. SMP komt er aan.
Door Copro zullen games met een heel veel grotere stap evuleren dan alleen de CPU schaling. Dat komt er nog boven op.

Ten eerste. Het duurd jaren om games en games engines te ontwikkelen en op te leveren. Dual core is er pas. Ja 2 jaar is lang voor consumenten maar voor de software development steld dat niet veel voor het kost tijd.
De software zal migreren naar SMP.
Uiteraard zullen enkel games, nu al uit, de eerste SMP games zijn. Quak4 door Patch. En paar nog.

De meeste games zijn Single treaded. Omdat ze al 'n jaar of meer op de markt zijn en dus gericht op Single cores. Dual core is mainstream aan het worden dat duurt even 2 a 3 jaar. Dev hebben krijgen steeds een veel grotere drang om SMP te ondersteunen.

Vanaf nu kan je verwachten dat meer nextgen game wat vaker SMP ondersteunen.
Crysis
alles Unreal3

Omdat Dual core mainstream begint te worden en er nogal wat Projecten met SMP bewustzijn al in gedachte in mid development zijn.

Dat gaat dus gelijdelijk.

Denk maar dat de Acceptatie van PPU en AIPU op DUalcore nog ruim een jaar of meer achter loopt op SMP CPU migartie in software. En omdat Dualcore of multi Nogal sneller mainstream wordt dan gamers specifieke hardware wat nog in ene niche status zit. Gaat het voor CPU de SMP support bij dev's met veel snellere acceptatie. Dus meer bereidheid. This Common target platform. DC zal ooit standaard worden.
Zo zullen games ten eerste zeker well gebruike maken van Dualcor en later multicore.
En daar komen dan de PPU2 en AIPU nog ene schepje boven op doen.

Want Unreal 3 is Dualcore en PPU supporting.
Deze Copro concureren totaal niet met CPU Multi en dual.

Games worden nog meer feature richer en de features op grote schaal geimplementeerd houd in dat de game load in zijn geheel zeer veel zwaarder wordt.
Je hebt nextgen CPU power nodig om 'n PPU2 en AIPU2 Die Veel grotere last te kunnen voeden.
De CPU moet het voorwerk en resultaat door berekenen.

Die PPU en AIPU hebben profijt aan 'n Dualcore systeem met een high-end GPU kaart.
Dit ziet er wel gaaf uit zeg...
Zometeen heb je een pc met een dual/quad-core processor, een phys-x kaart en nog een dedicated coproc voor AI... veel drukker en warmer moet het niet worden in m'n kast
Dat het warm wordt is toch niet erg? Je PC slurpt strax gewoon 3000watt en zet 90% om in warmte, duur? Welnee, de gasreserves hoeven niet meer aangesproken te worden want je PC verwarmt je huis :+
Je PC slurpt strax gewoon 3000watt en zet 90% om in warmte,
En die andere 10% dan, in licht? :Z

Een PC (CPU) zal per definitie alle verbruikte energie omzetten in warmte.
Een PC (CPU) zal per definitie alle verbruikte energie omzetten in warmte.

Als je zo begint dan zet uiteindelijk elk apparaat alle energie om in warmte... Energie wordt ook niet 'verbruikt' alleen omgezet in een andere vorm (zoals warmte of kinetische energie).

Overigens zet een PC ook nog een x aantal fans in beweging, de HD, etc. Niet direct in warmte dus maargoed uiteindelijk komt het daar wel op neer ja...
Dus andersom bekeken hadden we volgens jou beter een CV-ketel in quad-SLI opstelling kunnen zetten? Die geeft pas een bak warmte af :P
wat dacht je van de licht van HD activiteit LED?
Precies.
Soms zie je wel eens een percentage, maar dat gaat dan over de efficientie van de voeding. Dat is meestal iets van 80% ofzo. Dus 20% van de totale warmte komt uit de voeding.
Btw: electromagnetische straling = { radio emissie, warmte, licht, x-rays, gamma straling }
90% warmte, 10% beweging en geluid? Denk bv aan je harde schijf en je ventilatortjes, die ook behoorlijk wat slurpen.
Wat ik niet snap is dat metalsax hier een +4 informatief voor krijgt? Want NOFI, dit is echt een heel erg domme opmerking.

edit: dom is het woord niet, maar het is duidelijk dat er enkele termen door elkaar heengehaald worden. "verbruikte energie" moet natuurlijk "opgenomen energie" zijn waarbij het inderdaad zo is dat alle vormen van energie omzetting niet 100% efficient zijn. Efficentie zijnde de verhouding opgenomen energie/nuttige energie.
@CyberAngel

Waar denk je dat die elektriciteit vandaan komt, het grootste deel van de nederlandse elektriciteit wordt opgewekt in gas gestookte centrales ;)
je vergeet je RAID 0+1 je crossfire of SLI opstelling, je speciale gaming netwerkkaart en je kickass audio kaart :+
Nog even CPU (die die naam niet voor niets heeft....) doet enkel nog systeem onderhoud.

Gelukkig dat dat Physics gedoe ook al gefaalt is, nu nog hopen dat deze invasie van onze toch al overvolle computerkasten dezelfde weg zal volgen.

Extra chips, en dan ook nog zover bij de CPU vandaan, het is een stap in de exact verkeerde richting, het gaat regelrecht tegen de SoC (System on a Chip princiepes in.

Buiten de bandbreedte en latency problemen die deze add-in-kaarten met zich meebrengen gaan deze kaarten ook nog vreemde bottlenecks in games meebrengen, en dan hebben we het nog niet over de upgradebaarheid van deze kaarten, 4 chips met ieder een eigen geheugen sub-systeem, iedere chip kan te traag zijn, ieder geheugen kan te traag of te klein zijn.
Wie zegt dat het SoC model het ideale model is... volgens mij is dat geen streefdoen van de fabrikanten.
Ik heb nog altijd geen cpu gezien met graphics ingebouwd, idem soundcard en lan,....
Bandbreedte en bottlenecks lijken mij ook niet echt om zorgen over te maken. Volgens mij hebben graphics een veel grotere bandbreedte nodig dan AI, dus daar zal er wel geen bottleneck komen, aangezien er technologie is voor veel beter.
LAN wordt af en toe ingebouwd (niagra2?). AMD heeft de geheugen controller (die jarenlang trouw op de chipset geplakt zat) ingebouwd, Intel gaat PCI-e controllers op de CPU inbouwen en AMD en ATi willen een CPU met geintegreerde GPU voor AMD's nieuwe mobile platform maken. Cell was ervoor gemaakt om met zijn geintegreerde vector processors alle taken op zich te nemen.

SoC is de juiste richting, dat is het al decennia, het integreren van de FPU heeft tot goede resultaten geleid, het integreren van de Memory Unit heeft tot goede resultaten geleid.

Graphics hebben grotere bandbreedte nodig, zelf, maar de informatie die het grafische sub-systeem met de rest van systeem deelt is niet zo (...)
Niet mee eens. "System on a chip" is een utopie. Er zal continu nieuwe functionaliteit ontwikkeld worden. En die wordt eerst los ontwikkeld met weinig of geen standaarden. Als het aanslaat en er concurrentie voor technologie ontstaat, dan zal er steeds meer gestandaardiseerd worden. Integreren van componenten is pas in een latere stap van de evolutie van zulke componenten. Het moet dan zover gestandaardiseerd zijn dat het component "feiloos" kan communiceren met de componenten waarmee het geïntegreerd wordt. Maar dat is in het begin natuurlijk niet zo. De latency problemen waar jij het over hebt zijn speculatief. De kans is idd groot dat er latency is, maar dat kan dan ook als "kinderziekte" worden beschouwd. Een volgende versie van een physics- of AI-kaart zal daar weer minder last van hebben. Het zal altijd een kwestie zijn van afwegen van voordelen (natuurlijkere graphics op hoge performance) tegen de nadelen (performance verlies op andere plaatsen in het systeem door latency op de memory-bus of andere plaatsen). Maar om met jouw argumenten deze nieuwe technologie bij voorbaat al af te schieten lijkt mij erg voorbarig. Dan zou er nooit meer nieuwe functionaliteit voor een computer ontwikkeld kunnen worden.
Wat je je bij losse onderdelen af moet vragen is of ze wel nodig zijn. Zijn de berekeningen voor AI te veel voor CPU en zo ja, loont het zich om een apparte kaart te maken ipv de CPU te upgraden, in dat geval doet het dat niet.

Inderdaad kan niet ieder nieuw idee op een chip geïntergreerd worden, maar dan blijft het vraagstuk, zou dat ook werkelijk nodig zijn, ik denk niet dat er veel chips zijn die zulke specifieke taken doen dat die taak niet door een net iets krachtigere wat algemenere processor kan worden overgenomen, kijk eens naar de Cell processor (laat hierbij even het chronisch falen van Sony achterwege), deze kan ongelovelijk veel taken doen die normaal door losse chips worden gedaan, voor x86 processors is dat even nog niet mogelijk, maar er wordt aan die weg gewerkt (zie IDF, langetermijn planning), in de tussentijd ontpopt de gpu (http://gpgpu.org) zich als een zeer algemene rekeneenheid, niet taak specifiek, maar de juiste architectuur voor snelle uitvoering van een bepaald soort rekenwerk (MIMD).
Ze hebben de films volgens mij offline gehaald. Krijg steeds de melding dat de file niet (meer) bestaat... Heeft iemand deze gedownload en bereid een servertje op te zetten? Wil ze toch ook wel even zien.
Ik zal tank battle 1 en 2 even op video.google.com gooien, edit de linkjes hier zometeen wel bij.

edit:
tank battle 1:
-uploading-

tank battle 2:
http://video.google.com/v...ocid=-2409211256009676296
Downloadable versie via Rapidshare: Tankbattle2.MPG.

Zou dit een prototype van AISeek's AIPU zijn?

Artikel (d.d. 1-9-2005!) over AISeek's AIPU.
Ja, me 2. Een miror of Torrent zou erg leuk zijn :).
Met yahoo/google kan ik ook niks vinden. Bij aiseek reageren ze wel snel op alle drukte, misschien kunnen ze dan ook zelf een torrent starten.

Bedankt The Widow Maker :)
Volgens mij is de hele site nu down.
Ik moet toch zeggen dat deze kaart, in mijn ogen, veel meer kans van slagen heeft als de physics kaart. Gewoon omdat deze kaart ECHT iets toevoegt aan de gameplay. Alhoewel dit argument ook genoemd werd bij de aigia kaart was ik het daar niet helemaal mee eens.Wat hebben realtime bullithole`s nou te doen met gameplay, of zoals bij GRAW meer visuele explosies. Deze coprocessor komt misschien mijn conroe wel assisteren :)

@Psyed
Daar heb je helemaal gelijk. Ik heb fear maar ook GRAW gespeeld, zonder phsychis kaart en dan kunnen de effects echt verbluffend zijn. Om daar dan een extra dedicated coprocessor voor te kopen ala 250 euro vind ik gekkenwerk. Tuurlijk heeft grapics wat te maken met gameplay maar dat staat niet in verhouding met wat de AI met de gameplay doet. Vergelijk de AI van FEAR maar eens met die van DOOM3. Die verbetering in AI heb ik liever dan de verbetering in special effects :)
Bullitholes en andere effecten spelen zeker een rol bij de gameplay. Je merkt het nu niet. Maar speel jij maar eens bijvoorbeeld F.E.A.R. met zo min mogelijk special effects, zonder bullit holes etc. als je gewend bent alles met volledige graphics te spelen.

Achteraf zeg je dan ook dat de game ervaring minder is. ;)
Dat is alleen eye-candy. Misscchien ervaar je het anders, maar het spel is absoluut niet anders met of zonder kogelgaten en andere grafische dingen.

Het wel of niet zien van die gaten verandert het verloop van het spel niet.

PhysX of deze AI-kaart kunnen dat wel, al zal het waarschijnlijk niet gruwelijk ver afwijken van het te volgen pad.

Het zal uiteindelijk toch uitkomen op van te voren geprogrammeerde eindpunten, die kunnen verschillen, maar dat kan nu ook al.

Ik zou wel een SP spel willen dat IEDERE keer anders zou verlopen.

Vroeger, heel vroeger, ging het om punten scoren en had je geen echt doel.

Nu, zeker in RPG, FPS en RTS, speel je voor een doel. En dit houdt in, dat binnen het spel, je eindresultaat al vastligt. Je moet alleen uitpuzzelen hoe daar te komen.

Daar zal geen enkele add-on kaart (op dit moment?) iets aan kunnen veranderen.
Zeker WEL een toevoeging die de gameplay veranderd. Aan de hand van de kogelgaten kan ik een schatting maken van waar de schutter staat/stond, welke wapen er werd gebruikt, hoeveel tegenstanders etc.

En vermits ik anders reageer, veranderen alle reacties op mijn acties, vooral van menselijke medespelers maar ook van de AI.
@Punkie:

Nogmaals, daardoor verandert de gang van het spel niet ingrijpend.

Ja, je kunt zien waar een sluipschutter zit en dat soort dingen, maar met of zonder zul je niet tot een drastisch ander spelverloop komen.
De physix kaarten voegen ook heeel veel toe. Er zijn echter geen games die volwaardig gebruik maken van deze physix engine. De kaarten zijn nog niet mainstream. Waardoor de games ontwikkeld worden om ook zonder physix te kunnen functioneren. logisch dat de kaart dan weinig meerwaarde leverd. Dat zal met deze processor niet anders gaan. Game studio's zouden ook games kunnen ontwikkelen met zoveel particles dat een gewone pc zonder physixkaart ze nooit zouden kunnen afspelen. Echter kijken ze wel uit geen hond zou ze kopen.
Kan je toch gewoon uitzetten de extra effecten en minder particles voor de mindere pc die geen physix kaart heeft. Dan loop je geen kopers mis, en heb je toch een game die alle nieuwe zooi ondersteund. ;)
Ik denk niet dat je "fear Graw Crysis " en vanalles maar moet vergelijken met elkaar.
De expertize en keuzes die Dev's maken bepalen de uit komst. Wat past en "add to de game vision"" en Game design. Druk van publisher heeft ook 'n grote impacted.

Ik zie het meer zo. Als je DC en Copro's, HavokFX
en de invloed op game enrichment will vergelijken.
Dan zou bijvoorbeeld: Crytech. 'n zooi Parralel project moeten doen al die support keuzes of meer los laten op dezelfde game design..
Omdat dev team heeft elke 'n game design en team expertize om wat keuzes voor hun project kunnen betekenen.
Dus als je UT2007 PPU support and the Physics bijvoorbeeld brak vind met PPU tov Crysis op Dualcore oh zo geweldig. Hou dan rekening hier mee.
Dat kan omdat je kicked van jungle physics, ik ook.
Wat had Crysis er uit kunnen trekken uit die PPU voor hun game, nog betere jungel. Of uit 'n tweede core of GPU puur voor effecten.
Game design bepaald de impact en wat de team ermee kan. Crysis zou UT2007 ook door hun team expertise weer anders doen. mischien beter of slechter of anders. En wat voor Physics het meeste tot 'n game add. Verschild per game.
Zo heeft Crysis live like jungle interactie.
Dan moet je niet met 'n game komen zonder.

PC Graw was een groot schalige port. Maar nog steeds 'n port. Die flink onderhanden is genomen om meer PC like te zijn. En is dus toch wel enigzins in detail een andere game dan op console.
Maar in die korte tijd is PhysX support er in geproped. Daar is ook de resultaat naar. Dat was dus de eerste game en niet de laaste.
Fear is geen port maar een Full Pc project.

Ik zelf kijk uit naar
Crysis vind jungel maps cool. 'n DC game.
Ook naar CF:revolutions muche gameplay PhysX
En
Naar Joint Task force hele coole RTS mijn theme Modern warfare. En ja ook physX support.
Dus Twee Ageia physX supporting games.

Graw is de eerste PhysX games en zeker niet de laatse.

Hoe AIPU gaat uitpakken geen idee die moeten nog beginnen nog geen game bekend die hun supporten.

Vraag me af hoe de eerste kritiek was bij de eerste Voodoo Glide game. Geen idee welke game dat was. IIG niet quake. Het resultaat nu is de aankomende R600 van ATI. En Unreal3 game Crysis.

Kijk al uit naar de nextgen van die dingen.
Whoei. Ben benieuwd of game devs geïnteresseert zijn in dit stukje hardware. Lijkt me voor devs wel makkelijker (en goedkoper?) om games te ontwikkelen als zo veel al uit hun handen gehaald wordt. Andere kant is wel, dat de devs hun games wel moeten ontwikkelen, op een juiste manier, om gebruik er van te maken. Zodat niet game B op game A lijkt en Z weer niet op alle voorgaande (standarisering is ook echt niet alles).
Dan lijkt het net of alle games bij EA vandaan komen.

Nee geen standaardisering plz!
De IAPU maakr NPC AL en zo meer realistisch.
Path niet pre computed maar on the fly.
Wat destructable enviorment mogelijk maakt.
Dynamisch pathing.

De reden dat JTF voor effect Physics is gegaan
Omdat voro gameplay physics interactieve debri the pathing omzeep gooied.

AIPU had daar 'n stokje voor kunnen steken maar komt dus 1 á twee jaar te laat.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True