Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Bron: AnandTech

AnandTech bericht dat Havok, het bedrijf achter de gelijknamige engine, van plan is om de videokaart in te schakelen om natuurkundige berekeningen te versnellen. Het idee is niet nieuw, maar Havok is het eerste bedrijf dat te kennen heeft gegeven het idee te gaan vertalen naar de praktijk. De Havox FX-engine maakt gebruik van Shader Model 3.0 en zou ongebruikte rekenkracht van de videokaart inzetten om natuurkundige berekeningen uit te voeren. Deze berekeningen zijn nodig om bijvoorbeeld op een realistische manier effecten zoals haar, water en ontploffingen weer te geven.

Havok logoMet deze engine zal Havok het opnemen tegen Ageia dat binnenkort aan de weg wil timmeren met de PhysX Physics Processing Unit (PPU). De PPU heeft ook als doel het ontlasten van de processor door het overnemen van natuurkundige berekeningen, maar maakt gebruik van een speciale losse insteekkaart om dit te bewerkstelligen. Het voordeel van deze oplossing is dat de videokaart niet belast wordt met de natuurkundige berekeningen, maar voor de PPU-kaart zal wel 250 dollar neergeteld moeten worden. De Havok FX-engine kan verder ook gebruikt worden voor het berekenen van ‘game-play physics’ en niet alleen het visuele effect hiervan. De Havok FX-enige is bijvoorbeeld in staat om complexe berekeningen zoals collision detection over te nemen van de processor terwijl de PPU dit niet kan doen.

Het grote probleem van het gebruik van de videokaart voor het overnemen van berekeningen is dat deze het zelf ook regelmatig erg druk zal hebben. Havok geeft aan dat de aanwezigheid van een tweetal videokaarten daarom ook de voorkeur verdient. Het grote voordeel hiervan, boven één videokaart en één PPU, is een betere verdeling van de werklast. Wanneer er twee verschillende type kaarten aanwezig zijn kan het voorkomen dat de PPU-kaart druk bezig is terwijl de videokaart niks aan het doen is en omgekeerd. In hoeverre de oplossing van Havok een succes zal worden is nattevingerwerk. De Havok-engine wordt momenteel gebruikt door een groot aantal populaire spellen, maar ook Ageia heeft enkele grote gameontwikkelaars achter zich staan.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (86)

Is het nu al niet zo dat juist de grafische kaart de bottleneck is met de meeste games en niet de cpu?

Waarom zou je dan de CPU ontlasten en de grafische kaart nog meer werk laten doen? Dan is het met een midrange videokaart straks helemaal onmogelijk om te gamen..

edit: Ik denk ook aan het tweakers bericht dat zelfs met een 7800 GTX FEAR maar moeizaam (26 FPS) op full detail draait. Ik kan me dan niet voorstellen dat het gaat helpen dat de GPU ook de physics gaat berekenen.

Engine makers mogen er volgens mij ook niet vanuit gaan dat mensen standaar voor 1000-1200 euro videokaarten gaan aanschaffen, dus bijv 2x 7800 GTX in SLI of binnenkort 2 X1800XT in crossfiremode.

@evilghost: Je geeft zelf met je fear voorbeeld al aan dat de GPU makkelijk de bottleneck kan zijn en het dus nog veel meer zou zijn in deze mogelijk nieuwe situatie. Niet iedereen beschikt namelijk over setje 7800 GTX-en. Dat is ook niet waar je als gamemaker rekening mee moet gaan houden als je het mij vraagt, want dat zou verkooptechnisch niet het meest handige zijn.
Met 2 GTX'en in SLI is je CPU écht de bottleneck, dermate zelfs dat bij een SMP-engine een dualcore CPU nog de bottleneck is al het aan komt op physics...
Natuurlijk is de CPU niet de bottleneck.... Sinds wanneer worden de berekeningen voor physics ingewikkelder op een hogere resolutie? Dat lijkt mij niets met elkaar te maken te hebben. Dat zie je dan ook terug in tests waarbij ze in lage resolutie testen, bijv 640x480 om te voorkomen dat de GPU de bottleneck wordt. En dan blijkt opeens dat 200+ frames per seconde in Half-Life 2 mogelijk is.... Oftewel de CPU is capabel genoeg om de physics te berekenen terwijl alles met 200 fps voor bij raast...

Wat je in FEAR zit is een bottleneck in de game engine op het moment dat 2 7800 GTX in SLI worden gebruikt. Dat heeft bijzonder weinig met de CPU te maken. EN dan roep je mss: "ja maar de CPU kan het dus niet snel genoeg aan de GPU aanleveren!!" Nope, de engine staat het de CPU niet toe (het is ook niet makkelijk, zo'n engine proggen), met andere woorden: de engine is niet oneindig schaalbaar! Maar goed, dat lijkt me ook niets nieuws. Check de Quake III engine (de originele), deze is zeer goed schaalbaar en haalt op huidige configuraties een werkelijk belachelijk aantal fps... (ok, er zit dan ook geen geavanceerde physics in Q3).

Als ik uit mijn nek lul (en iemand mij kan vertellen waarom resolutie/details van de grafische weergave iets te maken hebben met de physics/andere zaken die de CPU doet), dan hoor ik het graag!!

PS: een aparte PPU is natuurlijk kut. Extra aanschaf, requirement, das helemaal niet handig marketing technisch gezien. Kun je beter de tweede core van een dual core inzetten voor de physics, aangezien die nu toch vrijwel niets staan te doen. (maar das dan ook weer niet zo makkelijk, vanwege het real-time karakter van games enzo...)

:Z (wat een geblaat zeg)
CPU is zeker wel een bottleneck, niet zo veel als dat veel mensen hier zeggen, maar hij blijft een bottleneck, als deze druk bezig is met physics berekeningen en AI, heeft ie minder tijd over om de videokaart ook nog van nieuwe informatie te voorzien, vandaar ook dat je ziet dat flyby benchmarks 2-4x beter scoren dan botmatch benchmarks...

Deze bottleneck verschuift alleen heen en weer tussen CPU en GPU afhankelijk van aan de ene kant hoeveel bots er zijn, wat voor physics er berekend moeten worden en aan de andere kant welke resolutie je draait, aantal polygonen etc, etc...
Vaak is zelfs bij een single 7800GTX de processor al de bottleneck, die kaarten zijn absurd snel.
Het is juist andersom. De cpu is steeds vaker de bottleneck van het hele systeem. Zelfs een fx-55 heeft moeite met dual 7800GTX dus waarschijnlijk als je een goed genoege processor hebt is er zelfs nog emer grafische rekenkracht. Natuurlijk spellen zoals FEAR is het zelfs lastig op een x850 XT PE op 1600 X 1200 met alles op max af en toe sommige dingen te renderen maar kortom de gpu is absoluut niet de bottleneck.
Zonde dat die PPU niet de collision detection kan doen
Ik gok bijna dat dit een foutje is, als de PPU dit werkelijk niet kan, is het ding nog waardelozer dan ik dacht (en ik dacht er niet zo hoog over nee).
'tuurlijk kan de PPU collision detection doen, dat is de voornaamste functionaliteit van die kaart. Kijk maar op http://www.ageia.com/products/physx.html.
Dus dan heb je RA3, die havok 3 gebruikt, en alleen goed speelt met G80 in SLI en dat je dan supreme collision detection heeft en al die stuff maar dan zit je CPU natuurlijk weer uit zn neus te vreten |:(
Door die hardware matige ontlasting van de CPU door.
Sound chip
GPU
FPU
PPU
AIS1

kan op elk van die dissiplines veel meer gedaan worden.

Veel meer 3d geluiden simultaan
FP presision Simd optimalisaties waar nodig.
Veel meer physics
veel en krachtigere AI.

Dit houd niet in dat de CPU niks te doen zal hebben. Die multipurpous CPU moet dit alles gaan managen. De lijm code de game logic die dat alles aanstuurd wat ook veel meer management werk is geworden. O dat door hardware acceleratie en ontlasting de games weer 'n stuk complexer kunnen worden.
Misschien een stom vraagje maar wat is FPU ?
/edit/
Ja de AIS1 dat is een speciale chip voor de AI, maar wat is een FPU nou ?

/edit2/ Ja Flointing point, ja nu weet ik het weer, Maar zins de komt van de alton(K7) processoren lijkt de het wel redelijk in orde met de FPU, in het pentium 1 tijdperk was het allemaal erg zwaar (vooral voor de cyric en AMD zijn tegenhanger van de P1) Daarvan zeg ik laat het maar lekker geintergreerd blijven op de CPU.
Vroeger had je bijvoorbeeld de 386 zonder FPU, en een losse FPU voor de 386, de 387. Zo zat dat ook met de 486 en de 487 en de 286 en de 287. Pas met de pentium werd de FPU geïntegreerd.
Just explaining...
Maar AIS1 ken je wel
Floating Point Unit....een tegenwoordig in de CPU geintegreerd deeltje logica wat overweg kan met floating point getallen, waardoor complexe berekeningen stukken eenvoudiger uit te voeren zijn. Vroeger, toen er slechts met fixed point getallen gerekend werd door de CPU, waren er enorme code-workarounds om floats te berekenen. Dit had op veel vlakken nadelen (games, simulaties), daarom heeft men een losse FPU geintroduceerd, die later geintegreerd werd in de CPU core.
Ik had zo'n weitec geval als alternatief voor 'n 80387
als het al zou oud is (FPU) is het eigenlijk niet eens meer de moeite waard om te noemen als ontlasting.
en mdat het geintegreerd is, is de CPU alsnog daarmee bezig. nu nog de PPU chip standaard op het mobo of Vid

(mijpart een socket op je mobo dat je zelf kan kiezen of je hem wil)
CPU gaat naar multi core.
Ze gaan dus naar Cell achtige oplossing.
Je krijgt naast 2 of 4 multipurpouse cores. 4 a 16 Specialisatie PU die nogal krachtiger in AI en Physic's zijn dan de Multipurpouse kernen.

'n PPU/AIS1 kan dus geintergreerd worden bij 'n 35nm (CPU)chip of chipset.

iNtel én AMD kunnen dan zelf met hun Physic/AI versnellende unit komen die dan via 'n algemene API DirectPX / OpenPX ofzo aangestuurd wordt.

De Cell CPU gebruikt die Specialisatie unit's voor AI en Physics en kan optioneel ook voor VPU doeleinden gebruiken. Maar de consoles gebruiken daarvoor nogsteeds een dedicated VPU voor.
de CPU kan dan lekker de AI doen om jou lekker te ergeren met zn infinite attacks :)
wat een onzin wie speelt nou op 1900? en 16x FSAA is nutteloos, want op 8x FSAA zie je alleen nog maar de beeld puntjes als kartels.
plus dat met 16x ANISO helemaal geen nut heeft omdat de rendering van de textures amper tot 6x ANI distance komt. (of gebruik je no-fog cheats, en dan nog kun je niet zover zien in een level)

dus wie heeft er nou een gaatje in zn kop?
@WSseanostock
Geen idee wat je exact bedoeld maar als je de reso extreem opschroeft dan worden de kartels fijner waardoor je steeds minder FSAA nodig hebt om gladde lijnen waar te nemen. Reso opschroeven is grof gezien gelijkwaardig aan FSAA toepassen. maar 'n beetje FSAA maakt het wel weer af.
AF is aniso filtering en dat is gewoon het correct texcturen met perspecief dus kijk hoek op het vlak.
De nieuwe X1800XT serie heeft nu betere kijkhoek onafhankelijke AF dus de textures worden onder alle hoeken correct weergegeven. Door correcte texture sampling.
Dit houd in weer betere beeld kwaliteit. maar dit staat los van FSAA AF kan je dus bij elke resoo gebruiken.

Ik heb wel eens gegamed op 1800x1440x16 en dat is fijn FSAA is dan niet echt noodzakelijk aangezien die kartels zo fijn zijn dat het niet meer stoord. AF en 32bit kleurdiepte mis ik juist weer wel. UT op 'n 8500 :)
je snapt het niet, hij speelt (als we het geloven) op 1900 èn 16x FSAA. dus zoals je zelf net zegt, heeft het geen nut.
aan de andere kant zonder FSAA op een hogere resolutie, heb je wel strakke lijnen maar de pixels zijn niet inelkaar gevloeid.


maar ik bedoel juist dat je op 1280x960 a 1600x1200 op 8x FSAA het zelfde effect hebt als op 16x FSAA


en over de kijkhoek van AF, het verscherpt de textures op een bepaalde afstand. als je zonder zou spelen, is het verschil met 2xAF dat het dubbel zover scherp is.
en 4x dus dat weer verdubbeld, zodat 8x eigenlijk al geen nut meer heeft omdat de level niet zover gerendered is.
ik zie wel degelijk verschil tussen 1900 2x fsaa

en 1900 16x fsaa
Andere vraag. Hoe komt een 11-jarig iemand (als ik je profiel mag geloven) aan zo'n setup? Ik heb persoonlijk een heel ruim inkomen maar om daar nou geld aan uit te geven. En rijke ouders? Kan zijn natuurlijk, maar zo rijk (én onverantwoord) dat ze een 11-jarige een setup van +3000¤ in z'n handen schuiven? Nah, dacht het niet. Pas op, ik kan begrijpen dat je als beginnende tiener/tweaker wegdroomt bij nieuwsberichten over quadGPU opstellingen enzo, maar dat is nog geen reden om de realiteit met je dromen te verwarren. Dus doe nou maar ff normaal aub.
Ik vind het een beetje raar om in een discussie iemands leeftijd en het inkomen van zijn ouders te betrekken. Als jij ouder dan 11 bent dan heb je op school wel geleerd dat in een discussie persoonlijk worden een teken is van onmacht.
Dus doe nou maar ff normaal aub
Ik ben aan 15 gestopt met school dus dat argument is niet van toepassing op mij :P ;) (I get your point, maar soms moeten mensen is ff op hun plaats gezet worden, begrijp je ook wel denk ik)
En nu stop ik ermee, let it be :)
Het feit dat je videokaart niet snel genoeg is wilt niet zeggen dat er geen ongebruikte rekenkracht is. Het zou bijvoorbeeld best kunnen (extreem voorbeeld) dat alle pixel shader pipelines 100% belast worden terwijl de vertex shader pipelines 0% belast worden.
Maar met de vertex pipelines alleen kun je vrij weinig aan physics berekeningen doen, mind you.
Ja maar je processor wordt ontlast, zodat je voortaan alleen maar je videokaart hoeft te updaten en niet meer je processor.
tuurlijk moet je wel je CPU upgraden want al dat troep wat je eraan hebt hangen moet wel Central geProcceced worden.
je kan nu toch ook niet met een 1 GHZ cpu en een 7800gtx quake 4 draaien
Nou als er steeds meer taken overgeheveld worden naar je videokaarten, dan is daar steeds minder behoefte aan.
Natuurlijk is op dit moment een 1Ghz nog niet genoeg, maar in de toekomst hoef je dan je 4Ghz niet meer te updaten. Of kun je vrijgekomen processorkracht gebruiken voor betere A.I van je tegenstanders.
Het magische woord is hier niet GHz, maar interrupts...
@ghostie
"waar zit bij jullie die ongebruikte rekenkracht op je vid kaart. "


Daar waar de VPU zit te wachten op de CPU. Of de game al klaar is met die frame en wacht op Vertical Vshync vooral als de game is gecaped op 60fps. als die gemiddeld 100fps wil lopen met pieken naar 150 en dalen naar 20.

Volgens mij zal 'n PPU soepeler draaien tenzij die extra CF kaartje niet voor CF bedoeld is maa rvooral voor physics power reserve. En de andere kaart ruim voldoende is voor het normale VPU werk.
Dus dan moet je (voor optimaal gebruik natuurlijk) én 2 videokaarten kopen, én nog die PPU... Dat wordt dus nog even doorsparen :P
Jullie begrijpen het nieuwsitem niet: Havok wil juist GEEN extra physics kaart, maar gebruikt gewoon de videokaart voor de physics berekeningen...
Ik lees juist dat ze een tweede GPU prefereren in plaats van een PPU. Met slechts een GPU word namelijk niets gegarandeerd volgens de text.
Het grote probleem van het gebruik van de videokaart voor het overnemen van berekeningen is dat deze het zelf ook regelmatig erg druk zal hebben. Havok geeft daarom aan dat de aanwezigheid van een tweetal videokaarten daarom ook de voorkeur verdient. Het grote voordeel hiervan, boven één videokaart en één PPU, is een betere verdeling van de werklast.
Dus je mag kiezen tussen een PPU van 250 dollar of een extra Geforce of Radeon van minimaal 200 dollar.

In mijn optiek lood om oud ijzer.
blijft slap gelul.

Je hebt een game, die is over het algemeen 3D intensief. (anders heb je leuke simpele game, maar daarvoor koop je geen dure videokaart)

Anyway, je hebt dus een heavy 3d game en vervolgens moet de GPU _OOK_ nog is zich gaan bemoeien met physics. Sorry hoor, maare, meestal is je GPU de bottleneck. En is ie dat niet, worden toch wel 'zwaardere' settings gekozen op een hogere resolutie. Als ie dan nog niet de bottleneck is is het tijd voor nieuwe PC : ).

Komt straks bedrijf, 'ja met onze softren engine heb je geen GPU meer nodig, de gpu word ontlast door alle 3d berekeningen door de CPU te laten doen!!' rofl nee leuk zo'n havok engine, maar totally ..uhm .. yeah useless.
Het voordeel van twee videokaarten boven 1 videokaart en een aparte physics kaart, is dat de videokaarten universeler inzetbaar zijn. Als ze bijvoorbeeld niet bezig zijn met het berekenen van physics (in bijvoorbeeld een spel die dat niet ondersteunt), zullen ze gebruikt worden om nóg meer fps te leveren.
Komt straks bedrijf, 'ja met onze softren engine heb je geen GPU meer nodig, de gpu word ontlast door alle 3d berekeningen door de CPU te laten doen!!' rofl nee leuk zo'n havok engine, maar totally ..uhm .. yeah useless.
dat is pas slap gelul...

ik vind het wel een positieve ontwikkeling, eindelijk goed gebruik van shader model 3.0, en wat die bottleneck betreft, wat doe je liever? 250 euro uitgeven aan een physx kaart, of gewoon een iets duurdere videokaart waar je overigens ook wat aan hebt als er geen physics berekend hoeven te worden?
Wat doe je liever maar wat heb je liever. Je moet meer SM3.0 performance inkopen voor Physic power en de VPU is niet altijd idle en FPS verloop kunnen nogal grillig zijn zo ook de idle tijd. Dus met variable beschiking over reserve power voor physics. ik denk dat we eerst even moeten afwachten wat voor invloed havok heeft op de VPU belasting. aangezien bij een iets krachtigere kaart het wel loopt maar dan met nogal grillige FPS verloop. Grote kans op schokkerig heid.
En dan kan dat ook nogal game afhankelijk zijn.

Ik zou dus eerst maa rafwachten hoe havok kwa physics performance uitpakt. kan zijn dat het aleen concurerend is als je 'n VPU erbij zet, los of SLI/CF.

PPU ontlast niet alleen de CPU maar belast daarbij niet de VPU tov havok die de VPU extra belasten.
Je hebt niet veel aan een ontlaste CPU als ergens anders in de pijp de fPS stocked omdat de VPU overbelast wordt tijdens idleloos pieken.

dus voor optimaal gebruik heb je al een krachtige VPU nodig die niet altijd evenveel reserve over heeft voor Physics.

Dan is 'n PPU of iig een extra Gkaart 'n betere en soepeler keus. die staddy fps garandeerd.

En doordat havok de VPU wil gebruiken voor physic's staat de gamer voor 'n dilemma. wat havok doet is gewoon overleving zonder dat zou novodex aegia de flag overnemen.

Net als de glide link met 3dfx hardware.

Alleen nu heb je twee oplossingen die beide geld kosten.

Niemand zit te wachten op twee concurerende oplossingen. het wordt dus weer afwachten welke als mmarkt leider komt boven drijven. En in het begin heb je beide oplossingen nodig om alle games havok of novodex optimaal te kunnen spelen.

En sommige games zijn wel degelijk CPU afhankelijk. Er is meer dan alleen SM3 pushende FPS games.
hmm liever ¤250 aan een PPU als ¤500 voor een tweede 7800GTX }>
@Bezurk:
Wat je vergeet is dat de ontwikkelaars van die engine ook andere belangen hebben dan een spelletje snel te laten verlopen, ze willen namelijk winst maken. Ik denk in dit geval dat ze de engine beter voor doen dat het in werkelijkheid is. Je moet er sowieso dus flinke grafische hardware voor hebben wil je er uberhaubt wat aan hebben 2 VGA kaarten van 500 euro per stuk vind ik een beetje te gek worden.
wat doe je liever? 250 euro uitgeven aan een physx kaart, of gewoon een iets duurdere videokaart waar je overigens ook wat aan hebt als er geen physics berekend hoeven te worden?
Wat ik liever doe is mijn CPU upgraden.
@Tha Lord: En jij vergeet weer dat ze alleen winst draaien als de engine ook echt beter is. Hun klanten zijn niet de Jan met de Pet gamers, hun klanten zijn game development bedrijven. En die gaan geen prutswerk inkopen, want zij willen zelf ook winst maken. :7
Node:
ja echt wel. Jij bent echt wel tien keer slimmer dan al die ontwikkelaars van de Havok engine! Ik denk dat ze nu het licht gezien hebben. Ze staken hun ontwikkelingen. Denk toch na man |:(

Juist nieuwe engines hebben meer en meer physics features die je eerder nooit zag, dat kost gewoon erg veel rekenkracht. Omdat de CPU ook vaak belast wordt met de gameplay en AI e.d. moeten ze een plek vinden voor die physics en wat blijkt nou: een GPU is daar uitermate geschikt voor, helemaal aangezien een GPU grote hoeveelheden (retesnel) geheugen tot z'n beschikking heeft. Tadaa: een idee is geboren ;)
Vind het maar niets, weet je hoe vol je pc wordt op deze manier. 2 Video kaarten, een PPU en een goede geluidskaart. Niet bevordelijk voor de airflow en warmte productie lijkt me. Krijg je weer het zelfde als vroeger: oververhitte onderdelen in een overvolle slecht te koelen kast.
Slechte ontwikkeling als je het mij vraagt, spelletje A heeft 2 VGA kaarten nodig en spelletje B heeft een PPU nodig....
Ach. Als dit een beetje interessant wordt komen er heus wel kaarten met 2 GPU's op een enkel plankje, of een lekkere PPU integrated...
heb je dan al nagedacht over de bus dan moet er weer een ander alternatief komen voor pci express 16x

Als havok zijn engine nou eens beter gaat maken ipv de hardware te gaan ontwikkellen. Want je kan me niet vertellen dat je een ontzettend dure videokaart nodig heb om die zware havok engine te kunnen draaien. (ik vond frycry een aanfluiting)
Ik denk dat dat ook nodig is, omdat als er iets ontploft, je videokaart 100% in gebruik is.. en dit gebruikt je videokaart.. dus dan heb je er nog niks aan!
En hoe kom je bij de wijsheid dat je videokaart bij een ontploffing voor 100% wordt gebruikt?
Wat is voor Havok het voordeel van het de grond in boren van een beginnend bedrijfje? Als ze er nou gewoon goed op in gaan en een mooie physics engine maken die om kan gaan met die PPU (maar het niet absoluut nodig heeft), zijn ze de eersten en krijgen ze daar geld mee binnen...
Je zegt het zelf al: geld.
Voor een geavanceerdere engine kan Havok weer meer geld vangen.
en wie zegt dat een 2e GPU een geavanceerdere engine op kan leveren.
Wie weet is die PPU wel 10x sneller in physics berekenigen dan een GPU.
Kortom, je kunt er echt nog niet van zeggen tot deze PPU op de markt is en ondersteund wordt.
Err, de PPU heeft echt de feiten tegenzich, in theorethsiche termen is de GPU ongeveer, een keertje of 100 sneller, praktisch zal dit rond de 10 keer komen, omdat physics een beetje specifiek zijn, maar in princiepe zijn bijde chips grote breede MIMD rekenaars, en de GPU ligt technisch nog een heel heel stuk voor op de Physix kaart, en tegen de tijd dat de physix kaart uit komt, zal dit gat nog groter zijn...
Ze moeten fatsoenlijke processors maken, dat wil zeggen, krachtig genoeg om vertex berekeningen zoals de 7800 te maken, zonder dat hoofdprocessen eronder lijden.
Vervolgens nog een extra processorcore die als physics unit in te zetten is.
De GPU heeft dan enkel nog als taak shaderoperaties.
En we hebben geen retetrage pci-express ertussen zitten, maar ubersnelle interconnects of hoe dat ook mag heten.

Op die manier zou de pc zelfs sneller dan zo'n toekomstige console kunnen zijn.

Nu lijkt het niet echt erop dat mijn 7800 fifa 2006 op hdtv resolutie gaat halen ;(

misschien heb ik te weinig videokaarten ofzo.

To the point:
dikke onzin dat je extra hardware aan je pc toe moet blijven voegen, het is goedkoper om in plaats van zo'n ppu, een console te kopen die zowieso krachtiger is dan je hele high-end systeem, PLUS die ppu..
Hier klopt toch iets niet?

edit: ik kijk niet eens naar specs, ik kijk alleen naar de beelden, die vele malen geavanceerder uitzien.
bijv. f.e.a.r, si mooi, maar op de pc is het een uitzonderen, alle andere pc games staan 1 generatie onder f.e.a.r. op bijv. die xbox is de kwaliteit van fear het minimum. dat is wel een verschil ja.
en waarom denk jij dat een toekomstige console sneller zal zijn dan een high end game pc...???

Die specs zien van deze next gen consoles zien er wel leuk uit maar het is echt appels met peren vergelijken. Daarnaast is zelfs de HDTV resolutie is nog steeds lager dan de gemiddelde PC reolutie. (laat staan dat je op een high end op 1600x1200) speelt.

Hardware technisch zal een console niet sneller zijn. Alleen efficienter omdat games beter geoptimaliseerd worden.
HDTV is altijd nog 1920x1080 (full HD wel te verstaan), dat is dus wel degelijk vergelijkbaar met 1600x1200. Maar ok ok, de XBOX360 gaat 720p ondersteunen, en dat is 1280x720, maar dan wel volledig ge-antialiased. De tijd dat consoles in een veel lagere resolutie draaiden dan PC's is toch echt voorbij... Daarnaast is resolutie ook niet alles, shaders zijn veel belangrijker voor de sfeer / photo realisme. En shaders, dan kunnen die next-gen consoles gewoon erg goed.
Dit kan wel interessant zijn voor oudere videokaarten. Ik heb nog een PCI-videokaart over en deze zou wel voor het berekenen van physics gebruikt kunnen worden.
Als je oudere videokaart Shader Model 3.0 ondersteunt...
tja dit was al aan de orde in het nieuws over de PPU, dat volgens ATI de GPU die berekeningen kan uitvoeren.

maarja als je nou moet kiezen tussen 250 dollar voor dePPU of 500 euro voor een SLI.
het zou beter zijn dat Ageia de PPU wel ontwikkeld en die dan op next-gen videokaarten laat integreren.
Keuze lijkt dan snel gemaakt koop een PPU kaartje en je kan daarnaast je grafische kaart blijven upgraden.

Hoef je niet als je een SLI hebt staan steeds 2 dezelfde videokaartjes op te waarderen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True