Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 123 reacties
Submitter: Avalaxy

Een ontwikkelaar van Ubisoft heeft aangegeven dat de ondersteuning van Directx 10.1 uit het pc-spel Assassin's Creed gehaald wordt. De snelheidswinst die DX10.1-kaarten in het spel onder Vista behalen, blijkt een bewuste keuze van Ubisoft te zijn.

Op het forum van Ubisoft heeft een ontwikkelaar van de pc-versie van Assassin's Creed bekendgemaakt dat de ondersteuning van Directx 10.1 uit het spel gehaald wordt. Volgens de ontwikkelaar, die als Community Developer werkzaam is bij de spelontwikkelaar, stelt Ubisoft een patch beschikbaar die de ondersteuning verwijdert. De nog te verschijnen patch haalt daarnaast ook de nodige bugs en glitches uit het spel, zo geeft de developer te kennen.

De snelheidswinst die Directx 10.1-kaarten in Windows Vista SP1 boeken, blijkt een bewuste keuze van Ubisoft te zijn. Ubisofts implementatie van Directx 10.1 in Assassin's Creed is zodanig opgezet dat tijdens het post-effect een render-pass wordt overgeslagen. Deze render-pass is een zeer intensieve berekening voor de gpu. Door een render-pass niet uit te voeren, wordt er een snelheidswinst van twintig procent behaald. Het is niet duidelijk waarom de ondersteuning van Directx 10.1 uit het spel gehaald wordt. Volgens de ontwikkelaar zou de implementatie herzien moeten worden.

Het is nog niet duidelijk wanneer de patch van Assassin's Creed wordt uitgebracht. Het ontwikkelteam zou volgens de ontwikkelaar hard aan de update werken.

Assassin's Creed - Screenshot pc
Moderatie-faq Wijzig weergave

Reacties (123)

Ze kunnen toch directx 10.1 als optie in het spel zetten? Misschien betaald Nvidia wel een smak geld aan Ubisoft :p, want voor zover ik weet heeft Nvidia toch nog geen directx 10.1 videokaart?

Wat nu als mensen met een Amd/ATI videokaart (directx 10.1) nu op directx 10.1 willen spelen. Dan moeten ze expres die patch niet installeren?

P.S. ik snap eigenlijk nog steeds niet precies wat het verschil tussen directx 10.0 en directx 10.1 is. Ondersteunen directx 10.0 videokaarten nu ook directx 10.1? Of moet je dan een hele nieuwe videokaart kopen :?.

[Reactie gewijzigd door Fleximex op 19 april 2008 12:58]

Kijk even naar de beschrijving van Rage3D:
http://www.rage3d.com/articles/assassinscreed/index.php?p=1

In DX10.1 hebben de shaders meer mogelijkheden war betreft AA dan in DX10. In het lijkt er op dat je dat verschil zag in AC.... Kijk maar eens naar de screenshots in het DX10 en DX10.1 renderpath. http://www.rage3d.com/articles/assassinscreed/index.php?p=4 (Wel even op de thumbnails klikken)

Duidelijk is dat er in het DX10.1 renderpath veel meer AA wordt toegepast. In dat specifieke screenshot is het zelfs een verschil van dag en nacht.

Is dus ook heel raar dat Ubisoft claimt dat er minder werk wordt gedaan, aangezien het DX10.1 renderpath veel meer AA doet....
Zie Wikipedia artikel voor meer info over DirectX 10.1:
Direct3D 10.1 is an incremental update of Direct3D 10.0 which will be shipped with, and require, Windows Vista Service Pack 1 in February 2008.[5] This release mainly sets a few more image quality standards for graphics vendors, while giving developers more control over image quality.[6] It also requires a whole new set of requirements, including Shader Model 4.1 and 32-bit floating-point operations. Direct3D 10.1 still fully supports Direct3D 10 hardware, but to be able to support all the features you need a card with the required hardware.[7] As of March 5, 2008, only the ATI Radeon HD3xxx series GPUs are compliant.
Andere kaart is dus vereist voor de 10.1 features.
Volgens mij o.a. andere shader techniek, zie het als de DirectX 9 kaarten met 9a, 9b, 9c ondersteuning, shader model 3.0 bijv.

Nieuwe kaart dus, en als de fabrikant gewoon een beetje modern deed dan had je al gewoon een kaart met DirectX 10.1 :) ATi ^^
Weet iemand hier toevallig wat bepaalde rechten om 10.1 in je hardware te mogen implementeren kost?

Waarom heeft nvidia het nog niet in zijn kaarten zitten?

En hou op over, spelonwikkelaars gebruiken het toch pas over 5 jaar want 10.1 maakt het alleen maar beter voor spelontwikkelaars.

Heel raar dat er een patch als deze ontwikkeld word.
Heeft iemand hier enig last gehad van het weghalen van de gevraakte renderpass?
zou ubisoft niet in staat zijn dx10.1 die renderpass als het zo nodig is wel gewoon te laten doen?

Begrijp me niet verkeerd. heb dit jaar meer dan 10 verschillende videokaarten in mijn pc gehad. ati en nvidia, dus ik ben geen fanboy van wat dan ook.
Maar dit riekt toch wel een beetje naar foute politiek!
Weet iemand hier toevallig wat bepaalde rechten om 10.1 in je hardware te mogen implementeren kost?
helemaal niets, MS maakt de dx10.1 driverinterface, nvidia moet het maar implementeren (deels in software en deels in hardware). Er zijn wel eisen van MS om je kaart dx10.1 te mogen noemen, je mag bijvoorbeeld niet een deel van dx10.1 ondersteunen, het is alles of niets.
Nou niet helemaal hoor, MS maakt de driverinterface in samenwerking met de grote videochip makers...
Je kan niet sneller dan 24 plaatjes per seconden zien, MAAR als je een spel hebt die 24 of 30 FPS speeld heb je vaak met VEEL dingen in het beeld dat hij onder de 24 FPS komt en dan zie je wel verschil. en als hij 45 of zelf 60 FPS draait heb je bijna nooit of nooit last dat hij onder de 24 FPS komt.
dat heb je helemaal mis, zoals pavla hierboven al enigsinds aangeeft.

er is een groot verschil tussen dingen vloeiend zien (persistence of vision) en de maximaal waarneembare framerate. persistence of vision treed op vanaf ongeveer 15fps, je ziet het nog knipperen, maar je ervaart iets als een film. vanaf ongeveer 25fps (of 50fields bij interlaced footage) valt het knipper effect weg voor de meeste mensen. maar de maximale framerate die we kunnen waarnemen ligt veel hoger zie deze quote uit deze website:

Imagine yourself in a very dark room. You have been there for hours and it's totally black. Now light flashes right in front of you. Let's say as bright as the sun. Would you see it, when it's only 1/25th of a second? You surely would. 1/100th of a second? Yes. 1/200th of a second? Yes. Tests with Air force pilots have shown, that they could identify the plane on a flashed picture that was flashed only for 1/220th of a second.

verder is voor het gevoel van een vloeiende kijk ervaring de door pavla genoemde motionblur inderdaad ook erg van belang. je ziet dit nu in games ook steeds meer terug komen, waaronder assassins creed. al gebruiken ze het in de meeste games nog wat overdreven om een extra gevoel van snelheid te geven wat meestal jammerlijk mislukt. dit zal wel komen omdat het een nieuw speeltje voor de ontwerpers is en zal met de tijd correct gebruikt gaan worden.
(Ik neem aan dat dit eerder een reactie op mij is...)

Het psychologisch moment speelt zich af op 'hersenniveau' terwijl het het knipper-effect eerder een probleem is van het netvlies. Kort uitgelegd: als je naar een scherm kijkt met een lage refreshrate dan kan je niet 'zien' dat het flikkert het enigste wat je wel merkt is dat het scherm 'donkerder' is of lijkt (door de donkere pauzes tussen het flikkeren zoeken je hersenen naar een tussenweg ) dan een scherm met een hogere refreshrate. Wat je ook zal merken is dat je netvlies snel vermoeid zal geraken, maar dit heeft er niets te maken dat je 'ziet' dat het scherm flikkert , want dat kunnen je hersenen toch niet bijhouden, wel dat je netvlies het ondervindt.

Dat mensen die flits in die kamer en het vliegtuig konden zien komt simpelweg door het feit dat dat op het netvlies blijft nabranden waardoor men wel op 40ms uitkomt. (er bestaat wel zoiets als subliminale perceptie, maar daar durf ik gn uitspraken over te doen omdat de resultaten hierover niet consistent zijn en onderzoeken moeilijk tot niet gerepliceerbaar blijken)

Waar ik het wel eens mee ben is je laatste stukje: motionblur is blijkbaar de volgende in een rij na HDR en Bloom om overmatig toe te passen in spellen...
Maar wat zegt dat onderzoek dan over de continu framerate, m.a.w. hoeveel frames je per seconde in je brein kan verwerken. In die donkere kamer test heb je de hele tijd niks te verwerken, en dan opeens wel een beeld, waarna er niks meer komt, alle tijd om dat te verwerken dus.

Bij een vergelijking van een en dezelfde game op 2 schermen. En op 100 FPS en de ander op 200. Neem je dan waar dat de 2/200ste frame van die seconde iets anders is dan de 1/100ste frame (en het 1/200ste frame) van het andere scherm?

Dat zegt het onderzoek zelf ook. Omdat het verschil tussen 2 opeenvolgende frames op het scherm met 200 FSP zo miniem is vergeleken met die op 100 FPS, zie je dat gewoon domweg niet.

Die donkere kamer test heeft dus heel wat anders bewezen. Hoe snel een oog iets kan waarnemen, maar niet de 'framerate' van het oog.

[Reactie gewijzigd door JohnAD op 19 april 2008 19:59]

Fout, bij films zie je inderdaad met 24 plaatjes per seconde vloeiend, maar dit is zo door de camera die het filmt en daarmee 'motion blur' introduceert. Bij spellen is dit niet het geval en zie je pas echt vloeiend vanaf 60, maar preferabel >80 fps.
Sorry, maar dat is niet juist.

25 fps is perfect voor een mens (kan ietwat verschillen van mens tot mens, maar niet veel).

De reden hiervoor is dat de mens visueel pas iets kan onderscheiden als een beeld 50 a 40 ms hetzelfde blijft.(dit is gelijk aan 'het psychologisch moment') Om een 'vloeiend' beeld te krijgen is het meer als genoeg is om om de 40ms een nieuw beeldje (of frame) te tonen. Een korte berekening toont aan dat 25fps dus genoeg is (1000ms / 40 ms).

De reden dat je in games meer fps nodig hebt is van een andere aard, namelijk het feit dat de fps nooit constant is. Bijgevolg kan het zijn dat je misschien wel 30fps haalt in een spel, maar dat er het ene moment 3 frames in 20ms tijd wordt gerenderd en het andere moment 1 frame in 100ms tijd wat dan die 'lag' voortbrengt.

Die motion blur waarover je het hebt helpt overgens wel ietswat mocht je bv. iets tegen 20fps afspelen, maar op 25fps maakt het niet uit ofdie er wel of niet is.
Zou Nvidia hier wat mee te maken hebben?
Assassin's Creed zit in het "the way it's meant to be played" programma, nvidia heeft met andere woorden geld in assasin's creed gestopt, ze zullen het wellicht niet leuk vinden dat hun concurrenten speciale ondersteuning krijgen. Nvidia is de enige gpu producent die dx10.1 (nog) niet ondersteunt.

http://www.nzone.com/object/nzone_assassinscreed_home.html

[Reactie gewijzigd door oeLangOetan op 19 april 2008 15:26]

Ja, en dat is gelijk hun eigen fout. DirectX 10.1 is niet van een GPU bakker, maar ontwikkeld door Microsoft, dus geen specifieke ondersteuning voor ATi/AMD. Als Nvidia op deze manier vuile spelletjes wil spelen... want dat is het gewoon. ATi/AMD is Nvidia gewoon een keer een stap voor, maar om dan (gerucht) zo te reageren.
Het feit dat nVidea geen DirectX 10.1 ondersteuning leverd komt niet doordat ze achterlopen op AMD/ATI, dit is een bewuste keuze omdat bij DirectX 10.1 er specs zijn voor de implementatie van AA. En dat loopt dan weer anders dan het AA model van nVidea.

http://www.legitreviews.com/article/584/1/
Ik zeg niet graag.... maar dit lijkt inderdaad heel erg op vuil spel van Nvdia...

Dat men iets versnelt met een simpeler renderpath.... maar waarom het dan weer terug halen? Dan was het toch de bedoeling? :? Het is niet logisch dat men bewust een versnelling inbouwt, die dan gelijk weer verwijderd wordt...

Verder wordt het heel raar, wanneer je je realiseert dat die versnelling gepaart ging met een IQ verbetering! De screenshots van Rage3D laten heel duidelijk zien dat het DX10.1 renderpath veel meer AA doet dan het DX10 path.... Daarmee mag je gelijk grote vraagtekens zetten bij het verhaal van Ubisoft... Als de IQ verbeterd door minder werk te verrichten, dan klopt er toch iets niet. En dan ga je het zeer zeker niet weer terug zetten!

Dit lijkt wel heel sterk op de situatie bij Tomb Raider AoD, waarbij een belangrijke patch maandelang in de ijskast werd gezet, omdat die ook een benchmark mogelijkheid bood, waarbij het pijnlijk duidelijk werd dat Nvidia's 5600FX waardeloos presteerde.
Je kan natuurlijk de patch gewoon niet installeren als Ati gebruiker.

probleem wordt dan alleen dat je waarschijnlijk opvolgende patches ook niet meer kan installeren en dat bugs en patches dus gewoon in je game blijven zitten.
Het is dan een afweging maken tussen minder bugs of vloeiender gameplay.
Nvidia heeft een keer zo'n geintje bij, ik geloof 3DMark uitgehaald en toen vond iedereen dat vals spelen, een render-pass overslaan is geen future van DX10.1, dat kan ook bij eerdere versies
de grap is juist dat het verwijderen van die renderpass een snelheidswinst oplevert alsook een betere beeldkwaliteit (oftewel een VOORDEEL van DX10.1 tov DX10) oftewel als je in DX10 die pass zou verwijderen zou je beeldkwaliteit achteruit gaan :)

wat ze bij 3dmark deden was het "naar benedenstellen" van de beeldkwaliteit op een manier waardoor het bijna niet opviel maar er wel een snelheidsverbetering plaatsvind.
Grote kans dat ze druk op Ubisoft hebben gezet, ja. Dit zou mij niets verbazen aangezien Assins Creed Benchmarks voor ATi dan een stuk beter uit de bus komen.
Ubisofts implementatie van Directx 10.1 in Assassin's Creed is zodanig opgezet dat tijdens de post-effect een render-pass wordt overgeslagen. Deze render-pass is een zeer intensieve berekening voor de gpu. Door een render-pass niet uit te voeren, wordt er een snelheidswinst van twintig procent behaald.
En? Zie ik daar iets van? Bij gelijke beeldkwaliteit maakt het me niets uit wat de kaart/driver/game uitvreten om zoveel mogelijk fps te behalen.
Wanneer de grafische kaart 20% sneller is doet hij minder lang over 1 beeldje en kan hij naar mijn inzicht dus ook meer beeldjes per seconde berekenen...
Maar boven 30 fps ziet het oog geen verschil meer dus maakt het toch allemaal geen hol meer uit!!!
Maar boven 30 fps ziet het oog geen verschil meer dus maakt het toch allemaal geen hol meer uit!!!
Dat is een kwakkel die om de zoveel weken op forums naar boven gehaald wordt.

Het klopt voor beelden op film, maar is compleet onjuist voor computer rendering.

Met een video camera (film of CCD, maakt niet uit) gebeurt er een integratie process waarbij gedurende een tijd fotonen verzameld worden op dezelfde plaats/pixel. Van het oogpunt van signaal theorie krijg je een low pass block filter die hoog frequente componenten in het tijdsdomain eruit haalt. In de praktijk komt dat erop neer dat snel bewegende beelden uitgesmeerd worden.

Het oog heeft dat graag, want ondanks het uitsmeren wordt het toch waargenomen als een vloeiende beweging.

Helemaal niet zo bij computer graphics: hierbij wordt er aan sampling gedaan. (Het tijdsdomain wordt per pixel geconvolueerd met een stroom van dirac implusen.)

Elke individueel beeld bevat geen impressie van beweging, maar is een snapshot van 1 moment in de tijd. Het oog heeft dat veel minder graag en wil dit gecompenseerd zien door veel meer beelden per seconde. 60 frames is voor de meeste mensen voldoende.

Als je je afvraagt waarom graphics developers experimenteren met motion blur dan is hier je antwoord: met minder frames per seconde krijg je toch terug de impressie van een vloeiende animatie. Je probeert terug te integreren in de tijd voor een bepaald pixel.

Maar er is een factor die zelfs 60Hz niet noodzakelijk voldoende maakt: (semi-)professionele gamers presteren beduidende beter op een 120Hz scherm dan een 60Hz scherm, zelfs als in veel gevallen de gpu niet aan 120Hz kan renderen. Dat heeft te maken met de reactie tijd. Een 60Hz scherm zorgt voor een kwantisatie van 16ms. Te hoog voor mensen met een fenomenaal goeie reactie tijd.

Kortom: het verhaaltje van 30Hz is een fabeltje dat dringend naar de prullenmand moet verwezen worden.
Je ziet het niet zo in 1x direct maar toch is het merkbaar voor mensen, er is zelfs een onder zoek geweest waar straaljager piloten zelfs nog tot 150 frames oid verschil konden zien, Bizar veel
We hebben 23~30 FPS nodig om bewegende dingen soepel te registreren met onze ogen.

Maar we kunnen veel meer dan dat waarnemen!
Het menselijk oog kan 60fps waarnemen. Films gebruiken 25 fps + motion blur om alles aan elkaar te koppelen voor een soepel beeld. Dit verschil is ook duidelijk zichtbaar in games 60-70 FPS is vele malen soepeler dan 25-30 FPS.
Maar met gewone schermen la 60Hz refresh zie je dus 0.0 verschil tussen 60 of 80 fps...
Klopt, daarboven is het totaal overbodig, maar wel leuk om te kijken hoe goed een kaart presteerd in een bepaalde game.
Bij 30 fps constant ziet het oog een vloeiende beweging. Maar met 30 fps gemiddeld zal je dus stukken met 10 fps en stukken met 50 fps hebben.

Zeker als een framedrop in een druk moment plaatsvind zal in de meeste first person shooters dus dood zijn tegen de tijd dat de fps drop voorbij is.
Oh jeee, daar begint het weer...


Als je praat over fps, moet je onderscheid maken tussen iets vloeibaar zien, en iets kunnen waarnemen. Het eerste is een hersen interpretatie, het tweede de echte limiet van het oog.

Onze hersenen interpreteren 24fps als vloeibaar, en geen aaneenschakeling van stille beelden. Daarom dat films dus op 24fps draaien.

Echter, dat iets vloeibaar schijnt, betekent niet dat daarmee de waarnemings grens is bereikt. Onze ogen kunnen wel degelijk snellere wisselingen meten. De echte waarnemings grens wordt bepaald door de verversings snelheid van de sensoren. Dus hoelang nadat een kegeltje zijn signaal heeft afgegeven, kan die weer een nieuw signaal leveren. Die snelheid is afhankelijk van het type sensor. Wat betreft het deel van het oog waar we het meest actief mee kijken, zit dat op zo'n 60Hz.
Daarom dat bij oude CRT monitoren, 60Hz nogal krapjes was, en 70 Hz voor vrijwel iedereen voldoende was om geen knipperen te zien.

Daarmee is ook nog niet alles verteld. Want die 60Hz is alleen de echte harde grens, wanneer alle kegeltjes ook betrokken zijn bij de waarnemen, en dus ververst worden. Maar op een zwarte achtergrond, worden de kegeltjes helemaal niet ververst, tenzij het onderwerp erop komt. En dus zal je een beweging van het onderwerp t.ov. van een donkere achtergrond, dus het silhouet, sneller kunnen zien aan de kant waar het naar toe gaat. Maar dat is dus wel een beetje een theoretische situatie, want de rest van het ondewerp, en het gebied waar het geweest is, krijgt een soort van ghosting vanwege de limiterende verversingssnelheid van je oog.

Hoewel het dus onder zeer bijzondere omstandigheden mogelijk is om sneller te kijken, is in de praktijk 50 tot 60Hz wel degelijk de harde limiet.

Waarom dan mensen die claimen dat zij tot 80 of 100Hz nog verschil zien? Voor zover het geen grootspraak betreft, is dat simpelweg omdat een framerate in een spel meestal een gemiddelde betreft. De minimale framerates kunnen veel lager zitten. Zie zien die verschillen op het moment dat het spel kortstondig op een lagere framerate zit. Het is vrij normaal dat je gemiddeld 80fps moet draaien, om te garanderen dat het spel nergens tot onder de 50fps komt.
alsjeblieft niet vloeibaar, dan word m'n bureau zo nat :) denk dat je vloeiend bedoeld :)
Boven 30fps geen verschil meer zien: Voor mij is dit dus niet zo. Bij een CRT buis bijvoorbeeld zie ik ook 85Hz knipperen, heel irritant.

[Reactie gewijzigd door Sparks.nl op 19 april 2008 19:40]

Het feit dat je verschil ziet tussen 30fps en 50fps komt niet door onze perceptie van die snelheden, maar door de perceptie van de negatieve pieken. Een game heeft die nml altijd wel, en zijn veel dieper als de kaart meer moeite heeft. Met 30fps en 50fps kun je dus pieken naar resp. 5fps en 8fps krijgen, en DAT is wat opvalt.

Het gezever over Hertzen is geen issue, want dat heeft niets te maken met het aantal beelden per seconde te maken, dat is gewoon hoeveel het beeld opnieuw op de fosfor gebrand wordt. Bovendien is een TFT-scherm 0Hz, oftewel een perfect stilstaand beeld.
Als je 70 FPS haalt terwijl je scherm maar aan 60 Hz refreshed, zal je in werkelijkheid ook maar 60 FPS te zien krijgen.

En mijn TFT zit nochtans wel op 75 Hz hoor...
@ _Thanatos_: Jij hebt de klok wel horen luiden maar de klepel niet zien hangen heb ik het idee..
The hertz (symbol: Hz) is the International System of Units (SI) base unit of frequency.
Frequentie, ofwel hoe vaak iets gebeurt binnen een bepaalde tijd. (secondes in dit geval) Dat kan het refreshen van een CRT-monitor zijn, maar ook het aantal beelden wat je videokaart uitspuugt tijdens het spelen van een game. Sterker nog, als iemand zijn geslachtsdeel elke twee seconden langs de Taj Mahal beweegt, zou je kunnen zeggen dat die met 0,5 Hz geswaffeld wordt, om maar eens een absurd voorbeeld te noemen. Je kan dus werkelijk alles wat zich met enige regelmaat herhaalt uitdrukken in hertzen.
Een TFT-monitor zet over het algemeen 60 keer per seconde nieuw beeld voor je neer en heeft dus een refresh-rate van 60 Hz.

[Reactie gewijzigd door Demo op 21 april 2008 00:24]

> Maar boven 30 fps ziet het oog geen verschil meer dus maakt het toch allemaal geen hol meer uit!!!

Je hebt ook nog zoiets als lag van de controls, hoe meer fps hoe sneller het beeld je bewegingen reflecteerd. Daarom zetten pro gamers alle instellingen op low om een zo hoog mogelijke fps te halen zodat ze een fractie sneller kunnen zijn dan hun concurenten. En vaak leiden de special effects alleen maar af (zoals bij de laatste c&c het geval is met die displacement effecten).
Dat klopt dus niet. Tot ongeveer 40-50 fps is het verschil zeker nog te zien, misschien wel hoger.
Die fabel was dacht ik al heel lang geleden uit de wereld geholpen. Als je het verschil niet ziet tussen 30 en bijvoorbeeld 60 fps bij een snel bewegende 3D game dan is er echt iets goed mis met je ;)
30 fps is goed, zolqng de fps maar constant blijft. een framedrop bij 60fps naar 50fps valt niet op, maar van 30 naar 20 valt wel op.

daarom zijn 30 fps minder wenselijk; maar indiien ze constant is niet minder wenselijk dan 500fps.

daarom raad ik iedereen aan om te cappen op 30fps met V-sync aan, zelfs al kan je aan 120fps... meer heb je echt niet nodig en je videokaart wordt minder belast
Probeer jij maar is css op 30 fps te spelen of sterker nog 60 :P...De game speelt pas boven de 100fps lekker
Iets met een Voodoo2 demonstratie waarbij aan de ene helft van het plaatje 30FPS wordt getoond en de andere helft 60FPS. Zeker wel dat je het verschil zien kan.
Het is gewoon altijd hetzelfde.
"Het menselijk oog kan maar tot 30fps zien" is een volledig foutieve stelling die hier om de week wel eens opduikt.
Uitleggen waarom dit foutief is, hetgeen ik al meerdere malen heb geprobeerd, samen met nog een hoop anderen, blijkt niet de oplossing te zijn.
Enkele regels hoger hebben een paar moedige mensen het nogmaals geprobeerd. Hopelijk hebben zij meer succes.
Wat ze nu proberen duidelijk te maken is dat die 20% snelheids winst dus niks met DirectX 10.1 te maken heeft, maar met de verwijdering van een RenderPass? Het kan natuurlijk ook fout doorgegeven zijn, als in: "Hey, deze patch geeft 20% snelheid en ondersteuning voor Dx10.1". Wat mensen dan gaan denken, is dat het door die Dx10.1 komt, wat dus helemaal niet is? Wat dit ook zou kunnen betekenen, is dat dit voor alle PC's zou moeten werken doordat het iets in het spel is, en niet van de DirectX.

Hopen dat ze dit snel oplossen, want een verwijdering van een RenderPass kan misschien stabiliteits problemen geven als dit niet zorgvuldig wordt gedaan.

EDIT:

Sorry, ik las niet goed maar dan nog...
Als ze die RenderPass konden overslaan op een 10.1 kaart, waarom niet op oudere varianten?

[Reactie gewijzigd door Shammah op 19 april 2008 13:03]

als het alleen aan een renderpass zou liggen dan begrijp ik niet waarom andere kaarten daar geen voordeel van hebben.
de theorie dat het weglaten van een stap de performance winst geeft betekent dat die stap dus juist wel door dx10.0 wordt uitgevoerd. dus iets wat dx10.0 wel kan uitvoeren en niet specifiek voor dx10.1 is. het zou raar zijn dat dx10.1 een stap wel weg kan laten en dx10.0 niet.

en de plaatjes in de links hierboven laten duidelijk zien dat de kwaliteit juist beter is bij dx10.1.

de situatie is volgens mij erg duidelijk. nvidia heeft hier weer eens laten zien dat het om geld draait en niet om de klanten.

voor mij zal de nieuwe patch er dus niet opkomen.

de nieuwe implentatie zal waarschijnlijk meer uitzien als volgt:

if (videokaart="ATI") then (performance="-20%")
Zonder die 20% prestatiewinst kun je Assassin's Greed in het rijtje GRAW, GRAW 2, Rainbow 6: Vegas ... zetten.
Zal mensen eerder overtuigen over te stappen op een console.
Tenminste dat is mijn vermoeden.
Zal mensen eerder overtuigen over te stappen op een console.

Mensen die op een console willen gamen, of een console naast hun gaming PC willen hebben, die hebben zo'n ding inmiddels al lang gekocht.

"Overstappen" is tegenwoordig niet echt een item meer, of je moet onder een steen hebben geleefd.

Nee, daar wordt je blij van: merken dat de game niet soepel draait, dan gepiel door een nieuwe driver te installeren, dan zien hoe de game er ook kan zien, om vervolgens de instellingen weer lager te zetten.

Zo is het nu eenmaal. Als je niets met instellingen en drivers van doen wilt hebben moet je het bij je console houden. Het voordeel van instellingen die je zelf kunt maken is dat je altijd de meest optimale beeld kwaliteit tegen voor jou (persoonijk) acceptabele fps kunt krijgen. Op je console zit je vast aan instellingen die de game devs juist achtten. En je beeldkwaliteit is in de regel relatief lager vergeleken in vergelijking tot een beetje gaming PC.

Bovendien: een beetje tweaker schrikt echt totaal niet van een drivertje en een slidertje hier of daar. Dat is een non-argument op tweakers.net.
Nou, dat laatste, zien hoe het er uit kan zien (en lopen) mt DX 10.1 en dan door een update terug moeten naar een mindere kwaliteit, daar zouden denk ik maar weinig mensen vrolijk van worden, ook tweakers niet.

Het lijkt me dat als ze dit echt gaan doen dat ze dan een hoop mensen tegen zich in het harnas jagen? En de mensen met DX 10.1 hardware zijn waarschijnlijk juist de hardcore gamers die je niet tegen je in het harnas moet jagen. Spreekt deze programmeur niet gewoon voor zijn beurt? Of interpreteren wij het nieuws soms verkeerd? Want dit kn toch haast niet waar zijn?
Technologische beslissingen worden niet genomen op basis van wat een kleine minderheid (tweakers) kan en wil, maar op basis van te verwachten financile resultaten.
Hmm, je kunt toch net als op de console de kwaliteit iets minder zetten?
Nee, daar wordt je blij van: merken dat de game niet soepel draait, dan gepiel door een nieuwe driver te installeren, dan zien hoe de game er ook kan zien, om vervolgens de instellingen weer lager te zetten.
En dan vinden mensen het vreemd dat console games beter verkopen dan de pc games.. Met pc games is er altijd zoveel meer heisa op de pc.
-Overigens geen flame, ik speel enkel op de pc. Meeste van mijn vrienden (IT-ers) zijn al wel overgestapt naar consoles.

[Reactie gewijzigd door GutTerIchI op 19 april 2008 14:47]

En dan vinden mensen het vreemd dat console games beter verkopen dan de pc games..

Er zijn twee redenen waarom PC games minder verkopen dan console games:

- De hoofdreden is piracy. Je mag aanemen dat 80%-90% van de PC games die mensen (single player) spelen gedownload is zonder dat ervoor betaald is.

- De tweede reden, die veel minder van invloed is, is dat een meerderheid van de mensen compleet digibeet is.

Kosten zijn ook een overweging. Maar enkel startkosten. Console gaming is nog best duur ale je met alle aspecten rekening houdt, zoals oa de hogere prijs van games.

Absoluut genomen mag je nog steeds niet stellen dat er in het algemeen meer op consoles gegamed wordt. (Handhelds niet meegerekend.)

Zelf heb ik ook een PS3, maar prefereer de PC in verband met: tweakbaarheid, game modding, betere beeldkwaliteit, etc.

[edit:]
Consoles zijn makkelijker.. Zelfs al bij het downloaden van games voor de pc zijn er dingen die je moet fixen, bugs, crashes, driver problemen, patches.

Ook console games leiden onder bugs/crashes, alleen die worden niet altijd gepatched.

Gebruikersgemak heeft wel degelijk grotendeels te maken met digibeten. Een driver installeren is bijvoorbeeld max 5 minuten werk. Natuurlijk ben ik het verder voor de rest volledig met je eens, ik heb niet voor niets een pS3 gekocht. ;)

vaak rond het idee dat de pc meer heisa is

Welke heisa? Is heisa niet subjectief? Sowieso, ik vraag me af welke heisa je precies bedoelt.. Volgens mij dramatiseer je 't een en ander.

[Reactie gewijzigd door houseparty op 19 april 2008 17:52]

- De hoofdreden is piracy. Je mag aanemen dat 80%-90% van de PC games die mensen (single player) spelen gedownload is zonder dat ervoor betaald is.

- De tweede reden, die veel minder van invloed is, is dat een meerderheid van de mensen compleet digibeet is.
Dat is wel simpel bekeken denk ik. Gemak is toch de grootste meetellende factor voor de meeste consumenten. Waarom is de reden voor best wat console gamers, die zijn overgestapt van de pc vaak rond het idee dat de pc meer heisa is?

Consoles zijn makkelijker.. Zelfs al bij het downloaden van games voor de pc zijn er dingen die je moet fixen, bugs, crashes, driver problemen, patches.

Ik denk dat de drang voor gebruikersgemak in dit verhaal onderschat word, en waar het geld dan beschikbaar komt voor een console, is het fijner om gewoon een console aan te schaffen. Die vrienden van mij, waarvan 1tje zijn MCSE heeft, hebben hetzelfde gedaan en zijn bepaald geen digibeten. Het is maar 1 voorbeeld uit enkel mijn persoonlijke kring, maar ik denk dat je de bovenstaande beredenering onderschat in zijn werkelijke effecten op de markt.

Heisa is soms problematischer dan geld, en misschien wel vaker dan je zou denken. Niet elke pc gebruiker vind het leuk om te 'tweaken' voordat je gewoon zonder problemen kan gamen, genoeg mensen die gewoon willen gamen en dat alles het doet.. Tweakers niet uitgezonderd.

[Reactie gewijzigd door GutTerIchI op 19 april 2008 15:47]

Hier ben ik het met je eens hier iedere gameconsole staan die er is uitgebracht om de simpele reden iedere 5 jaar 3 nieuwe consoles is goedkoper dan ieder jaar mijn PC upgraden gelukkige eigenaar van Wii PS3 en 360
Zeggen dat de meerderheid van de mensen digibeet is vind ik persoonlijk behoorlijk arrogant. De 'heisa' rond de PC heeft niks met kennis te maken, maar met goede of slechte producten. Het patchen van een spel als Assassin's Creed zou berhaupt niet nodig moeten zijn.

Ik heb op mijn blog een voorbeeld, ook schandalig, van hoe mijn vriend zijn legale PC game moest cracken om het te kunnen spelen.

Dat is gewoon niet vergelijkbaar met hoe het er op de consoles aan toe gaat. Die zijn veel en veel gebruiksvriendelijker.
En dan vinden mensen het vreemd dat console games beter verkopen dan de pc games.. Met pc games is er altijd zoveel meer heisa op de pc.
Dat komt omdat je voor DX10+ games Vista moet draaien en daar hebben gamers met enige computerkennis nou eenmaal geen zin in. Een console is goedkoper dan een hardware upgrade voor Vista, een Vista licentie, zware videokaart etc.
Ik denk dat het niet zo zwart/wit is als dat iedereen het hier interpreteerd... Ubisoft zal hier ongetwijfeld een reden voor hebben, want niemand (inclusief Ubisoft) heeft er baat bij als de software minder snel draait. Wat die reden wel is? Tsja, misschien horen we het nog :)
Zoals op t Ubisoft forum te lezen is: "... . In addition to addressing reported glitches, the patch will remove support for DX10.1, since we need to rework its implementation. ..."

Wat volgens mij suggereert dat t dus wel opnieuw geimplementeerd zal worden.
Beter _/-\o_
'Rewritten and released when Nvidia launches their next gen graphic cards with DX10.1 support'

Iets zegt mij, en anderen hier evenzeer kijkende naar de reacties, dat Nvidia hier nog wel eens meer mee te maken zou kunnen hebben dan goed is voor de gaming-industrie. Als een dergelijk scenario waar blijkt te zijn en er ook bewijs voor is, zou het overigens een behoorlijk nare situatie voor Nvidia kunnen betekenen.
want niemand (inclusief Ubisoft) heeft er baat bij als de software minder snel draait.
Nvidia die op hun kaarten geen DirectX 10.1 heeft geimplementeerd is echter juist wel een partij die er baat bij heeft. Als hun kaarten ineens 20% trager in benchmarks worden dan is dat een duur grapje.
Misschien een subtiel telefoontje van Nvidia naar Ubisoft ?
Gaan we nou tegenwoordig serieus al vernieuwende features UIT games halen? Ik ben benieuwd naar de echte reden zeg! :?
ja helemaal vernieuwend als je allerlei smerige truukjes uithaalt door niet het volledige render traject te door lopen :z

m.a.w. 10.1 is bullshit nog
Maar als het nou geen verschil maakt. Ik wil eigenlijk wel eens iemand horen die er verstand van heeft. De ontwikkelaar is in eerste instantie ook niet gek, en als het door het weglaten van de renderpass niet goed loopt dan zou de feature ook niet geimplementeerd zijn. Verder heb ik nog nooit iemand zien klagen over de beeldkwaliteit op DX10.1.

Vuile trucjes van sommige bedrijven lijkt me..
In BF2 hebben ze ook het dolfindiven, rennend schietend en granaten gooien, het airdroppen van vehicles op gebouwen en het airdroppen van vehicles op helipads eruit gehaald.
En dat is maar goed ook.
Dit gaat niet om een spelelement maar om een technische wijziging.
Ubisofts implementatie van Directx 10.1 in Assassin's Creed is zodanig opgezet dat tijdens de post-effect een render-pass wordt overgeslagen
Als in, de kwaliteit is minder? (Omdat er wat tijdens het renderen wordt overgeslagen?) Dan is het ook niet een DX 10.1 feature of wel.
Dx10 of 10.1 zijn niet sneller, en mensen hebben de illusie dat het wel zo is.
Ubi wil die illusie uit de lucht helpen.
Dat lijkt me niet de reden te zijn, als er meer FPS is is er meer snelheid. Maar ik vraag me af waarom er met DX10.1 iets wordt overgeslagen tijdens het renderen, mischien kan het met DX10.1 tijdens een ander process van het renderen hetzelfde effect worden toegevoegd ofzo.
Misschien is de reden dat DX10.1 er voorlopig weer uit wordt gehaald wel dat het (nog) niet lukte om deze renderstap in DX10.1 uit te voeren.
Dat is technisch gezien onzin aangezien DX10.1 exact het zelfde kan als 10.0 en dus die post process stap kan uitvoeren, DX10.1 heeft echter nog wat extra features.

Ik geloof ook niets van dit ubisoft verhaal btw, de screenshots van het vorige artikel zagen er exact het zelfde uit onder 10.0 en 10.1 alleen had 10.1 iets beter AA en was de framerate hoger.

Als er een intensieve postprocessing stap in zat (en een postprocessing stap is meestal maar een kleine bewerking, niet zo intensief iig dat het 15~20% van de rendertijd inneemt.

Dus ubisoft claimed dat een postprocessor die 20% van de framerendertijd inneemt niet in de DX10.1 variant zit (waarom weet niemand technisch is het prima haalbaar)
En ook claimen ze dat hoewel die postprocessor stap 20% van de framerendertijd inneemt deze niet zichtbaar is?

Duidelijk dat NV of ubi zelf niet blij was met dit nieuws en daarom dit nu aankondigt!
zoals al gezegd word is de kwaliteit slechter het is dus niet hetzelfde.
jij herhaald dingen die eerder GEZEGD zijn, maar nog niet bewezen want ik heb nog geen enkel linkje met reviews/benchmarks hier voorbij zien komen die DAT beweerd

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True