Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties

AMD zou bezig zijn met een HD 4970 en een HD 4950. De dual-gpu-variant gaat waarschijnlijk HD 4995 X2 heten, zo melden anonieme bronnen. De nieuwe gpu wordt op een 40nm-procedé geproduceerd.

ATI logoDe eerste kaarten die verwacht worden, zullen gebaseerd zijn op de RV740-gpu en zijn gericht op het mainstream-segment. De RV770 krijgt ook een refresh, in de vorm van de RV790, die voornamelijk gericht is op het performance-segment. Bronnen binnen AMD meldden aan Ati-forum dat de RV790-gpu gebruikt zal worden in de HD 4970 en dat de dual-gpu-variant HD 4995 X2 gaat heten. Een HD 4950 ligt ook in de lijn der verwachting, maar is door de anonieme bronnen niet bevestigd.

Over de specificaties van de nieuwe RV790-gpu werd eerder deze maand al een hoop gespeculeerd. De laatste geruchten spreken over een 256bit-geheugenbus met gddr5-geheugen op een snelheid van 3900MHz, in plaats van de oude 3600MHz. Ook de RV740-gpu heeft al een hoop specificaties toegedicht gekregen; voorlopig zou de chip 640 streamprocessors meekrijgen, 32tmu's en een 128bit-geheugenbus in combinatie met gddr5-geheugen. De verwachting is dat AMD de nieuwe videokaarten tijdens de CeBIT in maart zal introduceren, maar de productie van nieuwe gpu's op een nieuw productieproces is een onvoorspelbaar proces.

Moderatie-faq Wijzig weergave

Reacties (67)

Deze kaarten zijn puur om de prestatie kroon terug te pakken van nVidia.

Echter door het ontbreken van DirectX11, zullen deze kaarten snel aan vervanging toe zijn als applicaties op de markt komen die goed gebruik maken van DirectX11, en dat kan dan tot een duur geintje komen. Natuurlijk duurt dat minimaal een jaar, Windows 7 moet eerst op de markt komen (neem aan rond Augustus), en daarna de applicaties die er gebruik van maken.

Tevens gaat DirectX11 het mogelijk maken om ontbrekende functies te emuleren, dus met een krachtige CPU of vernieuwde drivers van AMD/ATi (en nVidia) kunnen de DirectX10 kaarten bepaalde dingen ook versnellen.

Voordelen van DirectX11 kan je al gedeeltelijk zien via een goed artikel op AnandTech: http://www.anandtech.com/video/showdoc.aspx?i=3507

Deze kaarten zullen er in ieder geval wel voor zorgen dat nVidia weer verplicht is om de prijzen te laten dalen net zoals vorige keer, en door 40nm gebruik kan AMD/ATi zeer lage kosten behouden om extra prijs druk te zetten.

Op dit moment beshouw ik zelf de HD4850 als beste koop, voor $110 koop je daar nu een 512MB versie van, en hij presteert sneller dan de GeForce 9800GTX+ die in dezelfde prijs klasse zit. De introductie van deze nieuwe kaarten drukt hopelijk de prijs van de HD4870 naar de $100 toe. Dit doet mij weer denken aan de GeForce 4 dagen (zoals de Ti 4200), waarbij er ineens gigantisch veel meer grafische kracht beschikbaar was voor een redelijke prijs.
Je kan waarschijnlijk minstens een half jaar na de officiele introductie van DX11 nog mooi het nieuwste van het nieuwste op DX9/10 gebied spelen. De assimilatie van said DX10 heeft zelfs nog wel langer geduurd.

Ik zeg hierbij DX10 slash 9, want zijn er nog steeds veel games, ik noem bijv: Fallout 3, die DirectX 9 enkel nodig hebben voor de beste graphics.

Hoewel ik deze keer wel een snellere assimilatie verwacht, temeer omdat er nu echt wat beters nodig is dan dx9, en omdat Windows 7 naar verwachting een stuk minder zwaar is dan Vista, het waarschijnlijk snel gebruikt kan worden door veel mensen.
Deze kaarten zijn puur om de prestatie kroon terug te pakken van nVidia.
niet echt, dit is in het eerste geval om de kosten te drukken van de huidige generatie die nog tot het einde van het jaar mee moet gaan.
en ze zijn hier al een tijdje mee bezig, niet alleen maar sinds nvidia weer iets waardigs op de markt heeft gezet. heeft weing met nvidia te maken.
De DX11 hardware en API komen mogelijk dit jaar beschikbaar. Als je dat snel vind maar de games kan een stuk langer duren.
Daarnaast zullen ook toekomstige games toch ook de mainstream hardware ondersteunen en dat is nog steeds Dx9 en DX10 , DX11 is meer optioneel.
Oh jee, nog meer kaarten die nVidia de grond in gaan drukken.
Misschien toch eens tijd om over te stappen op ATi :P

Ach ja. 40 nM.... Ik weet nog dat de Radeon 9600 vet snel was :P
Weet iemand mij trouwens te vertellen waarom de RV740 op 128-bit zit?
Is dit om de prijs te drukken?

Vreemd, want ik weet wel dat de GTX260 op bijvoorbeeld 448-bit zit.
Is 128-bit dan niet een beetje jammer?
128bit GDDR5 == 256bit GDDR3
Dus
(1 * Bandbreedte) * (2 * mem snelheid) == ( 2 * bandbreedte) * ( 1 * mem snelheid)

40nm haald de produktie kosten om laag bij 1:1 Dieshrink. Maar maakt ook krachtigere chip mogelijk bij even grote die space.
Weet iemand mij trouwens te vertellen waarom de RV740 op 128-bit zit?
Is dit om de prijs te drukken?
dat is eenvoudig uit te leggen Merethil: de RV740 is de refresh van de "oude" RV730, welke nu het kloppend hart is van de huidige HD 4650/4670 en die communiceren via een 128-bit bus...

Het zal zeker wel een kostenverhaal hebben maar als opvolger is het logisch dat deze RV740 ook op 128-bit draait. Via o.a. sneller GDDR5 geheugen zal de kracht toch een stuk hoger uitkomen dan de "oude" 4650/4670... Verwacht prestaties in de lijn van de huidige 4830.
In combinatie met GDDR5 geheugen is 128 bit sneller dan GDDR3 op 256 bit
correct me when i'm wrong.

edit: klopt het als ik zeg: GDDR3/256bit = GDDR4/128bit ?

[Reactie gewijzigd door ShaiNe op 31 januari 2009 16:33]

Zie hier het verschil tussen GDDR3 en GDDR5:

http://en.wikipedia.org/wiki/GDDR3
It has much the same technological base as DDR2 [...] To improve bandwidth, GDDR3 memory transfers 4 bits of data per pin in 2 clock cycles.
The GDDR3 Interface transfers two 32 bit wide data words per clock cycle from the I/O pins.
http://en.wikipedia.org/wiki/GDDR4
To achieve the same bandwidth as GDDR3 SDRAM, the GDDR4 core runs at half the performance of a GDDR3 core of the same raw bandwidth.
http://en.wikipedia.org/wiki/GDDR5
GDDR5 is the successor to GDDR4 and unlike its predecessors has two parallel DQ links which provide doubled I/O throughput when compared to GDDR4.
Alles bij elkaar opgeteld: GDDR3 heeft een vierdubbele busgrootte t.o.v. DDR2 (32 bit ipv 8bit) Dat komt dus door extra veel draadjes, dus bordkoper, dus duur. GDDR4 geeft geen extra datatransfersnelheid bij gelijke klok (maar heeft wel andere interessante extra's.) GDDR5 verdubbelt de databus weer t.o.v. GDDR3 en 4.

[edit: Foutje DDR2 vs GDDR3 en toevoeging:]
Nu waarom GDDR5 videokaarten met veel minder bordkoper toe kunnen bij dezelfde bandbreedte is omdat GDDR5 veel hoger geklokt kan worden waardoor dezelfde bandbreedte is te halen als GDDR3 met minder chips/io lijntjes.

[Reactie gewijzigd door jiriw op 31 januari 2009 17:24]

De GTX260 heeft dan ook 'maar' GDDR3 geheugen ipv GDDR5 zoals deze ;) Dit is omdat geheugen makkelijker/goedkoper te vergroten is dan de bitbus (Dacht ik)
Zit er nog een logica achter de nummering?

Wat ik weet van nvidea 7300smal 7600medium 7900high GS(small) GT(high)
6600 7600 8800 Kennelijk las ik net is er ook een 9serie En wat komt er na?

Van Ati radeon heb ik nooit iets begrepen.
Wat is er onlogisch aan? Serieus, ik vind deze post echt te ongelovelijk voor woorden. . .Niet eens omdat je de nVidia nummering compleet mis interpreteert, maar dat je dan diezelfde logica blijkbaar niet ziet in de ATi nummering. Kijk:

3400 (small)
3600 (medium)
3800 (high)
50 (small)
70 (high)

3650 med-med
3870 high-high
4870 high-high nieuwe serie

3800 > 4800

ATi is echt te simpel voor woorden. . .Als je het opdeelt krijg je dit:

[4] [8] [70] [X2]
4 > Serie (2/3/4)
8 > Markt. 3/4 = Budget. 5/6 = Value. 8 = Performance.
70 > Segment. 50 = Value. 70 = Performance.
X2 > Aantal GPU's. Staat er alleen bij als het er twee zijn, anders zit er gewoon 1 in.

Dat er geen 7 of 9 bestaan betekent niet dat ze dit niet kunnen introduceren, fo dat dat onlogisch is. Een X700-kaart (X= 2,3 of 4. Niet te verwarren met de X700) zou gewoon mid/high-end zijn, en een 9 dus high-end.

Nou brengt de 4995 dus ook een nieuwe segment, nl. de 95. Ik neem aan dat dit bedoeld is als Enthusiast. Met de HD series is ATi tot nu toe meer een performance/price weg ingeslagen, vandaar dat de XX70 kaarten wel hun high-end waren, maar steeds redelijk goedkoop waren voor high-end kaarten. Ik neem aan dat met de komst van nieuwe XX95 kaarten in de toekomst er voor echte performance wordt gegaan, ten koste van oa. prijs/prestatie dus.
Jij moet even wat serieus Google werk doen in plaats van te vloeken in de kerk.

Na de 9-serie (GT-100) van NV is er al een GT-200 serie uitgebracht en de geruchten rondom de GT-300 serie bestaan al.
ATi heeft een simpele naamgeving welke zo logisch is als het maar kan, namelijk van de 1000-serie -> 2k -> 3k -> 4k -> 5k (rv870)
Ik heb liever dat ze wat meer tijd aan debugging besteden dan elke paar weken een nieuwe kaart op de markt te smijten.
Wat heb je nu aan een nieuwe kaart met buggy drivers?
dit is wel goed nieuws. Dan worden zelfs de pure buget game kaartjes snel. Die RV740 zien er teminste veelbelovend uit. Ik ben benieuwd hoe de prijzen van de snellere kaarten zullen liggen en hoeveel de daadwerkelijke prestatie winst zal inhouden. het ziet er teminste veel belovend uit.
Ik hoop dat het AMD lukt om de RV790 iets sneller dan de GTX285 te maken en een stuk zuiniger :D

Voor de rest heeft het toch vrijwel geen zin om op DX11 te gaan wachten voor aanschaf, dit is in het verleden ook nooit zo geweest, de eerste echte DX11 spellen verwacht ik dan ook pas over 2/3 jaar.
sneller weet ik niet, maar zeker wel een flink stuk goedkoper. (40nm ~1miljard transistors vs 55nm 1.4miljard transistors) maar het zal elkaar niet veel ontlopen als ATI de kloksnelheid nog wat kan opvoeren ivm de huidge kaarten.

[Reactie gewijzigd door Countess op 31 januari 2009 20:24]

40nm al weer, lijkt me de HD4950 wel een mooi kaartje om m'n stroomslurpende HD2900XT mee te vervangen, die concurrentiestrijd is goed voor de consument :D
HD4970 1GB om mijn HD2900XT te vervangen.
GTX285 1GB om mijn 8600GT te vervangen

Die lage idle vermogen van de GT200 spreekt me wel aan. aangezien ik ook andere dingen doe op mijn PC's.
Interresant voor 'n stille Game HTPC
Vraag me af wat ATI doet met hun RV790
ziet er goed uit dit jongens, maar in welke prijsklasse gaan de 4950 en de 4970 nou precies vallen, worden dit echt high end kaarten van 350 euro of krijgen ze een mooie mid-range prijs van 2## euro?
Haha,
vorige week is de snelste NVidia kaart gepresenteerd en nu komt ATI al weer met een nieuwe, nog snellere, kleinere GPU.
Mooi dat de wedloop weer begonnen is, ondanks de *kredietcrisis*.

[Reactie gewijzigd door Matis op 31 januari 2009 16:25]

Dat is de snelste NVIDIA kaart niet eens. De GTX 295 is, ondanks z'n 2 GPU's, toch nog wel de snelste.

Daarnaast is dit een gerucht, zoals ze vaker de ronde gaan. Ik denk dat deze ook niet klopt aangezien ATI dan weer afwijkt van hun naamgeving.

Een HD5870X2 duikt ook al bij shops op (wel voor een hele hoge prijs). Dit suggereert dat het gewoon verder gaat met een HD5xxx serie.

Ze hadden het eerst namelijjk ook over een RV775, wat weer een vaag gebeuren is. Ik denk dat het het verstandigste is om te wachten op officiële reacties.

Wir bekamen Informationen aus erster Hand, welche Daten dieser neuen Grafikkarten offenlegen. - Zoiets kan ik, jij en iedereen natuurlijk ergens neerzetten. Dit wil echter niet zeggen dat het waar is, het komt alleen realistischer over.

Mensen, wees kritisch! ;)
Hm, je kan het al een beetje uitrekenen. Op het forum heeft iemand dat al geprobeerd.

Uitgaande van 2x960 shaders en sneller GDDR5 geheugen en een core op 800 MHz krijg je het volgende beeld.

- HD4995 X2 / HD5870 X2: 960 x 2 x 800 = 1.536.000 is dus 3,07 Teraflops.
- HD4870 X2 = 800 x 2 x 750 = 1.200.000 is dus 2,4 Teraflops.

Is dus 28% meer performance.

Geheugenbandbreedte:153.6GB/s van die "nieuwe kaart" vs 121.6GB/s van de HD4870X2.

Is dus 26% meer performance.

Kortom: theoretisch ca 25% meer power. Daarmee is in principe de GTX295 te verslaan :9
Helemaal gelijk in, hoewel ik de HD5870X2 nog niet heb zien opduiken.
Wel een HD5850 in een winkel laatst, weet niet meer welke. Volgens mij bij Azerty.

In ieder geval denk ik dat dit alles wel weer overwaaid totdat NVIDIA iets uitbrengt dat nog sneller is dan zowel HD4870X2 als GTX295 (want volgens mij is de HD4870X2 nog steeds meester toch? Ben zo druk geweest dat ik het niet zeker meer weet).

Voor die tijd zal ATi wel lekker wachten op een goede comeback van NVIDIA voor ze een nieuwe verpletterende kracht inbrengen.
Dat denk ik tenminste.... :P
Mja dan verwacht je eigenlijk weer een redelijk grote change zoals bij de HD38xx. Die had en 55nm + DX10.1 + hogere clocks.

Mja het zou kunnen. Al vind ik dat ze dan wel erg snel omhoog gaan met de nummers.

Volgens mij was de RV790 niet meer dan een RV770 op 40nm met hogere clocks eventueel een extra blok met shaders. Maar gewoon DX10.1.


DX11 komt pas bij de RV870.
ATI is nog niet met nieuwe kaarten gekomen er staat alleen dat ze met nieuwe kaarten bezig zijn.
Zeker dit is ook goed voor de consument. Zie ook eerst toen de HD2900 XT flopte er zat gewoon een vooruitgang meer in. nVidia was alleen maar aan het rebranden.

Nu gaat het weer in een lekker tempo elk half jaar een leuke speed boost. Waar het eerst 1 tot 1,5 jaar geduurt heeft tussen de 8800 GTX en de GT200.
Nu gaat het weer in een lekker tempo elk half jaar een leuke speed boost. Waar het eerst 1 tot 1,5 jaar geduurt heeft tussen de 8800 GTX en de GT200.

Dat vond ik eerlijk gezegd wel even fijn. Ik heb toen namelijk een 8800GTX gekocht en die is heel lang de koning onder de kaarten geweest. Dat geeft je tenminste het gevoel dat je het geld zinnig besteed.

Ik heb nu een 280GTX en letterlijk twee weken later kwamen die nieuwe range kaarten uit, en dat is best krom als je er net een gekocht hebt. Toch ben ik wel blij, want deze heeft me ook maar een prikkie gekost.

Toch is het wel fijn als je kaart langer meegaat.
Het is absoluut goed en leuk voor de consument, maar ik zou het helemaal niet erg vinden als er van beiden partijen even 3 jaar geen nieuwe zou uitkomen.

Om het half jaar of vaker weer een nieuwe videokaart aanschaffen. DIt is inderdaad geen must, maar er zijn er zat die het laatste van het laatste willen. Maar man ze kosten een geld :)

Idem voor CPU.
Leuk ? LEUK ?

Man als consument begin ik onderhand te geloven dat je geen moment genieten meer gegund word, behalve gefrustreerd concluderen dat je je geld steeds in de put gooit omdat enkele weken later je kaart al weer 1/3de goedkoper is ...
Voor je het weet is je kaart zowel in de benchmarks als op de markt uit gefaseerd en loop je hopeloos achter !
Niet tof ...

[Reactie gewijzigd door Scherpmes op 1 februari 2009 06:44]

Dat jij blijkbaar op het verkeerde moment een dure videokaart gekocht hebt ligt aan je eigen gebrek aan inzicht. Zelf heb ik 2 8800 GTs met 1 GB geheugen elk gekocht voor ik meen 130 euro per stuk ergens 3/4 jaar geleden en die dingen die blazen nog net zo hard in de nieuwste spellen. Als je je zorgen maakt omdat andere mensen niet meer onder de indrukt zijn als je zegt welke videokaart je hebt, dan ben je gewoon zielig. Kijk gewoon of de spellen die je wil spelen nog goed draaien, en ik kan me niet voorstellen dat dat niet meer zo is als er na een paar weken (of zelfs na een jaar) een snellere kaart op de markt komt.
Zelf heb ik 2 8800 GTs met 1 GB geheugen elk gekocht voor ik meen 130 euro per stuk ergens 3/4 jaar geleden ...
http://en.wikipedia.org/wiki/GeForce_8800#8800_GT
The 8800 GT, codenamed G92, was released on October 29, 2007.
Overdrijven is ook een kunst.
3/4, ook wel bekend als een breuk, oftewel, driekwart.

lezen is ook een kunst :+
Dat is nu eenmaal eigen aan de sector, er worden constant verbeteringen doorgevoerd waardoor eerdere modellen in prijs dalen en al snel verouderd lijken. Het is jouw keuze als je er in het begin veel geld tegenaan gooit i.p.v. even te wachten tot de prijs 1/3e gezakt is, maarja tegen dan is er ook al nieuwere betere hardware...

En zo gaat het met alles, als je een nieuwe auto koopt van de laatste serie betaal je volle pot. Wacht je tot die uit productie genomen wordt omdat de opvolger eraan komt, dan krijg je dezelfde wagen voor een pak minder. Je moet dus gewoon afwegen wat belangrijker is, je geld of het laatste nieuwe pronkstuk hebben, en stoppen met zeuren dat je niet beide kan hebben... ;)
Ja, ik heb ook een aantal keer op het verkeerde moment een 'top' kaart gekocht :( En als de spellen dan ook nog eens zo snel vooruit gaan dat je binnen een half jaar alweer niet meer mee kunt is het helemaal zuur.

Maar ja, ik heb ervan geleerd: ik koop nooit meer een 'top' kaart, maar altijd 1 of 2 stapjes eronder. Daarmee kost het je maar een fractie en kun je toch prima vooruit :*)
Je hoeft toch niet persee iedere keer een nieuwe videokaart aan te schaffen?
Ik heb in mei een 9600GT in mijn PC gepropt en die houdt ik nog gewoon een tijdje, aangezien ik het gewend ben om alle games te tweaken en ik niet zo om eye candy geef maakt het mij niets uit. Misschien als de 9600GT echt niet meer presteert dat ik hem vervang voor een betere en nieuwere kaart, maar dat zal nog een flinke tijd duren.

Hoe meer kaarten er gereleased worden hoe beter het is voor de ontwikkeling. Als ze geen kaarten meer releasen dan komt de ontwikkeling bijna stil te liggen. De bedrijven hebben immers geld nodig om verder te kunnen ontwikkelen. Dit geld krijgen ze niet binnen als ze niet met nieuwe kaarten om de markt komen. Als iedereen een goede kaart heeft en er komt geen nieuwe, dan stopt de verkoop en ziet nVidia of AMD geen geld binnenkomen.

Dus laat die kaarten maar komen en laat ze maar sneller, kleiner en zuiniger worden!
Als je een keer een high end kaart koopt kun je er makkelijk 5 jaar mee doen. Alleen na die 5 jaar zit je wel op vrij lage settings. Dus het valt nog wel mee.

Maar ik wil gewoon alles max detail blijven spelen. Tja dan moet je toch wel eens in het jaar een upgrade doen als de next gen spellen komen. Maar 2 jaar met een HD4870 X2 doen kan makkelijk.
Dus jij bent tegen de vooruitgang omdat je gierig bent? :/

elk jaar een nieuwe videokaart van 150 euro en je kan ook steeds prima mee hoor

[Reactie gewijzigd door Th1x4nG op 31 januari 2009 18:01]

of de spelfabrikanten worden eens gedwongen om spellen beter te maken. crisis draaide op het begin nogal slecht, nu zijn er inmiddels snellere kaarten en kan men het nogsteeds niet vol draaien.

als er niet elk half jaar een snellere kaart uitkomt wordt men gedwongen om creatiever met de performance om te gaan die er beschikbaar is.

en het is zeker mogelijk om 2 jaar op dezelfde hardware te draaien en het er wel mooier uit te laten zien. perfect voorbeeld is natuurlijk de PS2
de PS2 is GEEN goed voorbeeld. Dat ding zijn performance is nog steeds niet ten volle benut omdat het absurd lang duurde eer ze efficient konden programmeren voor die overdreven ingewikkelde emotion engine.
net zoals de PS3 eigenlijk, in principe heeft die Cell chip genoeg horsepower om alles te doen, maar er zit een NVIDIA gpu bij omda er gewoon niet goed voor gecode kan worden
tja, de ene engine is moeilijker dan de andere. het punt dat ik wilde maken was dat de ps2 spellen die de laatste tijd uitkwamen er veel beter uitzagen dan de launch spellen.

zoals je zelf eigenlijk al zegt: het duurt een tijdje voordat efficient geprogrammeerd kan worden voor een engine. of denk je soms dat de huidige grafische kaarten/pc's wel volledig efficient gebruikt worden? en dan bedoel ik niet dat de spellen alles op 100% belasting zetten natuurlijk.
Uiteraard kun je met meer moeite mooiere effecten waarmaken. Maar bij de PS2 was het extreem moeilijk om ook maar een goed deel van de mogelijkheden te benutten.

Dit kwam omdat het ding allerlei verschillende geheugenbussen en verbindingen tussen de verschillende onderdelen heeft, wat efficient gebruik moelijk maakt. Ook was schijnbaar de programmeeromgeving niet goed in orde: door miniscule veranderingen konden de prestaties min of meer willekeurig omhoog of omlaag gaan (terwijl dat ook door de moelijke hardware niet te verklaren was)
Mijn mening:

Die tijd dat MS Flight simulator compleet in assembler geschreven wordt met 640K = grof 512K netto is verleden tijd. Of je gamers zitten aan de helpdesk voor geheugen hoog te laden.
De CPU zijn nu zo krachtig en de ruimte voldoende groot en de games een heel stuk complexer. Dat dev's Game development behandelen net zo als software engenering zoals de rest van de software markt het doet maar dan toegespits op games.

Krachtige hardware geeft hun ruimte om meer te doen. Size mogelijkheden tot complexere game mechanics.
Dit houd in dat ze liever meer flexibiliteit implementeren dan puur voor performace gaan. Om deze complexere sofware enginering en content development te tacklen.
Zo heb ik ergens gelezen op de vorige editie van de Unreal tech site dat de Script engine 'n 10 voudige performance hit leverd dan hard coded.
Maar de produktiviteit is een veel voud hoger omdat content en map makers niet bij elke edit de programmeurs voor een recompile hoeven te vragen. De data driven content pipeline wat bij grote game produkties een groot argeument is om die werk flow vloeiend te maken. Ook gaat tweaken en rabalancen makkelijker en sneller. En daarmee is ook game specifieke dev tools development steeds belangrijker.
Nu worden vooral de critical path geoptimaliseerd, optioneel met asembler. Vaak blijf men bij C++.

Crysis is een game die tech driven is en zich op die manier wil onderschijden. En dat doet het ook. Als Cevat zegt dat de hoogste max systeem settings hardware dat nog niet uit is eisen. Dan weet je dat very high op een 8800U van ¤750,- niet trekt. Dat is helemaal oke want gamen op high is al grens verleggend. Maar kan dus nog beter.
Dat iemand pis nijdig is dat een 8800U voor 750 het niet trekt op extreem setting is zijn exteeem LUXE probleem. Op van deze zware TWIMTBP crysis game gewoon van genoten, met 'n 2900XT vloeiend zonder tweak hack, beetje met setting gespeeld. R600 was rete nieuw 2de of 3de driver en wat artifact waren weg.
8600GT trekt het net niet maar daar vooral in editor mode gegamed.

Wat je hieruit kan trekken is dat je als je dev bent, nooit maar zeker nooit voor toekomstige rauwe power als optionele setting in je game stoppen. Want daar vallen die high-end gamers over. De mainstream heeft voldoende setting opties dat het speel baar wordt maar dan ziet het er ook niet meer grens verleggend uit.

Daarnaast Crytech is 'n uitzonderlijk geval. Naast een paar andere zeer zware games.
De meeste gameDev's richten zich op de mainstream. Op max de Performance audience. Dat is dus de semi high-end of uper midrange Gkaart publiek. En je kan maxed out gamen op 22" . Wat inhoud dat buged en midrange goed te doen is met conssesies.
Maar de AAA titles zullen vaak toch verslikken in een budged kaart. Maar met low setting goed speelbaar. Farcry2 1900x1200 op low op 8600GT 4400+ 2GB.

Met de g80 G92 zatten we voor 2 jaar op hetzelfde niveau. Dit komt meer door de problemen met ATI GPU die vertragingen in teokomstige GPU te weeg bracht.
R520 -> R600. Als je in nov 2006 'n 8800GTX had dan ben je nog steed er goed bij.
CPU schaling stoppte door de moeizame en lang durige overstap en migratie naar SMP game developen.

Voor Consoles ja de Dev's moeten ook routine krijgen met een nieuw platform. Dus de derde vierde van hun game project zal er meer of het meest uit halen dan vorige.
Kan ook zijn dat Development tools ook door de jaren geoptimaliseerd worden.
Game libaries zijn vaak zwaar optimised. En dat is iets wat langdurig loopt.
En door de jaren kan dat aardig schelen.
Ook de overgang van single treaded naar multitreaden game programmeren van PC en consoles heeft vertragend gewerkt.

Daarnaast wordt crysis vaak vergeleken met ander games.
Zoals UT3 of COD4MW vs Crysis.
D'r zijn er die COD4MW beter vinden uitzien.

Ik vermoed dan weer die 8800U gamer die zo stressed zijn dat zijn investering niet die game kan draaien in max settings op zijn 30" en het dan maar lelijk is.

Daarnaast maakt het niet uit wat je mooi of lelijk vind het gaat erom wat voor werk verzet wordt. dat maakt een game complexer en zwaarder. Omdat game kwa sfeer en load zo anders kunnen zijn. Is de directe band met optimalisatie zwaar vertroebeld. 'n game die vloeien loopt, hoefd niet optimaal te zijn. Maar de development requierment voor mainsteam target en frame rate zijn behaald en de game is een stuk lichter dat dit voldoende is. Bij crysis kan de load zo zwaar zijn maar dat deadlines aanzienlijk crusiale optimalisaties niet behaald konden worden. Maar toch optimaler kan zijn dan mainstream targeted games. Alleen teld voor crysis optimalisatie zwaarder mee.
Idsoft die niet aan deadlines doet, optimaliseerd en polsihed voor jaren en de resultaat is 'n game engine die DX6 tot 9 ondersteunde dus nog op voodoo draaid tot dX9C materiaal maar dan door OpenGL API. Zwaar robuste code. En zwaar geoptimaliseerd. Mischien die 1 á 2 jaar extra Q&A en polish en optimizen. Heeft grote invloed.

Als je COD4MW zo vetter vind dan Crysis. Dan sloop je met de editor bij crysis alle bomen er uit. Maak de game statisch vooral Physics loos. bekijk alle GFX features en disable die die bijde games niet gemeen hebben. Converteer alle textures naar even size. Dan ook de CPU belasting testen en GPU.
Voor UT3 die heeft PhysX 'n map met CPU PhysX een een zooi interactieve bomen en jungle zoals in Crysis ook gemeenschappelijk features gebruiken unieke disablen.
Dus Bloom Depth of field motion blur HDR softt shadows etc. Physics gelijk maken.

Maar ja zo vergelijkt men niet. Maar dat is ook nog te grof. Nu is het zo als je Crysis niet mooi vind maar COD4MW wel dan schakel je dus een hoop overbodige voor jouw features uit en dan loopt het een heel stuk beter.
Beter zou zijn om 'n map te maken die al die game engines aan kan kwa gemeenschappelijke feature set.
Kan niet zeggen wat de resultaat zal zijn. Maar ja Crysis is met key feature interactieve jungle gemaakt. UT3 en COD4MW niet.

Ik vind een tropisch eiland mooier dan een MO zandbak.

Maar ja als DX10 voorbeeld zou ik eerder keizen voor Call of Juraz dX10 US release. Die doet meer met DX10 waardoor er groter verschil is met de DX9 versie.
Maar die game vind ik niks.
Mooi dat de wedloop weer begonnen is, ondanks de *kredietcrisis*.
Als er een kredietscrisis is (want ik heb het idee dat het vooral door de media opgeblazen wordt), dan begint de wedloop misschien dankzij de kredietscrisis ;)

Bedrijven willen de consument juist motiveren om die ene aankoop tóch te doen, en dat kan door nieuwe producten te introduceren. Riskant, maar het kan werken.

[Reactie gewijzigd door _Thanatos_ op 1 februari 2009 04:09]

Waarom denk je dat er geen kredietcrisis is, omdat de economie nog draait? Omdat er nog nieuwe producten gemaakt worden? Dat is een kwestie van overleven voor die bedrijven... Kijk eens om je heen, overal worden mensen ontslagen en vooral in sectoren zoals transport begint het op te vallen dat de volumes sterk dalen (kan ervan meespreken want ik werk in de luchtvracht). Al een geluk dat de economie niet eerst moet instorten voordat men het beschouwd als een crisis, want dan is het al veel te laat...
Euhm high settings en AA op 2 :) vindt dat fatsoenlijk genoeg :D
de 5xxx zou aangeven dat het om een geheel nieuwe serie zou gaan, wat het dus niet is. het is een refresh van de oude serie.

dit is een x1800 --> x1900 verandering. dus van hd4870 naar hd4970 gaan is geheel logische.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True