Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

AMD heeft op het afgelopen Quakecon 2009-event een demonstratie gegeven van de nieuwe Evergreen-gpu. Daarmee lichtte de processormaker voor het eerst een tipje van de sluier over de prestaties van deze nieuwe DirectX 11-chip op.

Neil Robison, developer relations-topman van AMD, demonstreerde aan de hand van enkele DirectX 11-demo's de kwaliteiten van de Evergreen-gpu aan PC Perspective. De kast met de Evergreen-kaart bleef helaas dicht en de specificaties van de nieuwe chip en van de rest van het systeem zijn onbekend, maar Robison wist wel duidelijk te maken dat de nieuwe gpu een paar mooie verrassingen in petto heeft.

AMD Evergreen-gpu demonstratie tesselationMet een 3d-render van een futuristische tank op een zandheuvel werd gedemonstreerd hoe met de hdao-techniek realistischer schaduwen konden worden weergegeven. Deze rekenintensieve berekening leverde bij het demonstratiesysteem een framerate van ongeveer 20fps op, maar dat kon met de nieuwe compute shaders worden opgekrikt naar ongeveer 44fps. Een parallax occlusion mapping-demo van een soort kasseien leverde een framerate van ongeveer 70fps op, maar de Evergreen-gpu is in staat tot hardware tesselation. Met deze techniek, waarbij polygonen iteratief worden opgesplitst om vloeiender details te krijgen, kon de framerate bijna worden verviervoudigd tot 270fps.

AMD zou de eerste fabrikant met werkende DirectX 11-hardware zijn. De chipgigant was ook een voortrekker met zijn DirectX 10.1-hardware, maar beleefde daar weinig plezier van: softwareproducenten beperken zich veelal nog tot DirectX 9. Volgens Robison is DirectX 10 vanwege de verplichte combinatie met Windows Vista niet aangeslagen, maar hij zei dat hij verwachtte dat DirectX 11 positiever wordt onthaald. Dat vermoeden baseert hij vooral op de positieve berichten over Windows 7.

Video (moogaloop.swf?clip_id=6122205&server=vimeo.com&show_title=1&show_byline=1&show_portrait=0&color=&fullscreen=1)
Moderatie-faq Wijzig weergave

Reacties (70)

Volgens Robison is DirectX 10 vanwege de verplichte combinatie met Windows Vista niet aangeslagen, maar hij zei dat hij verwachtte dat DirectX 11 positiever wordt onthaald. Dat vermoeden baseert hij vooral op de positieve berichten over Windows 7.
Het grote probleem was dat DirectX10 niet voor Windows XP geschikt was. Vooral de overstap op het usermode driver model voor de videokaart (WDDM), maakte het lastig voor Microsoft om DX10 ook voor WinXP uit te brengen. En ook al had het eventueel mogelijk geweest om het toch voor elkaar te krijgen (er zijn namelijk versies door andere uitgebracht die dicht in de buurt komen), was het Microsoft de investering niet waard. Die wil natuurlijk liever nieuwe produkten verkopen, en was op dat moment al lang bezig met Windows 7.

Maar nu DirectX11 voor Win7 uitkomt, en deze dezelfde WDDM gebruikt, is het nu wel mogelijk om het vorige OS van een DX update te voorzien. Er zijn natuurlijk zat gebruikers die vasthouden aan WinXP, maar de meeste gebruikers met een $1k computer gebouwd na 2006 draaien momenteel VistaSP2. Een hoop gamers met wat OS ervaring, draaien momenteel al Windows 7 RC (of RTM), omdat de prestaties hoger liggen door een betere implementatie van WDDM (en andere optimalisaties).

De prestaties van de nVidia G300 series zijn op papier schrikbarend snel, en nVidia is druk bezig om de lancering van daadwerkelijke produkten zo gauw mogelijk te versnellen. Het ziet er namelijk op dit moment naar uit dat ze pas op zijn vroegst klaar zijn in April 2010, en dat zou AMD/ATi een zeer grote voorsprong geven met de Evergreen lancering. De rollen worden dan eigenlijk omgedraaid, omdat nVidia een soortgelijke voorsprong had met de GeForce 8800 series ten tijde van de Vista launch. Echter nVidia heeft de financiële middelen om haast te maken. De normale gang van zaken bij nVidia is nog steeds om eerst met een topmodel op de markt te komen, en daarna de ondermarkt te voorzien. Als de prestaties van Evergreen in verhouding met de G300 echter zwaar meevallen, dan kan nVidia eventueel beslissen om alvast te werken aan een aangepaste G300 versie met minder shaders/etc, die eventueel trager draait en DirectX11 geschikt is.

Daarom is AMD/ATi zo scheutig met daadwerkelijke details en onafhankelijke prestaties. Er wordt dus geen methode getoont die ook door andere gebruikt kan worden, maar wat eigen gemaakte demos. Op het moment dat de NDA wordt opgeheven en talloze websites met benchmark resultaten zullen komen, is het geen paperlaunch, maar zijn produkten vaak meteen te koop in de winkels. AMD/ATi is namelijk al een tijdje bezig met volle produktie, al zullen ze aardig last hebben gehad van de produktieproblemen waar TSMC mee te maken had. Die problemen zijn echter al gedeeltelijk opgelost (yields zijn al 60%+ dacht ik), en er is nog een redelijke tijd voordat de NDA wordt opgeheven.

Het zal niet de eerste keer zijn dat AMD/ATi een launch vervroegt, maar dat zal sterk afhangen op DirectX9 en DirectX10(.1) ook een goede verbetering tonen. De eerste kaart zal eventueel als HD5850 door het leven gaan, omdat de eerste RV7xx GPU als HD4850 werd verkocht, maar dat blijft gissen. Krijgt AMD/ATi het dan echter voor elkaar om met de eerste DirectX11 kaart de top modellen van nVidia te verslaan in DX9/DX10 benchmarks, dan zal er natuurlijk een stormloop ontstaan deze kerst.

Helemaal omdat als het goed is ze nog steeds de intentie hebben om de nieuwe kaart voor $199/€199 in de verkoop te plaatsen. Die prijs zal vast naar de $/€249 oplopen of eventueel nog meer, en er zullen ook talloze OC/custom varianten komen die meer gaan kosten, maar we zullen een zware prijsverlaging gaan zien van vele nVidia topmodellen dan.

Op zijn beurt kan nVidia dan weer terugslaan met de eerste G300 series videokaart, maar dat hangt dus allemaal af van de tijd die ze nodig hebben om hem af te maken. Het is gewoon een zeer trage bokswedstrijd en AMD/ATi heeft de kans voor een goede rechtse hoek :+
Bij de HD4k series was het vooral wachten op genoeg GDDR5 chips om de HD4870 te kunnen lanceren. Dat zal bij de nieuwe reeks niet echt het geval zijn. Overigens is er een kans dat de HD prefix wordt gedropt voor een nieuwe, aangezien we ook weer naar een nieuwe DX-versie gaan.
Tesselation is een soort van 3D-Anti-Aliasing als ik het goed begrijp ?
Tesselation is het opdelen van triangles in kleinere triangles, waardoor een gedefinieerdere surface ontstaat. (lowpoly -> highpoly). Je kan dus nu in realtime op basis van lowpoly modellen highpoly content tonen.

Deze techniek kon je al zien in de AMD DX10 froblins demo ('Detailed Characters with GPU Tessellation').

[Reactie gewijzigd door d3vlin op 18 augustus 2009 17:00]

Goede uitleg d3vlin, maar je had daar ook aan kunnen toevoegen dat wat Ward Vr zegt inderdaad waar is. Tesselation is een soort van 3D-Anti-Aliasing.

Het wegwerken van kartelrandjes door toename van polygonen, in plaats van het wegwerken van kartelrandjes door kleurberekening aan de rand van die polygonen. Een combinatie daarvan is natuurlijk het ultieme doel. Dan kunnen niet alleen de randen-van-de-randen, maar ook de randen zelf (waar toepasselijk) worden weggewerkt. Een prachtige ontwikkeling.

Dit was met Truform al door ATi geïntroduceerd alleen deze techniek was nog niet efficiënt genoeg (FPS drop). ATi heeft heel veel technieken al vroeg geïntroduceerd. Het zou me niet verbazen als ATi al voorliep op DX10, waardoor ze DX11 kaarten makkelijker kunnen gaan introduceren. Hulde.

[Reactie gewijzigd door Yokozuna op 18 augustus 2009 22:25]

Hardware tesselation heeft helemaal niets mee te maken met het wegwerken van de kartelrandjes. Een voorbeeld: Stel je hebt een scene, met daarin een compleet perfecte bal (laten we even aannemen oneindig veel polygonen). Op het moment dat de GPU deze bal aan het 'berekenen' is heb je nog geen notie van pixels, en heb je dus ook geen kartelrandjes. Echter, als je deze bal op het scherm gaat tonen zal ie door de rasterizer heengaan, en zullen er weer scherpe randjes ontstaan, welke minder scherp gemaakt kunnen worden door het toepassen van anti-aliasing.

Wat hardware tesselation doet is dat je die perfecte bal kunt beschrijven met veel minder polygonen en vervolgens de GPU vertelt dat ie er een mooier object van moet maken. Je had echter ook prima het originele object naar de GPU kunnen sturen, maar dat kost je veel meer bandbreedte etc. Het grote voordeel is dus performancewinst, en niet een gaver beeld.

Dat gezegd hebbende kan ik niet wachten tot de eerste DX11 kaarten uit zijn. Dit lijkt echt een heel interessante optimalisatieslag te gaan worden. Tuurlijk zul je in de praktijk niet 4x zoveel FPS halen, maar een significante toename lijkt me wel waarschijnlijk. Dit maakt upgraden van een DX9 of 10 kaart veel nuttiger.
Er gebeurt wel iets meer dan alleen een triangle opdelen in kleinere triangles, want van alleen opdelen krijg je niet meer detail, wat er in feite gebeurt is dat er een soort bumpmapping wordt toegepast, maar dan door triangles toe te voegen die die curves volgen.
Inderdaad, de exacte werking :) :

- De face-normals (normaal op het oppervlakte van een polygoon) die normaal word gebruikt voor schaduw berekening, worden gecombineerd om zo de vertex-normals (normaal op hoek punten van de polygonen) uit te rekenen.

- Nu is op het begin en eind punt van elke polygoon rand een normaal beschikbaar, samen met de posities van de eind punten van de rand vormt dit genoeg informatie om de formule van een hermit spline te bepalen (wiskundige curve)

- Met behulp van de hermit spline formules word nu in het midden van elke polygoon rand een nieuw vertex gecreëerd.

- Daarna word er een nieuwe lijst van faces (polygonen) geproduceerd die ook de nieuwe vertexen gebruikt.

Deze methode word wel 4-split spline interpolatie genoemd, en heb ik zelf ook weleens gemaakt : http://www.mathworks.com/matlabcentral/fileexchange/16215

[Reactie gewijzigd door djexplo op 18 augustus 2009 23:48]

http://www.pcgameshardwar...n-the-GPU/Reviews/?page=2

ATI heeft al heel lang tesselation in zijn GPU's zitten. Morrowind bijvoorbeeld is een patch voor zodat je tesselation krijgt.

@Rizon:
Wat je zegt is waar, behalve het stukje dat het Half waar is. Dat de tesselation in DX11 anders is en dus ook in de hardware, doet verder niets af aan het feit dat ATI al langer tesselation heeft.

@De Edit:
Blijkbaar heb je geen idee hoe oud tesselation, of eigenlijk het begin er van is: Dat viel vroeger dus onder TRUFORM en TRUFORM II(DX8!!!)
http://en.wikipedia.org/wiki/TruForm

Dat word ook weer gebruik in de ATI chip in de Xbox360, maar ook die tesselator is anders dan die in DX11(Logisch gezien deze lijkt op de R600).

Daarbij zeg ik helemaal niet dat DX10 of 10.1 Tesselation krijgt, want dat hebben ze al. Alleen is de tessaltor niet DX11 compatible.

[Reactie gewijzigd door Reinman op 18 augustus 2009 17:50]

Half waar aangezien de huidige vorm van 10.1 maar een afkooksel is van die in 11 en je hebt een Dx11 kaart nodig voor de Dx11 hardware tessallation.

@Reinman Hardware tessallation zit er gewoon al in sinds Dx10 aangezien het de nieuwe shader pipelines gebruikt. Het is echter pas nu in Dx11 dat de volledig geplande functies erin zitten. Als je gaat zeggen dat 10 of 10.1 hardware ook tessallation heeft, krijg je anders mensen die klagen dat hun huidige hardware het niet volledig ondersteunt en niet begrijpen waarom.

[Reactie gewijzigd door Rizon op 18 augustus 2009 17:42]

Maar AMD DX10(.1) hardware heeft nu eenmaal een tesselation-unit op de core zitten. Deze werkt alleen niet via de shaders, omdat er geen definitieve standaard was gemaakt binnen de DX10(.1) featureset. Dat AMD het voor elkaar heeft gekregen om het uiteindelijk wel bij DX11 volledig en compleet ondersteunt te krijgen (helaas op een andere manier dan al toegepast) is een mooie overwinning geweest voor AMD, die al sinds de Radeon 8500 bezig is geweest dit door te voeren (toen nog als trueform).
Het gaat erom dat je niet moet verkondigen dat mensen hun kaarten nu al iets zouden hebben wat in Dx11 gaat komen. Leidt enkel tot verwarring of paniek dat AMD/NVIDIA ons zou afzetten om nieuwe hardware te verkopen wat dus niet het geval is.
Je kunt best vermelden dat AMD kaarten al een tijde dat hebben wat nu in DX11 gaat komen, zolang je maar duidelijk maakt dat het niet compliant is met DX11. Zeker op een techforum als deze mag je toch aannemen dat mensen dat enigsinds moeten begrijpen.
Die link heeft niets met Tesselation in graphics te maken.

Tesselation is het 'afstompen' van ongedetailleerde oppervlakken, hetgeen voor bepaalde doeleinden wenselijk is (zoals in de demo getoond is het een superieure vervanger voor bump-mapping)

[Reactie gewijzigd door kiang op 19 augustus 2009 10:12]

'Afstompen' is niet het juiste woord. Behalve bijvoorbeeld kromme oppervlakken gladder maken, kan je met tesselation namelijk ook meer (scherpe) details in 3D mee weergeven, zoals echte 3D-bumps.
'Detailleren' is dan misschien een beter woord :)
Is dit nu de HD5xxx of zie ik dit verkeerd? Want ik lees dingen over dat de HD5xxx in september al komt. Dan zal dat dit toch niet zijn?

/hieronder: kan natuurlijk wel inderdaad, maar als ze hem nu pas demonstreren, dat ik wel kort van te voren toch? Of is dat juist om te voorkomen dat de hele verkoop inzakt zo net voor de release.

[Reactie gewijzigd door Roytoch op 18 augustus 2009 17:04]

Ze tonen de dingen inderdaad juist slechts zo kort van tevoren. Op die manier weet de concurentie heel weinig over hoe het met AMD voor staat op gebied van prestaties etc.

Ga er maar van uit dat de kaarten al lang en breed vollop in productie zijn en, als je het ATI-draadje op got zou volgen, dan kon je weten dat de reviewers hun kaarten al hebben ontvangen om uitgebreid te kunnen testen, opdat ze de reviews online kunnen zetten zodra de NDA afloopt.

De prijzen van de huidige series zijn al dusdanig laag dat de verkopen ervan rustig door blijven gaan. Mensen die de nieuwste kaart willen hebben, weten over het algemeen toch al wel dat het niet lang meer zou moeten duren.

Overigens zouden de eerste DX11 games niet lang op zich laten wachten na de launch van deze serie kaarten en Windows 7.

[Reactie gewijzigd door dahakon op 18 augustus 2009 17:13]

Grit 2 bvb, werd nog gezegd in het filmpje
Dirt 2 werd er gezegd :)
Hoe dan ook, ik ben zeer benieuwd naar de eerste benchmarks. Altijd als er een nieuwe grafische kaart verschijnt kan ik niet wachten op de reviews.
Ga er maar van uit dat Nvidia al veel beter en veel vroeger weet dan ons wat de volgende generatie van AMD zal zijn. Ze zijn er alleen niets mee, want een GPU wordt ontwikkeld op 3 jaar ofzo. En bijna alle specificaties liggen al van het begin vast.
Ik denk dat je je daar nog lelijk in vergist.
Ten eerste is bedrijfsspionage iets wat een bedrijf heel erg lelijk op kan breken (als deze opdracht geeft tot spionage, of personeel van een ander bedrijf aanmoedigt om gegevens en informatie te verkopen).

Daarnaast, als tweede, was afgelopen jaar heel erg duidelijk dat nVidia compleet werd verrast door de uiteindelijke kracht van de HD4k serie. Zodanig zelfs, dat de prijzen van hun beste kaarten spontaan met een paar honders euro naar beneden werden gehaald, direct na het verschijnen van die HD48xx kaarten.

Ze zullen vast wel een redelijk besef hebben wat hen te wachten staat, gebasseerd op wat hen overkwam met die HD4k serie, maar echt weten hoe sterk die kaarten zijn, zal ook voor nVidia nog altijd nattevinger giswerk zijn.
Hoezo niet? Dit is wat er uit gaat komen in ~September ja. De geruchten gaan wel dat het demonstratie kaart een midrange was en geen high end!
Hoe lang duurt het voordat jullie het volgende begrijpen:
Deze rekenintensieve berekening leverde bij het demonstratiesysteem een framerate van ongeveer 20fps op, maar dat kon met de nieuwe compute shaders worden opgekrikt naar ongeveer 44fps.
Ze tonen dat puur dankzij nieuwe technologie de snelheid opgekrikt kan worden terwijl je dezelfde videokaart hebt. Waarschijnlijk was het bij de 20 FPS uitgeschakeld en bij de 44 FPS ingeschakeld.

Hetzelfde geld voor de andere vergelijkingen.
Red, dat jij je superieure intelligentie wenst te etaleren zegt nog niet dat je een dermate offtopic moet biten.
That's all we have for now - no other details on the chip, the speeds and feeds, or any product information were revealed and no amount of persuasion would change that. We WILL have a more detailed look at these technologies for our hardware workshop tomorrow and we'll likely post that video on our site here after the event.
Klinkt eerlijk gezegd een beetje alsof de chip nieuw is, niet alsof ik met mijn 4870 straks dikke prestatiewinst krijg ofzo.
Wat heeft dat te maken met dat hij in September komt of dat de geruchten gaan dat het een mid end kaart is geweest bij de demo's? Op beide, vragen natuurlijk: Helemaal niets.
Ze tonen ook alleen de dx11 mogelijkheden hé, als er in september al kaarten met dx11 uitkomen, wilt het niet zeggen dat er al games ervoor zullen zijn.
Natuurlijk zullen de kaarten bij oudere games ook wel beter presteren...
10 september gaan we onze ogen niet geloven. (Volgens de marketing van AMD)
als je ziet wat voor snelheidsboost die nieuwe technieken geven, denk ik niet dat de DX11 games het goed gaan doen op mijn HD4870
DX11 games zullen normaalgesproken een fallback path hebben naar DX10.1/Dx10, waardoor je misschien (iets) minder mooie beelden hebt, maar wel een fatsoenlijke framerate.
het detail op die stenen is gewoon waanzinnig goed. Vergeleken met gewone normal maps of SSBumps zoals in de source engine dan.
Gelukkig zit er in de source engine al code aanwezig voor parralax mapping :)
zie: http://developer.valvesoftware.com/wiki/Parallax_mapping

het filmpje doet trouwens geloven dat parallax mapping alleen voor directx11 is. Kan aan mij liggen maarja
displacement mapping + tesselation kan enkel in dx11 en dx10, in dx11 zal hel wel een stuk efficiënter kunnen met met hull shaders

De 2de techniek die getoond wordt in het filmpje is parallax occlusion mapping, die techniek is beter dan gewoon parallax mapping en bump mapping maar zeer traag (& mogelijk vanaf dx9 met sm3).
Heel erg indrukwekkend, zeker die tessalation techniek is erg nice, dat zou betekenen dat o.a. oudere games wat opgefrist kunnen worden. Ik vind alleen het fps verhaal een beetje vreemd, hij laat statische screens zien... ik zou graag de fps willen zien in een actieve situatie, die framerates vind ik vééél interessanter. Deze presentatie lijken zo totaal niet real-time, dit had ook gewoon een heel knap presentatiefilmpje kunnen zijn.

[Reactie gewijzigd door MicGlou op 18 augustus 2009 17:27]

Die demo's worden live gerendered en hij vermeld welke fps ze halen, hoor je de fan niet van zijn gat geven op de achtergrond? :)
Ja, en jij gelooft alles wat je met je ogen ziet? Dat zijn truukjes die zelfs een amateur nog netjes zou kunnen regelen. Niet dat ik zeg dat dit nep is... maar buiten die tessalatie techniek vind ik deze presentatie weinig indrukwekkend, ze hadden echt op zijn minst een bewegende 3d rendering mogen laten zien als je het mij vraagt, dat had voor mij de WOW factor vele malen groter gemaakt.
En dat is dus het verschil tussen 3Dmark en een techdemo.
Moet AMD zich daarmee bezighouden?

Hetgeen ze wilden tonen is de FPS-winst: eerst zonder de nieuwe shaders, dan met. Het verschil is dan erg veelzeggend, of je nu een mooi filmpje zag of niet.
Die fps laten ze expres een beetje in het ongewis, opdat nVidia niet al te veel idee kan krijgen van de werkelijke prestaties van AMD's nieuwe kaarten. De echte prestaties zullen we, zoals Rizon hierboven al meldde, waarschijnlijk op/rond 10 september wel zien.
ze hebben ook niet gezegd wat voor performance deze demo kaart heeft. In een demo wil je natuurlijk niet met je heetste warmste kaart aankomen en dan tussen het interview telkens het gezoem horen van een fan op volle toeren.

deze kaart gaat eraan komen, en amd wil natuurlijk die nieuwe kaart straks goed verkopen. maar ze willen natuurlijk nog liever dat je nu een van de huidige kaarten koopt. en dan volgend jaar weer aan een upgrade toe bent. als ze nu van de daken alle details gaan schreeuwen over de nieuwe kaarten verkopen ze misschien helemaal geen oude kaarten meer.

simpel gezegd: nog even geduld hebben. als het hetzelfde gaat als toen de hd48x0 uitkwam zullen er vanaf dag 1 bergen reviews te vinden zijn (of zelfs al voodat de kaart uitkomt)
Volgens Robison is DirectX 10 vanwege de verplichte combinatie met Windows Vista niet aangeslagen, maar hij zei dat hij verwachtte dat DirectX 11 positiever wordt onthaald.
Gaat DX11 dan ook op Windows XP werken? Dat zou erg goed nieuws zijn...
DX11 gaat 'alleen' op Windows Vista en Windows 7 draaien. Daarnaast is DX11 backwards compatible met DX10(.1). Voor Windows XP eindigt het echt met DX9. Dat betekent natuurlijk nog niet direct dat games geen DX9 support meer zullen hebben, maar wil je van de grafische hoogstandjes van DX11 gebruik kunnen maken, dan zul je je Windows XP echt moeten vervangen.
Ik mag hopen dat game-ontwikkelaars nu echt is stoppen met ontwikkelen voor antieke besturingssystemen. Ze schhiten zichzelf in de voet ermee, een ander die het wel al doet en alleen naar directx 10 of 11 kijkt bouwt voorsprong op in ervaring met de nieuwe api en wordt niet gehinderd door beperkingen in windowsXP. Verder zit grootste deel van de gamers toch allang op vista.
Erhm, je kunt heel rustig de paden voor DX9 naast die van DX10/11 en de paden van OpenGL in een spel stoppen hoor. Dat is gewoon een keuze die een ontwikkelaar zelf moet maken.
Blizzard geeft zijn spellen al jaren lang een DX en een OpenGL ondersteuning, opdat het ook op Apples kan draaien. Of het grootste deel van gamers al lang op Vista zit, ligt denk ik geheel aan je gamers-achterban. Voor het ene type spel zal de penetratie van Vista aanzienlijk hoger liggen dan voor een ander type spel.

Boven alles loop je erg gemakkelijk voorbij aan het feit dat het niet leveren van DX9 support in een spel, je automatisch ook een deel van de markt mist.
Op Steam heb je een gigantische groep spelers waar je langs de ene kant hardwarefreaks hebt maar andere kant ook mensen die nog css spelen op hun pc van 5jaar geleden.
Daar zie je dat al meer dan 43% Vista of Win7 gebruikt en XP daalt elke maand enorm snel.

Ik zie developers dus wel eens snel stoppen met full dx9 support.
En ik zie steeds meer mensen stoppen met games aanschaffen waarvoor het nieuwste van het nieuwste nog niet goed genoeg is.

Dat het percentage XP gebruikers daalt is logisch, enkel en alleen omdat mensen die hun oude PC vervangen daarbij gedwongen overstappen van XP naar Vista. Veel PC's uit de begintijd van XP zijn afgeschreven, inmiddels defect of dusdanig traag geworden door OS-vervuiling (en dat laatste is voor veel mensen een reden om een andere te kopen, simpelweg omdat opnieuw installeren, te moeilijk of teveel werk is, en dan vergeet ik het upgraden maar, zelfs enkel extra geheugen is voor de meesten een stap te ver.)
quote]Boven alles loop je erg gemakkelijk voorbij aan het feit dat het niet leveren van DX9 support in een spel, je automatisch ook een deel van de markt mist.[/quote]

Dat is ook wat ik hieronder bedoel. Daarnaast wordt Apple populairder ook bij gamers.
Sorry, maar hier ben ik het niet mee eens. Wil je goede prestaties, dan laat je Vista en zelfs Win7 liggen. Je komt dan uit op XP (aangezien 2000 inmiddels teveel mist).
Je bent niet afhankelijk van DX11, 10 of 9 om goede prestaties neer te zetten. Behalve dat het met OpenGL ook kan, zijn er ook nog andere mogelijkheden, als je maar kan detecteren welke kaart er in zit en vooral welke mogelijkheden die wel en niet ondersteund. DX of OpenGL maken dat wel makkelijker.

Wel is het zo dat je voor goede prestaties ook niet onder een recente machine uitkomt, en die wordt nu meestal geleverd (cq. draait nu meestal op) Vista en binnenkort Win7. (Ook veel gamers kopen kant-en-klaar met OS). Wil je een mooi en realistisch beeld creëren, dan moet je zoveel mogelijk gebruik maken van grafische kunstjes en de mogelijkheden van de recente hardware, en dus moet het werken op Win7&Vista en kan er weer meer met DX10/11. Daarbij moet je weer niet te veel willen, want dan werkt het alleen op zeer recente high-end hardware en dus op te weinig hardware en wordt er te weinig verkocht. Je moet er dus voor zorgen dat het ook op iets oudere midrange hardware werkt.
nee, dx11 is gebaseerd op het zelfde driver model als dat van vista/dx10. een backpoort naar XP is gewoon niet mogelijk zonder XP zelf geheel te verbouwen.

hij doelt voornamelijk op het feit dat het populairder zal zijn omdat windows7 beter word onthaalt als vista.

edit : dx11 word overigens wel beschikbaar op vista

[Reactie gewijzigd door Countess op 18 augustus 2009 21:51]

nee, dx11 is gebaseerd op het zelfde driver model als dat van vista/dx10. een backpoort naar XP is gewoon niet mogelijk zonder XP zelf geheel te verbouwen.
Dat is wel mogelijk hoor, als je maar wilt. Dat het niet lonend is, is punt twee, en zelfs als het dat wel was, heeft MS liever dat je nu Vista en straks Win7 koopt.

[Reactie gewijzigd door BeosBeing op 19 augustus 2009 10:19]

dx11 is ook onderdeel van Windows Vista updates.
dus daarvoor hoef je windows 7 niet te kopen.

[Reactie gewijzigd door stewie op 18 augustus 2009 18:46]

nog een reden waarom dx11 waarschijnlijk populairder zal zijn als dx10.
Microsoft leert wel eens van hun fouten.
Dx10 in XP zou een fout geweest zijn. Waarom dubbel werk aanhouden voor een oud OS, niemand doet dat.
Waarom DX10 onthouden aan 90% van je klanten, waarvan 85% al heeft aan te geven de overstap naar Vista niet te zullen maken (En dan heb ik het alleen over de consumenten want voor zakelijke toepassing zal DX niet zo'n impact hebben). Daar is maar één antwoord op, wel met twee delen: Arrogantie en het nooit genoeg hebben van opbrengst zodat ook wie daar geen zin in heeft toch maar tot aanschaf en dus betalen overgaat.

Natuurlijk is Microsoft een commercieel bedrijf, en streven ze naar (maximale) winst voor de aandeelhouders. Ook is het zo dat DX10 uitbrengen voor XP niets oplevert, althans niet direct. Wel is het een stukje serviceverlening dat mensen tevredener zal maken over hun Microsoft Product (het oude XP) en dus bij een volgende aankoop eerder de voorkeur zullen geven aan het volgende Microsoft Product. Dat heeft te maken met de doelstelling van het bedrijf: Wat is het maatschappelijk nut van de onderneming, en één belangerijk onderdeel daarvan is tevreden klanten. Ontevreden klanten zullen eerder naar de concurrent gaan of volledig afzien van aanschaf en dan verliest het bedrijf zijn bestaansrecht. Op korte termijn moet men soms genoegen nemen met een iets lagere winst om op de lange termijn continuïteit en winst te behouden. Maar mischien heeft Microsoft dat niet nodig, of vinden ze dat het niet nodig is (en dat is dan de arrogantie die ik bedoel) omdat de mensen hun OS toch wel kopen.

Uiteraard wil Microsoft zo snel mogelijk af van XP en de ondersteuning daarvoor.
Die kost geld en levert niets meer op. Echter XP was verhoudingsgewijs te goed voor een Microsoft OS (en 2000 trouwens ook) en iedere keer als men daaraan herinnerd wordt, wordt men er ook aan herinnerd dat men waarschijnlijk nooit meer zo'n goed product zal kunnen maken, al was het maar gewoonweg door de te groot geworden complexiteit.

In tegenstelling tot de free & open-source software, waar sommige command-line programma's al 20 tot 30 jaar niet meer gewijzigd zijn, simpelweg omdat ze uitontwikkeld zijn en niet of vrijwel niet meer verbeterd kunnen worden, moet een commercieel softwarebedrijf steeds nieuwe 'verbeterde' programma maken om deze te kunnen verkopen. De free & open-source softwareontwikkelaars verleggen gewoon hun aandacht naar een ander project waar nog wel verbeteringen te maken zijn, en eer te behalen is. De commerciele bedrijfven 'moeten' echter argumenten kunnen aandragen voor de verkoop van hun nieuwste versie en kunnen dus niet afkomen met zoiets als "Nu in onze Windows 11 de 30-jaar oude ip-stack van unix". Mensen zullen dan zeggen, oh, waarom kopen we dan niet die 30-jaar oude unix, of een ander product waar die goede betrouwbare en blijkbaar zo belangerijke ip-stack ook in zit.

Dat laatste is het grote dilemma van de commerciele software-industrie, en ook, en met name de game-industrie.

[Reactie gewijzigd door BeosBeing op 19 augustus 2009 09:46]

en vandaar ook dat bsd stabieler is dan welke versie van windows dan ook.
kijk ook ff naar server uptime ;)
in de top 10 staat misschien 1 halve windows machine.
Ziet er goed uit.

Punt wat ik persoonlijk het belangrijk vind (naast fatsoenlijke prestaties), is idle verbruik. Natuurlijk moet het ook niet zo zijn dat de kaart op volle toeren de rook uit je energiemeter laat laat komen, maar m'n pc staat toch het grootste deel van de tijd een beetje te idlen, of iig niet echt grafisch uitdagende dingen te doen.
Gezien de lage prijzen die er tegenwoordig zijn zou ik graag zien dat ze een tweede zwakke gpu inbouwen en daarop kunnen overschakelen. Of bijvoorbeeld zorgen dat je een bepaald deel van de huidige GPU volledig kan uitschakelen ipv enkel terugklokken.
Zit niemand nog vast aan onboard gpu in de chipset of cpu en kan AMD/NVIDIA het ook volledig zelf regelen qua hardware en software. Zal ook niet veel extra kosten meebrengen als je kijkt wat een simpele IGP vandaag nog kost.
Dan moet je enkel de minder technische klanten nog tonen dat door bij aankoop enkele euro's extra te betalen, ze een veelvoud kunnen besparen op de stroomfactuur.
Ziet er erg veelbelovend uit, vooral het parallax verhaal. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True