Eerste blik op prestaties drie- en vierweg Crossfire

Bij Hexus.net zijn benchmarks verschenen van een drie- en vierweg CrossfireX-opstelling. De prestatiewinst die behaald wordt door het gebruik van meer videokaarten is niet extreem, maar er werd wel gebruikgemaakt van bètadrivers.

De tests zijn uitgevoerd op een systeem dat beschikbaar werd gesteld door AMD. Hierbij werd gebruikgemaakt van een driver die nog twee kleine revisies moet ondergaan voordat deze uitgebracht wordt in het Catalyst 8.3-pakket. In totaal werden vijf spellen getest op 1920x1200 en 2560x1600 met de grafische instellingen op het maximum.

CrossfireXHet blijkt dat de Radeon HD 3870 X2 in de meeste gevallen ongeveer 1,7x zo snel is als een enkele Radeon HD 3870. Wanneer een 3870 X2 gecombineerd wordt met een normale 3870 wordt in het merendeel van de gevallen een schalingsfactor van circa 2,2x behaald. Twee Radeon HD 3870 X2-kaarten zijn ongeveer 2,6x zo snel als een normale 3870.

De resultaten hangen wel sterk af van de gebruikte benchmark. Vier cores zijn in Crysis op 1920x1200 slechts 17 procent sneller dan een enkele core, maar daar staat een prestatiewinst van 223 procent tegenover in Half-Life 2: Episode 2. Vanwege de relatief lage prestatiewinst die de derde of vierde videokaart met zich meebrengt is de reviewer nog niet enthousiast over de techniek, maar het is nog te vroeg om een definitief oordeel te vellen.

Door Hielko van der Hoorn

25-02-2008 • 21:25

83

Reacties (83)

Sorteer op:

Weergave:

@huppie
Dat gaat wel heel erg goed, maar bij de additie van een 3e en/of 4e kaart stort het effect ineens dramatisch in
@huppie

Ik denk dat het schalingsprobleem ligt bij dat de chips van ATI (maar ook die van Nvidia) niet van de grond af ontworpen zijn om met meerdere cores samen te werken.

Vroeger werd het als een 'wanhoopskreet' gezien, multiple GPU's.
Maar het is ook gewoon maar een strategie, want door meerde cores te combineren zou je de concurrent eventueel voor kunnen blijven zonder al te korte product-cyclus te hebben.
Maar waar ik het eigenlijk over wou hebben is dat er vroeger chips bestanden die wel speciefiek daarvoor ontworpen waren. Dat is toch wel een voorsprong die ik tegenwoordig nog bij de grote fabrikanten mis.

Overigens was een onderdeel van sli;
With multitexturing, this is halved to 4 MiB. SLI, however, does not double the available RAM because the boards separately calculate their part of the scene.

This split-RAM architecture caused the resolution limits on the older boards.
Bron: http://en.wikipedia.org/wiki/3dfx bijna onderaan de pagina
Dus het gebruiken van dubbel zoveel geheugen zou ook geen probleem meer moeten zijn.

Al lijkt het erop dat ik er compleet naast zit, want de Grafische kaarten van tegenwoordig hebben Streamingprocessors die allemaal samenwerken als één grote prcocesor. Maar volgens mij heb je niet alleen die streamprocessors, want dat zou betekenen dat die kaarten inprinciepe probleemloos samen moeten kunnen werken.
Ik snap niet wat nu eigenlijk het probleem is met die crosfire (maar ook SLI). Zou iemand kunnen uitleggen wat nu precies het schalings-'probleem'veroorzaakt?

Zoveel punten verdien ik nou ook alweer niet hoor! wel lief hoor maareh..

[Reactie gewijzigd door hetisik op 24 juli 2024 13:19]

Ik denk dat één van de problemen is, dat de het geheugen niet delen..
Als ze elkaars geheugen konden aanspreken hadden ze niet zoveel dubbel nodig, wat al heel wat winst zou geven.
Verder natuurlijk spellen en chips die er niet voor zijn gebouwd, en dus langer op zich laten wachten etc.
Het andere probleem is dat Tweakers een tikfout gemaakt heeft.

HL2 boekt niet 223% maar 323% prestaties winst.... CoD en UT3 komen ook tot dergelijke resultaten.
Het probleem met de slechte schaling wordt voornamelijk veroorzaakt doordat twee losse gpu's op een hoger niveau met elkaar moeten samenwerken dan streamprocessors. De verschillende streamprocessors kunnen allemaal bezig zijn met een andere pixel van het beeld, maar als twee gpu's moeten samenwerken werken ze vaak elk aan een ander frame (AFR) of elk de helft van het beeld (SFR). Dit moet door de drivers weer aan elkaar geplakt worden wat zorgt voor overhead. Daarnaast is het moeilijk om het werk zo te verdelen dat elke kaart precies even zwaar wordt belast waardoor de schaling niet optimaal is.

Een ander probleem verschil is dat de communicatie tussen de gpu's veel langzamer is als de communicatie tussen twee streamprocessors. De streamprocessors hebben een gedeelde cache, gedeeld geheugen etc en als de ene processor iets berekend kunnen de andere processors dit gegeven (bijna) direct gebruiken. Als streamprocessor x van gpu a iets berekend kan streamprocessor y van gpu b hier niet over beschikken (of iig heel langzaam via pci-e).

Daarom kan een videokaart het beste op een laag niveau superparallel werken, dan op een hoger niveau.
Ik vind dit echt best wel slecht, bij vier cores heb je al dus meer dan de rekenkracht van één core verloren. Bedoel als het op 350% ofzo zou werken (ivm één core) dan zou dat naar mijn idee nog acceptabel zijn maar dit is echt gewoon slecht! De oplossing zit hem gewoon (nog) niet in zulke multichipoplossingen, maar gaat als het goed is nog wel komen. Toekomstige GPU's gingen dacht ik veel meer gebasseerd worden op allemaal kleine cores die afhankelijk van het aantal cores budget, mid of high end is.
Hier een quote van Anandtech van een User:
"What were 70 - 100% gains from 1-to-2 GPUs are more than cut in half, becoming 30 - 45% gains when you add a third GPU"

this should be expected...

If each card provides 50fps in an ideal case...
1card at 50 fps
2card at 100fps = 100% improvement over 1 card
3card at 150fps = 50% improvement over 2 cards
4card at 200fps = 33% improvement over 3 cards

The most it can possibly provide is 100%, 50%, 33% improvements at 2,3,4 cards.

Noting that, COD4 scales incredibly well.
Nog een quote:
exactly what i was thinking ... cod almost scales ideally right up to 4 gpu's ... that 'somewhat reasonable gains' statement would fit HL2, which is scaling with every gpu added but the benefit diminishes. cod is scaling almost optimal:

gpus - max scaling - actual scaling
2gpu - 100% - 98%
3gpu - 50% - 44%
4gpu - 33% - 29%
Daar heeft hij best een punt. COD4 schaalt gewoon geweldig. Dat vind ik ook een geweldig spel dus wat dat betreft komt het best goed uit. Alleen lijken mij zulke setups aleen nodig mocht je over de luxe van een 30" scherm beschikken :P

[Reactie gewijzigd door R-O-Y op 24 juli 2024 13:19]

wat ik altijd heb met schermen. hoe groter die schermen zijn des te verder ik ga zitten van het scherm. hoe verder ik zit des te minder ik het verschil zie tussen 1280 en 1680 bv.

heb zelf een 50 inch plasma hd ready en ik heb mijn pc erop aangesloten.
als ik nu speel op 1360 x 768 dan speel ik echt gruwelijk vet.

op me tft 20 inch speel ik die zelfde games op 1680. nou ik ik speel liever op 1360 op 50 inch dan die 1680.

die resolutie is met scherm rekening houdende ook maar een relatief gegeven
Voor sommige spellen is dat ook zeker zo. Er zijn echter ook spellen waar je gewoon meer ziet als je een hogere resolutie draait. Dan is dat weer erg fijn. Het voordeel van een TV is ook dat die het beeld zelf mooier maakt. Een computerscherm laat het gewoon zien zoals aangeleverd ;)
Die percentages zijn vrij raar, aangezien men liever wilt weten hoe een 3-kaart Crossfire/SLI opstelling presteert tegenover een single kaart setup dan tegenover een 2-kaart Crossfire/SLI setup. Vind ik, ok.

Volgens de review op Hexus.net haalt CoD4 maar 255% tot 300% van de snelheid met enkele kaart, tegenover de 400% theoretische snelheid. Zo goed als je het daar voorstelt is het nu ook weer niet, vind ik.

Ook is inderdaad te zien dat de prestatieverbeteringen meer uitgesproken worden naarmate de resolutie waarin getest is groter wordt.
Tja... Jammers dat Tweakers een tikfout heeft gemaakt....

Als je even bij Hexus in het artikel kijkt, dan zie je dat de 4x Crossfire wel degelijk >300% prestatie winst levert.

In de meest GPU begrensde scenario's krijg je deze getallen:

HL2: 323%
CoD: 299%
UT3: 323%

Die 4x Crossfire schaalt best behoorlijk goed. 400% zul je nooit halen, omdat je de spellen nooit zo extreem GPU begrend kan krijgen.

Dat is dus niet een manco van de GPU's, maar van de spellen. Zouden die genoemde spellen een 6000x4000 resolutie ondersteunen, dan zou je waarschijnlijk heel dicht bij die 400% komen.

Om goede resultaten van zo'n zware GPU te krijgen, moet je een zwaarder spel hebben, wat ook stevig GPU begrensd is. Crysis lijkt zo'n kandidaat, maar uit eerdere SLI / CF tests is al gebleken dat Crysis heel slecht schaalt op (multi-) GPU's. Dat spel lijkt erg veel andere bottlenecks te hebben (CPU bijvoorbeeld). Is dus geen goed test-bed voor multi-GPU.

Iets als Oblivion lijkt me een geschiktere kandidaat, aangezien die snel GPU begrensd is bij relatief lage resoluties, en geen gekke andere bottlenecks heeft. Maar jammer genoeg hebben ze die niet getest.
Wel grappig dat je verschilende types vrolijk aan elkaar kunt hangen,is toch wel leuk voor de upgrade,. (over een jaar)...eens een 2de/3de hands kaart eronder hangen.

Toch,na jaren had je ook van rcrossfire een wat volwassener product kunnen verwachten

Ergens ben ik met het gezeur over Crysis eens,.weer een titel,die je haast dwingt om weer een bak geld aan graka's uit te geven,wil je er visueel van kunnen genieten.
(en steeds minder en minder,vind ik de kosten t.o.v grafise render kwalitiet steeds minder worden)

Dat er nu nog steeds geen graka producent is die z'n PCB met de componenten aan de bovenkant bezet,...geeft je meer ruimte onder je PCI-E slot,je warmte stijgt,....dus trekt ook niet meer zo je PCB in,en komt zo 9/10 keer ook nog's mee in airflow van de casfan,cpu fan,psu fan.

(maja....vooruitgang vernieuwing,is niet per definitie vernieuwend)
"Dat er nu nog steeds geen graka producent is die z'n PCB met de componenten aan de bovenkant bezet,...geeft je meer ruimte onder je PCI-E slot,je warmte stijgt,....dus trekt ook niet meer zo je PCB in,en komt zo 9/10 keer ook nog's mee in airflow van de casfan,cpu fan,psu fan."

Ik heb een tijdje een casemod gehad waarin ik de ATX-opstelling had omgedraait. Een belangrijke reden voor mij om dit te doen was inderdaad het omdraaien van de grafische kaart zodat de airflow een natuurlijker verloop (warmte stijgt op) zou krijgen. En inderdaad dat scheelt zo'n graad of 7 aan temperatuur (in mijn geval dan), dus dat zou inderdaad een nuttige ontwikkeling zijn.

Een belangrijke reden dat grafische kaart fabrikanten dat niet doen is denk ik omdat het niet past binnen de ATX-specificaties. Vaak zit het het eerste PCI-e (of AGP) slot helemaal bovenaan dus als je de grafische kaart omdraait (of in feite spiegelt) kunnen er problemen met bijvoorbeeld northbridge of processorkoeler ontstaan. Je kunt natuurlijk het PCB een slot lager zetten maar dat levert weer problemen op omdat daar dan weer een AGP of PCI-e slot zit. Vandaar dat dat niet wordt gedaan.

Ik zou echter groot voorstander zijn van een aangepast ATX-specificatie waarbinnen het mogelijk is de grafische kaart om te draaien. Een soort BTX zeg maar.

[Reactie gewijzigd door SVDT op 24 juli 2024 13:19]

De componenten zitten wel aan de bovenkant als je m in een Dell hangt, die doen om de een of andere reden het moederbord altijd gespiegeld in de kast. Aan de andere kant, wat moet een high-end kaart nou in een Dell (XPS uitgezonderd nartuurlijk)
Dell gebruikt BTX moederborden voor veel systemen, en die zijn ook gespiegeld tov ATX. BTX was sowieso geoptimaliseerd voor betere luchtstroom over de te koelen componenten.
Het idee van dergelijke technieken was meer 'Koop er nu een, verdubbel hem over een jaar', om dit met topmodellen te doen gaat het punt idd een beetje voorbij.

Prestatie winst is niet best, en dat deze per extra kaart verder af neemt is bijzonder vreemd, gezien de parallelle natuur van graphics.
Ach, de addressering wordt steeds lastiger, en de data moet opnieuw gecombineerd worden (neem ik aan) voordat een frame weergegeven kan worden. Maar is deze technologie zoiezo niet interessanter met het DAAMIT equivalent van Hybrid-SLI (kan even niet op de naam komen, Crossfire-X ofzo?) en physics acceleratie?
Vind het jammer dat deze techniek zo slecht schaalbaar is. Het idee "over een jaar hang ik er een (2ehands) kaart extra bij" is leuk, maar niet zeer rationeel vanwege de tegenvallende prestaties...
Misschien een idee om voor Nvidia/AMD over na te denken: een core die in SLI/CF ook goed schaalbaar is.
Waarop baseer je nou precies je mening dat het 'slecht schaalbaar is'? Heb je de review wel gelezen? Juist het idee "over een jaar hang ik er een (2ehands) kaart extra bij" kan prima, lees ook even hierboven in de reacties... de scaling van sommige spellen (zoals COD4) is vrijwel optimaal zelfs!

Hier nog even een quote uit 't artikel zelf:
A slew of empirical benchmark data indicates that well-profiled games' high-resolution performance (non-CPU-limited scenarios) can be practically doubled in a two-way CrossFire or SLI setup, given the same image-quality levels - meaning two Radeon HD 3870s can produce practically double the frame-rate as a single card's.
@hetisik
Zeker, het effect (kan) aardig instorten bij de toevoeging van een 3e of 4e kaart. Hoewel ik scaling tot 2,5X nog best aardig vind hoor voor 3 kaarten. Ik wacht in ieder geval vol spanning af tot de echte drivers gereleased worden, dan kunnen we wat meer reviews zien (tot nu toe heb ik alleen Anantech en Hexus met benchmarks gezien).
Het ging mij er nu echter meer om dat Nas T het heeft over slechte prestaties i.c.m. het voorbeeld "over een jaar hang ik er een (2ehands) kaart extra bij" en dat kan nou juist prima :)

[Reactie gewijzigd door Huppie op 24 juli 2024 13:19]

Nee, crysis kan heel goed de 2e cpu core benutten.
Maar crysis draaid vooral op de vga.

De 2e core aanspreken bij cpu,s werkt al heel aardig maar een hoog geklokte c2d
= 1 core al genoeg.


De vga wereld loopt erg achter betreft snelheid vergeleken met cpu,s.

Punt is vooral dat buiten dat de nieuwe cpu,s erg snel zijn + de 2e etc cores goed werken.
sli/xfire = geen snelheid x2 wat bij dualcore/squad core wel is.
Loopt core 1 vol dan gaat het verder op core 2.
Euhm als je enkel 1 thread hebt dan blijft core 1 gewoon vol en core 2 gewoon niks doen.
Overigens zijn GPU's qua Mhz misschien niet mee maar er zitten veel meer processors en co-processors in en shader units etc ...

Een GPU is op zich veel krachtiger dan een CPU op het gebied van graphics renderen.
CPU's zijn dan weer geoptimaliseerd voor wiskundige berekeningen.

Je vergelijkt dus appelen met peren !
De 2e core aanspreken bij cpu,s werkt al heel aardig maar een hoog geklokte c2d
= 1 core al genoeg.
De vga wereld loopt erg achter betreft snelheid vergeleken met cpu,s
8)7 8)7
Volgens mij schaalt de processor dan totaal niet! De Cryengine gooit gewoon iedere berekening naar de GPU!
Volgens mij waren ze lui bij de ontwikkelaar, dual core processors staan al 2 jaar in de picture.
Toch wel, er zijn ook mensen die een geforce 8800 ultra terwijl die maar een paar percentages sneller was dan een geforce 8800 gtx, Voor een veel hogere prijs.
er zijn altijd een paar mensen die gewoon het beste van het beste willen.
Om nog te zwijgen van mensen die elke dag in 2560x1600 gamen... dan is die "paar procent" meer horsepower in je gfx het verschil tussen nét niet en nét wel lekker lopen.
Crysis met alles op High in 2560x1600 loopt op een Ultra net wél lekker speelbaar, op een GTX werd dat toch wat te zwaar.
Trouwens, hij was 50 euro duurder dan een GTX? op dat bedrag is die vijf tientjes ook niet meer een "veel hogere prijs"? Ik meen dat ie in totaal zowat 500 pleuries was, maar onthouden heb ik het niet. De directe onderliggende versie was niet veel goedkoper.
Launchprijs lag ergens tegen de 800...
En of er een markt voor is. Lang niet iedereen doet het daadwerkelijk voor de prestaties, maar vind het gewoon geweldig om te patsen met 3 of 4 videokaartn in 1 systeem. Dat de performancewinst niet in verhouding staat tot de extra kosten maken in zo'n geval niets uit.

Dat is iet echt rationeel gedacht, maar dat doet nu eenmaal niet iedereen bij de aankoop van zoiets.
Er zijn ook zat mensen die niet rond hoeven te komen van een paar duizend euro in de maand. Mensen wiens tv duurder is dan je complete vermogen. Dergelijke mensen zal het een worst zijn of zo'n opstelling 100 euro of 5000 euro is.
Domme opmerking, als hier geen markt voor was zouden ze het niet op de markt brengen.
Hier is zeker wel een markt voor. Er zijn altijd personen die het uiterste uit een gamesysteem willen halen. Je kan het op gebied van computers altijd zo gek maken als je zelf wilt.

Er zullen vast wel voldoende gekken op de wereld zijn hiervoor, anders zou het inderdaad niet op de markt worden gebracht.
Zelfs als hier -nu- geen direkte markt voor is, is het wel een goede oefening in multi-GPU techniek.

Wat we nu doen met de X2, Phenom, Core Duo, Core2 Duo en Core2 Quad, zullen we in de toekomst waarschijnlijk ook met GPU's doen.
Is er een markt hiervoor?
Na alle eerdere berichten dat PC gaming aan het doodgaan is. > gebruik de zoekfunctie of neem een kijkje op het forum :)
edit: de grote developers laten het pc platform steeds vaker links liggen.
Daarnaast is dit de mening van mensen zoals Cliffy B, en ook Peter Molyneux vindt dat de pc kwa gamen anno 2007 nog maar weinig interessant is: enkel WOW en the sims lijken het goed te doen. En de tweakers kopieren/DLen zich de ziekte
Heb je daarvoor drie of vierweg corssfire nodig?
Denk daar maar eens over na, en ga rondstrooien met +2's , mijn allerbeste wannabe-mods;)

[Reactie gewijzigd door Verwijderd op 24 juli 2024 13:19]

Denk dat dit nogal eens heel er vies kon gaan tegenvallen.

A. FPS op console werkt voor geen meter vergelen met gamen tobo + muis.
B. Graphics van een console zijn na een jaar achterhaald.
C. Online gaming op de console heeft nogsteeds niet echt de top berijkt.

Dat gezegt hebbende, waarom zitten ze continu alles te dualcoren of zelfs quadcoren, of 4 videokaarten.
Waarom niet gewoon 1 videokaart sneller maken. Enig idee wat 4 dikke kaarten kosten in zowel de aanschaf al energie, daar word je niet vrolijk van. :')
Graphics van een console zijn na een jaar achterhaald.
Geldt voor PC's ook ;)
Met dat verschil dat games voor een console voor .. wat .. 5 jaar worden ontwikkeld zonder dat je ook maar iets aan je console moet veranderen. Probeer dat maar eens op de markt voor PC-games.
Online gaming op de console heeft nogsteeds niet echt de top berijkt.
Nu heb ik geen ervaring met Xbox Live, maar als ik de reacties hoor daarover is het toch best een groot succes.

[Reactie gewijzigd door mieJas op 24 juli 2024 13:19]

Je kan evenwel met een computer 5 jaar aan een stuk de nieuwe games spelen. Je moet gewoon de grafische settings telkens minder en minder hoog instellen omdat die uiteindelijk eenzelfde resultaat geven. Net zoals de console dus. Elke game kan even mooi, maar de nieuwere games kunnen mooier. Dit is natuurlijk niet volledig waar, maar het neigt ernaartoe. Dit geldt natuurlijk weer niet voor gevallen waarbij de DirectX versie wordt geupgrade en waarbij je met je oude grafische kaart die nieuwe versie van DirectX niet kan gebruiken, àls er spellen zijn die enkel van die nieuwere DirectX versie gebruik maken natuurlijk. Ongeveer alle nieuwe DX10 games van tegenwoordig zijn nog steeds in DX9 modus te spelen. Neem bioshock en Crysis.
Ja, maar de 'top' is niet bereikt. Ik heb zelf geen console en de multiplayer is eigenlijk de drempel. Ik wil namelijk niet twee abbonementen betalen voor het gamen en bovendien is een toetsenbord/muis (zoals eerder gezegd) een veel betere combo voor FPS.

De games van de pc worden dan wel beter elk jaar en je pc gaat dus niet 5 jaar mee, maar bij de pc heb je de mogelijkheid om (in delen) up te graden. Probeer dat maar 's met een XBox ;).
Ik ben het er mee eens dat een tobo + muis makkelijker werkt, maar ik speel toch liever CoD4 op mijn HDtv lekker op de bank, dan dat ik CoD4 op mijn PC speel.

CoD4 loopt lekkerder op mijn Xbox en dan is mijn PC met een QuadCore en een 8800GT geen langzaam dingetje.

Wanneer je trouwens online speelt met allemaal console speler, speelt dus iedereen met een controller en is het gewoon weer 'eerlijk', je speelt dan niet tegen tobo+muis spelers.
Dual core en quad core cpus zijn heel erg simpel te verklaren, het is gewoon niet haalbaar om de huidige cpus boven de 4 GHz grens te tillen. Het kan maar het kost dan te veel en slurpt nog meer energie.
En meer cores op een die levert wel snelheids winst op, al maakt het het programmeren niet makkelijker.
Nou, net voordat Intel Core 2 ging had men een CPU ontwikkeld die 7GHz kon halen doordat men er een extreem lange pipeline in had ontworpen van 50 steps ofzo. Het ontwerp was net naar de fabriek gestuurd om een eerste prototype te laten maken toen de beslissing kwam om meerdere cores te gaan doen. Ik kan het niet meer vinden maar het stond in een artikel hier op tweakers waarin het ontwikkeltraject van Intel uit de doeken werd gedaan. Onmogelijk is het dus blijkbaar niet, men heeft gewoon voor een ander ontwerp gekozen waarmee het niet mogelijk lijkt.
Whieee Moderator Apple Talk @Teigetje!26 februari 2008 10:05
Dat het kan wil niet zeggen dat het slim is. Een pipeline van 50 stages kan misschien zorgen voor een CPU die op 7GHz te klokken is, maar als je branch prediction niet voldoende compenseert presteert het ding ruk. Immers: bij een foute prediction of een unpredicted branch, moet eerst de pipeline leeg en ben je vervolgens eerst een paar klokcycli aan het wachten tot de pipeline weer vol zit.

Ergo: liever multicore op lagere klokfrequenties met een kortere pipeline, en een hoge IPC :)
Altijd hetzelfde gelul. Pc gaming is nog altijd een miljarden industrie. Consoles hebben een flink deel van de pc gaming inustrie afgesnoept. Maar daar is dan ook alles mee gezegd. Meeste FPS titels komen nogsteeds uit op pc. Spellen als counterstrike/source hebben miljoenen actieve spelers. Strategie spellen worden enkel soms geport naar de consoles. MMMORPG's worden vrijwel alleen op de pc gespeeld en daar valt niet alleen WoW onder maar ook een kleine 100 andere titels met elk miljoenen actieve spelers.

Als je kijkt naar wat voor spellen er op de consoles uitkomen zie je al gauw dat het overgrote deel uit hetzelfde genre bestaat net als op de pc. Op mijn consoles prijken de genres. Sport, racen, rpg, adventures en een twee tal FPS titels.

Als er iets dood is is het inovatie. Ieder jaar dezelfde bagger in een nieuw jasje volgens de nieuwste trend binnen de gaming industrie. (Op dit moment coop gaming).

Ik zit er al in sinds het begin van het computer gaming tijdperk en ik speel nog altijd dezelfde genres op mijn consoles en dezelfde genres op mijn pc.
Consoles hebben een flink deel van de pc gaming inustrie afgesnoept.
Traditioneel gezien was gaming altijd erg lafjes op de PC. Op zo'n beetje de Sierra adventures na was de PC de eerste +- 15 jaar van haar bestaan een vrij obscuur platform voor echte serieuze gamers. De consoles, alsmede 'home computers' als de C64 of de Amiga en natuurlijk helemaal de arcade was waar de echt goede games zich bevonden.

Pas toen de eerste 3D kaarten kwamen (in 1997 was het nog een bijzonderheid!) is gaming op de PC echt opgekomen. Ik zou dus eerder zeggen dat de PC een flink deel van de console gaming industrie had afgesnoept en dat de consoles het nu weer terug pakken ;)
Gamen op console vs computer is zo verschillend van elkaar dat beide naast elkaar kunnen leven. Momenteel denk ik dat de consoles ook veel 'terugpakken' omdat het relatief moeilijker is om een gecrackte game op een console te spelen (modchip vs simpelweg crack overkopieren). Gamedevelopers spelen daar op in door games op de console uit te brengen.
Veel van de games komen nu ook al multiplatoform uit. In principe vind ik het dan niet erg dat de developers ze porten voor de pc, maar het is wel spijtig dat ze de kantjes er vanaf lopen door het menu gewoon in 'console'-stijl te laten staan. Voor zoiets tel je als pc-gamer geen 60 euro neer: dan wil je toch echt een menu dat een beetje 'normaal' eruit ziet voor een muis/toetsenbord combo.
Een snel internet abbo is duurder dan een console chip. Verder word een console chip nagenoeg wereldwijd gemaakt en ingebouwd, iedere plaats heeft wel een modder. Voor die prijs hoef je het niet te laten en de games zijn voor een habbekrats te krijgen.

Weerstand, net zoals tegen de muziek en film industrie met name juist omdat er miljarden aan verdiend worden en het produkt veelal alleen maar "slechter"" word.

Het blijft koffiedik kijken maar de huidige ontwikkeling van de afgelopen jaren van gamen neemt geen leuke vormen aan. Veelal is er "gezeur" omtrend hardware en drivers, zowel op de console's als op de pc en de doorgewinterde gamer word dat een beetje zat. Laat ze eens leren om games degelijk "gold" te laten gaan en laat zowel Sony als MS eens leren probleemloze console's op de markt te zetten zonder fouten.

Nintendo, het is niet mijn type platform vanwege de type games, maar het weet wel iedere keer de loef af te steken naar zijn concurrenten, dus het kan wel. Nintendo doet wat dat gaat aangaat veel zorgvuldiger onderzoek en test meer, waardoor ze een goed produkt in de markt zetten. Bij overige blijft het altijd maar weer de vraag, terwijl dat niet prijs afhankelijk is.

En multi gpu, ze slaan er in door want een beetje setup op deze manier is voor weinigen weggelegd, daar waar vele gamen met een enkele graka. Wat willen ze nu, ons laten geloven dat dit de oplossing is of moet er eens worden gekeken naar een geheel nieuwe chip structuur die meer geeft en minder verbuikt ? Alleen een GPU verkleinen blijkt dus niet te werken en physics hardware heeft men teveel links laten liggen. En we hebben niets aan een graka zonder geluid, dus kom eens met een totaal oplossing, graka = gpu/ppu/geluidschip en maak de houdbaarheid van 1 graka weer eens wat ;anger, nu is die beduidend verkort, want het blijft een hobby maar die word weer steeds duurder en dus wint op het moment de console weer terrein vanwege de prijs :)
...
En we hebben niets aan een graka zonder geluid, dus kom eens met een totaal oplossing, graka = gpu/ppu/geluidschip en maak de houdbaarheid van 1 graka weer eens wat ;anger, nu is die beduidend verkort, want het blijft een hobby maar die word weer steeds duurder en dus wint op het moment de console weer terrein vanwege de prijs...
Over het algemeen ben ik het erg eens met je reactie. Alleen het laatste, hierboven gequote stukje heb ik een aanmerking op.

Een alles-in-één oplossing zit lang niet iedereen op te wachten. Als ik bijvoorbeeld een ATI graka wil plaatsen wil ik ook graag zelf bepalen welke soundkaart ik gebruik, je krijgt net als bij onboard geluidsoplossingen sneller het idee dat fabrikanten er wat mindere kwaliteitschips op gebruiken.

De PPU chip is misschien wel makkelijker implementeerbaar maar maakt meteen de videokaart duurder. Dan zou de fabrikant naast graka's mét, ook zónder PPU moeten uitbrengen wat de overzichtelijkheid ook weer niet ten goede komt.

En het belangrijkste, de houdbaarheid. Inderdaad is de houdbaarheid wat minder dan bij een console. Dat de consoles nu veel verkocht worden komt puur door het feit dat ze nog allemaal vrij nieuw zijn op de markt. En wanneer koopt men de meeste consolegames? Precies, vrij direct na aanschaf, een console met één of twee games vindt men in de regel niet leuk en wil afwisseling hebben. Het argument dat over 5 jaar de PS3 nog steeds dezelfde plaatjes vormt komt natuurlijk doordat het lastig upgraden is van videokaart. Bij (game)computers is het wat makkelijker een graka te scoren en je PC te upgraden, daarom gaat het simpelweg sneller. Als je nu een high-end graka koopt is die over twee jaar niet ineens slecht, er zijn dan gewoon nieuwe games uitgekomen die gebouwd worden op de huidige- én te nog binnenkort te verschijnen graka's.
Correct, maar de chip heeft wat meer gevolgen voor de garantie e.d. En niet iedereen is daarom even 'happerig'.
Met Nintendo is het niet altijd zo goed gegaan als nu. Het N64-Gamecube tijdperk was zelfs een dieptepunt als je kijkt naar marktaandeel. In het SNES-tijdperk hadden ze eigenlijk alleen SEGA als concurrent, en dat was makkelijker dan de grote honden van nu en vlak hiervoor.

De Wii heeft, samen met de DS, een ontzettend grote impact gehad. De beste slag ooit geleverd door Nintendo, daar zullen zelfs de anti-fanboys het mee eens zijn.

Grappig genoeg is er maar 1 game die je, als gemiddeld PC-gamer, wel zal waarderen: Metroid Prime 3. Een adventure-style shooter, die puur en alleen om je skills draait.

Maar goed, dat is niet genoeg om een hele console voor aan te schaffen.
Er is vast wel een markt voor misschien niet voor gamers maar misschien wel voor doeleinden als deze...: klik
als het met 1 al tot 25x sneller kan... you do the math :Y) (wel rekening houden met de schaling dan hé ;) )

[Reactie gewijzigd door Spekkie88 op 24 juli 2024 13:19]

ga jij maar RTSen spelen op een console, ik wens je veel plesier :P

on topic:
ik vraag me af of je niet beter allebij de x2 vidcards een beeld vanuit een net iets ander camerapunt kunt laten berekenen en dan een leuk blauw-rood 3d brilletje opzetten. Dan heb je namelijk minder last van schaling problemen èn uiteraard een 3d view.
Maar je verliest wel half de helderheid van je scherm.
Ik heb helderheid over op mijn scherm, jij niet? Als ik mijn scherm op max felheid zet, word ik verblind.
AnandTech had hier ook een goede (p)review van, waar dezelfde resultaten naar voren kwamen.
Dit is alleen al handig voor rendering, niet alleen gaming.
Maar dat is neit de grootste markt, al zijn de prestaties nu wat minder, er zit zeker wel brood in deze techniek. Maar niet met games die er eigenlijk niet echt op gemaakt zijn , het zal misschien wel net een beetje zijn als met quad core cpu's, leu k als je het hebt, maar als je programma nuke, after effects of 3ds max etc niet mee om kan gaan, dan is de winst ook niet wat je zou verwachten.

En over consoles, de pc games zullen waarscheinlijk nooit echt verdwijnen,
de pc zorgt voor de innovatie / verbetering van de graphics, als we telkens x aantal jaar op consoles moeten wachten die videokaart y eindelij ker in heeft, schiet niet op.

De pc game markt zal gewoon in leven gehouden worden, door het omgooien van de marketing technieken.

bedrijven als intel, nvidia, ati ,logitech ,game studios and so on, hebben hier alleen maar baat bij.

[Reactie gewijzigd door Daikiri op 24 juli 2024 13:19]

Op dit item kan niet meer gereageerd worden.