Door Marc Rademaker

Redacteur

AMD laat ATI HD 5870 met DirectX 11 los

23-09-2009 • 06:00

225

Multipage-opmaak

Inleiding

AMD heeft de reputatie om met bepaalde innovaties voorop te lopen. Zo wordt gpu-concurrent Nvidia keer op keer verslagen met het overstappen op een nieuw productieprocedé en waren het ook de Radeons die als eerste gddr5-geheugen aan boord kregen.

Met de introductie van DirectX 10 sloeg AMD echter de plank mis. AMD-dochter ATI kwam pas een half jaar na Nvidia met een DirectX 10-kaart die het bovendien ook nog eens aflegde tegen de concurrentie. Drie jaar later lijken de rollen echter weer omgedraaid. Woensdag liggen de eerste DirectX 11-kaarten in de winkel en ze komen uit de stal van ATI. Nvidia's DirectX 11-gpu's zijn in geen velden of wegen te bekennen.

De afgelopen weken heerste er een ware hype omtrent de HD 5870 van AMD. Op ons eigen forum werd de meeste informatie al gelekt, inclusief benchmarkscores die van AMD zelf afkomstig zouden zijn. In dit artikel gaat Tweakers.net niet alleen in op de technische achtergrond van het nieuwe DirectX 11-platform, maar zal de HD 5870 in een reeks benchmarks ook met de snelste videokaarten van de vorige generatie worden vergeleken.

Hoewel AMD met zijn HD 5870 voortborduurt op de architectuur van de RV770-gpu - die voor het overgrote deel weer op de R600-gpu was gebaseerd - is er een hoop veranderd aan de nieuwe kaart -niet in de laatste plaats omdat de gpu gebakken is op het 40nm-procedé.

Behalve DirectX 11 brengt de 5000-serie van ATI ook andere vernieuwingen met zich mee. Zo kunnen er met behulp van ATI Eyefinity zes schermen worden aangestuurd en is de anti-aliasing techniek 'super-sampling', waarmee de beeldkwaliteit een boost kan krijgen, weer terug van weggeweest. Ook het anisotropische filtering-algoritme werd onder handen genomen, wat de beeldkwaliteit eveneens ten goede moet komen. Zo mogelijk nog belangrijker is de vooruitgang die AMD heeft geboekt bij het terugdringen van het energieverbruik in idle-modus.

HD 5870

AMD's sweetspot-strategie

AMD zal in een periode van zes maanden vier verschillende gpu-chips op de markt brengen, waarvan Cypress - de codenaam van de chip waarop de HD 5870 en de HD 5850 zijn gebaseerd - nu de eerste is. AMD heeft met Cypress bewust gekozen voor een relatief kleine chip, die geschikt is voor mainstream en high-end videokaarten. Twee Cypress gpu's moeten de absolute high-end bedienen, terwijl afgeleide van Cypress gebruikt worden voor de budget- en goedkopere mainstreammodellen. Deze AMD-aanpak wordt ook wel de sweetspot-strategie genoemd.

Cypress wordt op een door TSMC ontwikkeld 40nm-procedé gefabriceerd en neemt met zijn 2,15 miljard transistors 334mm2 in beslag. Hoewel dit ruim twee keer zoveel transistors zijn als er op de RV770 zijn te vinden, is de die size met slechts 30 procent toegenomen.

Cypress

De transitie van 55nm naar 40nm heeft voor AMD nogal wat voeten in de aarde gehad. De fabrikant begon medio 2006 al met de ontwikkeling van de RV740, die als vingeroefening zou dienen voor zowel AMD als TSMC om het 40nm-procedé onder de knie te krijgen door aan het procedé te blijven sleutelen. Uiteindelijk zijn 90 procent van de verbeteringen in RV740 gebruikt, terwijl de resterende 10 procent pas bij Cypress werd toegepast.

Het is nog niet bekend hoe goed of slecht de yields zijn van Cypress. In augustus bleek dat zo'n 75 procent van de gebakken RV740-chips in goede orde van de band rolden. Omdat de die van Cypress een stuk groter is, kan worden aangenomen dat de yields lager liggen. Het is niet ondenkbaar dat AMD als gevolg hiervan gebruikmaakt van harvesting, waarbij de 'afgekeurde' chips alsnog worden ingezet, bijvoorbeeld bij de HD 5850 die geen 1600 maar 1440 streamcores heeft.

AMD's sweetspot strategie

Naast Cypress zal AMD dit jaar ook nog Hemlock en Juniper op de markt brengen, begin volgend jaar gevolgd door Redwood en Cedar. Hemlock zal waarschijnlijk de HD 5870X2 worden waarbij twee Cypress-gpu's op één videokaart zijn gezet. Deze videokaart wordt niet eerder dan half oktober verwacht.

Na Hemlock volgt Juniper. Over deze chip heeft AMD eigenlijk nog niets losgelaten. Naar verluidt betreft dit de HD 5700-serie die is voorzien van een 128bit-geheugenbus in combinatie met gddr5- of gddr3-geheugen. Het aantal streamprocessors - of threadprocessors zoals AMD ze nu noemt - zou rond de 800 liggen. Deze serie zal naar verwachting de huidige 4800-serie vervangen.

In het eerste kwartaal van 2010 is AMD van plan om Redwood en Cedar uit te brengen. Bij deze gpu's ligt de nadruk vooral op een zo laag mogelijk energieverbruik en minder op gaming.

Cypress: opgebouwd in blokjes

Cypress beschikt over 1600 streamcores. Voordat informatie de streamcores bereikt, heeft het technisch al een flinke route in de gpu afgelegd. Het begint allemaal bij de command processor, waar de driver calls binnen komen. Van daaruit vindt de data zijn weg naar de graphics engine, waarin zich de rasterizer, de geometry assembler en de vertex assembler bevinden.

Graphics Engine

De rasterizer levert de threads voor de pixel shaders, terwijl de geometry en de vertex assembler respectievelijk in threads voorzien voor de geometry en de vertex shaders. Ten opzichte van RV770 zijn er nu twee rasterizers aanwezig in plaats van slechts een. Het is niet duidelijk of de rasterizers tile-based hun werk doen of dat ze elk een eigen vaste deel van het te renderen beeld hebben (onder/boven, links/rechts). Niet helemaal nieuw maar toch zeer belangrijk is de tesselator, die nu verplicht onderdeel is van DirectX 11-hardware.

Alle threads vinden hun weg naar de ultra threaded dispatch processor, die tot wel enkele duizenden threads tegelijk in de gaten houdt en die al dan niet doorstuurt naar één van de 320 thread processors. De dispatch processors wordt op deze manier overgesimplicificeerd, want in feite is het een zeer complex stukje hardware, waar de effectieve werking van de processing engine mee kan vallen of staan.

Processing Engine Lay out

De gehele processing engine ziet er vervolgens op deze manier uit. In totaal zijn er twintig single instructions multiple data-engines, die elk weer opgebouwd zijn uit 16 thread-processors, die weer uit 5 streamcores bestaan. Uiteindelijk kan AMD dan claimen dat de gpu 1600 streamcores aan boord heeft.

De threaded processor van dichtbij

De 320 threaded processors bestaan elk uit vijf alu's, die met een aantal verschillende instructies overweg kunnen. Eén van deze alu's is een special function unit. Deze sfu kan alles wat de andere alu's ook kunnen, maar kan aanvullend ook overweg met transcendentale instructies. AMD noemt de alu's stream cores.

Threaded Processor

Hoewel er tot hier nog niets wezenlijks is veranderd ten opzichte van RV770, zijn de streamcores wel op enkele punten verbeterd ten opzichte van die uit de RV770-gpu. Deze aanpassing moet de totale hoeveelheid instructies per clockcycle verhogen, al is AMD niet erg scheutig met details.

Opvallendste verbetering is waarschijnlijk de mogelijkheid om in dezelfde klokcycle een multiplicatie uit te voeren, die afhankelijk is van een add die ook nog uitgerekend moet worden. Hierdoor kunnen de stream cores efficiënter gebruikt worden. AMD voegde tevens de fused mad-instructie toe. Deze instructie is over het algemeen sneller dan eerst het uitvoeren van een multiply gevolgd door een add. Doordat er maar één keer een afronding plaatsvindt, is de fused mad ook nauwkeuriger. Er werden tevens DirectX 11 bit-level operations toegevoegd evenals de sad-instructie, sum of absolute differences, die vooral bruikbaar kan zijn bij video-encoding.

Door streamcores kunnen hooguit 1600 berekeningen tegelijk afhandelen. In de praktijk is dit echter nagenoeg niet haalbaar. De vijf streamcores kunnen namelijk alleen tegelijk actief zijn als ze exact dezelfde bewerking uitvoeren. In het ergste geval is er per clockcycle dus slechts één stream core actief, terwijl de andere niets doen. In de meest optimale situatie zijn alle vijf de stream cores actief waarbij een theoretische piek van 2,72 teraflops kan worden gehaald. Het aantal double precision flops ligt op 544 gigaflops.

Texture units en texture filtering

RV770 Texture unit Behalve de verdubbeling van het aantal streamcores, heeft AMD ook het aantal texture units verdubbeld, van tien naar twintig. AMD lijkt deze texture units nauwelijks aangepast te hebben, aangezien ze op 68 miljard bilinear gefilterde texels per seconde uitkomen. Dat betekent dat er per texture unit vier texture filtering units zijn, wat goed is voor een totaal van tachtig texture filtering units.

AMD hanteert een ratio van vier thread processors voor elke texture filtering unit. De nadruk ligt met deze 4:1-ratio meer op de compute-kant dan op de texture-kant. Nvidia hanteert met zijn GT200-architectuur een iets conservatievere 3:1-ratio, maar neigt evengoed meer naar de compute- dan de texture-kant. Dit is overigens niet altijd zo geweest: enkele jaren geleden lag de ratio bij Nvidia nog op 2:1.

Texture units

Naast elke texture unit, bevindt zich een L1 texture-cache, die via de data request bus communiceert met een L2-cache. De L2-cache bevindt zich direct naast de memory controller om de communicatielijntjes kort te houden. De L1-cache heeft een texture fetch-bandbreedte van 1TB/s, ten opzichte van 480GB/s bij de RV770-gpu. Het dataverkeer tussen de L1- en L2-cache heeft een bandbreedte van 435GB/s ten opzichte van 384GB/s bij RV770. De grootte van de L1-cache is niet bekend, maar de L2-cache zou een verdubbeling hebben gehad van 64kB per blok naar 128kB per blok.

De texture units zijn ook uitgerust met een nieuwe anisotropic filtering algorithme. De kijkhoek doet er niet meer toe, waardoor er op nagenoeg perfecte wijze aniosotropic filtering toegepast kan worden. Het nieuwe algorithme zou niet meer rekenkracht vergen dan het voorgaande algorithme.

HD 4890 > GTX 295 > HD 5870

In de animatie valt te zien dat de voorgaande generatie in de vorm van de HD 4890 het moest doen met een vrij ruw algorithme, terwijl de GTX295 al een betere vorm van anisotropic filtering had. De HD 5870 doet er nog een schepje bovenop, door perfecte rondingen weer te geven.

De render back-ends

De rode draad bij Cypress zal ondertussen wel duidelijk zijn: AMD heeft waar mogelijk geprobeerd om alle rekeneenheden te verdubbelen. De render back-ends, ook wel bekend als rop's of raster processors, zijn ook verdubbeld. Bij elk van de vier geheugencontrollers bevinden zich nu twee rbe's om de rasterization-bewerkingen, zoals anti-aliasing, maar ook het uitlezen van de z-buffer en de stencil-buffer, af te handelen.

RBE-Schema

Ten opzichte van RV770 betekent de verdubbeling dat het aantal pixels dat verwerkt kan worden zowel met als zonder multi-sampling anti-aliasing is verdubbeld. Door de verdubbeling van het aantal rbe's heeft AMD tevens besloten om super-sampling anti-aliasing terug te laten keren, dat sinds de 8500-serie niet meer gebruikt kon worden. Deze ssaa-modus vergt veel rekenkracht en kan waarschijnlijk alleen op oudere games toegepast worden. Doordat de anti-aliasing op zowel de shaders als de textures en de polygoon-randen wordt toegepast, zal de beeldkwaliteit drastisch toenemen.

Render Back-Ends

AMD's supersampling-techniek werkt niet op basis van oversampling, zoals de oude supersampling-techniek. Bij de oude techniek wordt het beeld op een veel hogere resolutie gerendered, om de resolutie vervolgens weer te verlagen naar de weer te geven resolutie. AMD maakt daarentegen gebruik van sample rate-shading: elke pixel wordt meerdere keren gerendered, maar het midden van de pixel wordt telkens verplaatst waardoor er een sample pattern ontstaat. De resultaten van elke sample worden verzameld, om uiteindelijk één kleur te vormen. De ssaa-modus kan gecombineerd worden met AMD's custom filter anti-aliasing. Alle berekeningen vinden plaats op de rbe's: alleen in combinatie met cfaa wordt er gebruikgemaakt van shaders.

De tesselator

De tesselator bevindt zich in de graphics engine en kan het aantal polygonen van een model drastisch verhogen, waardoor het eindresultaat een stuk gedetailleerder wordt. De tesselator bevond zich ook al in R600, RV670 en RV770, maar was nooit onderdeel van de Direct X-specificatie. Met DirectX 11 is daar verandering in gekomen. De tesselator kan aangesproken worden door middel van de Domain en Hull-shader, beide nieuwkomers in de DirectX 11-specificatie.

Zonder Tesselation  Met Tesselation
Wireframe Zonder Tesselation
Wireframe Met Tesselation

Het eerste dak is een simpel model, met weinig polygonen, waar enkele textures overheen gelegd zijn. Het tweede model heeft het eerste model als uitgangspunt, maar door middel van tesselation is het aantal polygonen dramatisch verhoogd. Het simpelweg toevoegen van triangles in de reeds bestaande driehoeken heeft weinig nut. De tesselator kan de bestaande driehoeken echter later onderverdelen in veel meer kleinere driehoeken op basis van wiskundige formules, zoals Béziercurves. Door middel van displacement mapping wordt er nog meer detail toegevoegd in de vorm van relief.

Behalve een flinke vooruitgang in de hoeveelheid detail is tesselation ook nog eens zeer efficiënt. De geheugen footprint kan met een low-polygon-model een fractie van een megabyte zijn, terwijl een model met evenzoveel polygonen als een getesseleerd model meerdere tientallen megabytes in beslag zou kunnen nemen. Om het onnodig renderen van een grote hoeveelheid driehoeken tegen te gaan kan de mate van tesselation ook aangepast worden naargelang het te renderen object verder weg of juist dichterbij is. Een object dat zich dichtbij bevindt is goed zichtbaar en het extra detail is dan ook goed te zien. In de verte is dat echter minder van belang, omdat het toch niet te onderscheiden is.

Direct Compute

Behalve de tesselator is ook Direct Compute 5.0 een vereiste voor DirectX 11-videokaarten. Direct Compute is een open standaard waarmee de gpu ingezet kan worden voor general purpose-applicaties. De mogelijkheden variëren van artifical intelligence en physics tot meer grafisch gerelateerde opties zoals image post processing en order independant transparancy. Vooral order independent transparancy biedt visuele effecten die eerder niet mogelijk waren met videokaarten.

In de DirectX-pijplijn bevindt de compute shader zich helemaal aan het eind. Het beeld wordt eerst helemaal berekend en samengesteld, waarna een compute shader wordt toepast. Uiteindelijk wordt dan het beeld weergegeven op het beeldscherm.

Compute Shader

Tijdens een persevenement in Londen werd order independant transparancy vrij eenvoudig omschreven. Zo zouden de ontwikkelaars van Blizzard maar al te graag een doorzichtige draak renderen in een stromende rivier die ook nog eens vuur uit spuwt. Daar zijn tal van transparante textures voor nodig en overlappende transparante textures konden niet realistisch gerendered worden. De techniek alpha-blending doet een poging, maar komt niet in de buurt van de resultaten die er neergezet kunnen worden met order independent transparency. Het verschil tussen beide onderstaande plaatjes spreekt voor zich. Behalve deze DX11-demo, waren er geen andere DirectX 11-functies die getest konden worden.

AMD Alpha Blending AMD Order Independent Transparancy

ATI Eyefinity: de doodsteek voor Matrox

Videokaarten konden over het algemeen maximaal twee beeldschermen tegelijk aansturen, op enkele videokaarten na die meer dan één gpu aan boord hebben. ATI Eyefinity is de benaming voor AMD's techniek om maar liefst zes beeldschermen tegelijk aan te sturen.

Het reference design van HD 5870 heeft twee dual-link dvi-poorten, een hdmi- en een displayport-uitgang. Daarmee is het mogelijk om maximaal drie beeldschermen aan te sturen. Het theoretische maximum zou op 8192x8192 pixels liggen, maar met drie 30"-beeldschermen op rij, met een resolutie van 2560x1600, is 7680x1600 pixels de hoogst haalbare resolutie, althans totdat AMD de HD 5870 Six, met zes mini-display-poorten, introduceert. Overigens is het ook mogelijk om twee HD 5870's te gebruiken, maar slechts één van de videokaarten voorziet de beeldschermen dan ook daadwerkelijk van pixels. CrossfireX werkt dus nog niet, iets waar het Catalyst-team hard aan zou werken.

Te gebruiken uitgangen

De displayport-uitgangen zijn de sleutel tot de nieuwe Eyefinity-techniek omdat één clock-generator meerdere displayport-uitgangen kan aansturen. Tevens zou het aantal pinnen dat in beslag wordt genomen gelijk zijn aan een single link dvi-poort, terwijl de bandbreedte veel hoger ligt. Een vga-uitgang daarentegen vereist een dac, die energie verbruikt en ruimte inneemt op de die. Een dvi-uitgang heeft op zijn beurt een toegewijde clock-generator nodig en zou volgens AMD te veel input/output-pinnen van de gpu in beslag nemen.

Met behulp van Eyefinity zijn er tal van mogelijkheden voor beeldscherm-opstellingen. Behalve voor toepassingen op kantoor is het gebruik van meerdere beeldschermen ook bij geschikt voor games. Matrox richt zich op een niche-markt met zijn Dualhead2go en de Triplehead2go, maar ziet die nu feitelijk overbodig geworden. AMD testte ATI Eyefinity reeds in tal van games, die zonder problemen resoluties als 5760 bij 2160 pixels herkenden. De rekenkracht die daarvoor nodig is moet echter niet onderschat worden. Zelfs drie 1680x1050-schermen hebben al ongeveer 30 procent meer pixels dan een enkel 2560x1600-beeldscherm.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

Testsysteem

Het testsysteem is opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken, en als er bèta-drivers gebruikt zijn, wordt dat vermeld. Bij deze review zijn de ATI-kaarten met versie 9.9 van de Catalyst-drivers aangestuurd en de Nvidia-kaarten met versie 190.62 van de Nvidia-drivers. Voor de benchmarks zijn de volgende games van de plank gehaald: Call of Duty: World at War, Crysis: Warhead, Far Cry 2, Stalker: Clear Sky, Race Driver: GRID, Tom Clancy's H.A.W.X en Batman: Arkham Asylum. Ook van deze games zijn, voor zover beschikbaar, alle patches geïnstalleerd. Indien mogelijk is van de interne benchmarks van de games gebruikgemaakt.

Testsysteem
Moederbord EVGA X58 Classified
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 500GB Samsung Spinpoint F1 HD502IJ
Videokaarten

Asus HD 5870
Asus GTX 295
Asus GTX 285
Asus HD 4870X2
Asus HD 4890

Koeler Thermalright Ultra Extreme 120
Voeding Corsair 850HX

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit platform zal bij het uitvoeren van de benchmarks niet snel een bottleneck vormen. Ook biedt het platform de mogelijkheid om videokaarten in sli- en in CrossFire-modus te draaien.

Elke game is getest op de resoluties 1680x1050, 1920x1200 en 2560x1600. De instellingen verschillen per game en zullen daarom telkens vermeld worden. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige ingame-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast, behalve bij HAWX; bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multi-sampling, wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten, en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancy-modus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

Call of Duty: World at War

Voor de benchmark met Call of Duty: World at War zijn er - bij gebrek aan een ingebouwde benchmark - handmatige runs uitgevoerd in het eerste level.

Call of Duty: World at War - 1680x1050 - Maximum - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
*******
+
**
73,2 / 90,3
HD 5870
******
+
**
60,3 / 84,4
HD 4870X2
*****
+
**
58,0 / 81,9
GTX 285
*****
+
***
54,3 / 80,4
HD 4890
***
+
**
36,7 / 59,4

World at War is al sinds tijden een titel waarin Nvidia-kaarten domineren. Zelfs de HD 5870 kan Nvidia's machtspositie niet doorbreken, maar laat wel zien dat het een kaart is om serieus te nemen door HD 4870X2 te verslaan.

Call of Duty: World at War - 1920x1200 - Maximum - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
******
+
***
62,8 / 88,8
HD 5870
*****
+
***
51,6 / 77,7
HD 4870X2
*****
+
***
49,0 / 75,7
GTX 285
****
+
**
47,8 / 69,8
HD 4890
***
+
**
32,0 / 54,2

Op 1920x1200 laat de HD 5870 nogmaals zijn spierballen zien. De resultaten beloven wat voor andere spellen, aangezien de HD 5870 nu al goed mee kan komen met de GTX 295. Ten opzichte van de vorige generatie, de HD 4890, is de HD 5870 bijna 1,5 keer zo snel.

Call of Duty: World at War - 2560x1600 - Maximum - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
*****
+
****
43,3 / 77,7
HD 4870X2
****
+
***
33,2 / 57,5
GTX 285
****
+
**
34,0 / 51,6
HD 5870
***
+
**
31,2 / 46,8
HD 4890
**
+
**
19,7 / 33,8

Bij de allerhoogste resolutie moet de HD 5870 het - hoewel marginaal - afleggen tegen zowel de HD 4870X2 als de GTX285. Hier is niet echt een verklaring voor: de HD 5870 werd op alle fronten verbeterd, waardoor een tekort aan bandbreedte of texture throughput uitgesloten kunnen worden.

Race Driver: GRID

Race Driver: GRID is al sinds tijden een van de mooiere race-spellen op de computer. Binnenkort zal GRID afgelost worden door ofwel DIRT 2 of Need for Speed: Shift, maar voor deze review werden nog gewoon enkele rondes gereden op het Long Beach-circuit in GRID.

Race Driver: Grid - 1680x1050 - Maximum - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
******
+
**
106,5 / 139
HD 5870
*******
+
**
110,4 / 133,6
GTX 295
******
+
**
96,8 / 124,8
GTX 285
****
+
*
74,6 / 96,4
HD 4890
****
+
*
73,8 / 94,6

Op de laagste resolutie zijn de HD 5870 en de HD 4870X2 aan elkaar gewaagd. De minima liggen iets hoger, terwijl de gemiddelde fps iets lager ligt. De GTX285 wordt met gemak verslagen. Ten opzichte van de HD 4890 zien we een verbetering van ongeveer 50 procent.

Race Driver: Grid - 1920x1200 - Maximum - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
******
+
**
94,4 / 124,8
GTX 295
******
+
**
94,2 / 122,3
HD 5870
*******
+
**
98,6 / 121,8
HD 4890
*****
+
*
68,5 / 84,3
GTX 285
****
+
*
67,0 / 84,1

Op 1920x1200 weet de GTX295 iets van zijn achterstand goed te maken, maar de drie videokaarten zijn nagenoeg even snel. Niet slecht voor een videokaart, die zoals later zal blijken, veel minder verbruikt.

Race Driver: Grid - 2560x1600 - Maximum - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
*******
+
**
73,4 / 93,1
GTX 295
******
+
**
72,0 / 87,3
HD 5870
******
+
**
67,8 / 84,7
HD 4890
****
+
*
46,0 / 57,6
GTX 285
****
+
*
46,3 / 57,6

Op 2560 bij 1600 beeldpunten worden de jongens van de mannen gescheiden. De HD 5870 loopt nu iets achter op de GTX 295 en de HD 4870X2. Hieruit blijkt dat het hebben van twee gpu's soms toch voordelen heeft, waardoor we vermoeden dat de HD 5870 toch baat zou hebben bij meer geheugenbandbreedte.

Crysis Warhead

Een van de meest voorkomende vragen is met welke videokaart Crysis in volle glorie gespeeld kan worden. De HD 5870 waagt in deze review een poging tijdens een aantal testruns met Crysis Warhead.

Crysis Warhead - 1680x1050 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
*******
+
**
34,3 / 41,7
HD 4870X2
******
+
**
28,2 / 35,3
HD 5870
*****
+
**
26,7 / 33,9
GTX 285
*****
+
*
22,6 / 27,4
HD 4890
****
+
*
19,0 / 23,8

Op de laagst geteste resolutie gaat het meteen mis. De HD 5870 moet het tegen zowel de HD 4870X2 als de GTX 295 afleggen. De GTX295 steekt wel met kop en schouders boven de rest uit. Ten opzichte van de HD 4890 boekt de HD 5870 minder winst dan verwacht.

Crysis Warhead - 1920x1200 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
*******
+
**
27,2 / 34,3
HD 4870X2
*****
+
***
21,7 / 32,7
HD 5870
*****
+
**
22,3 / 28,6
GTX 285
*****
+
*
18,6 / 23,2
HD 4890
****
+
*
16,3 / 20,6

Op 1920x1200 kan de HD 5870 iets beter meekomen met de HD 4870X2, maar de GTX 295 blijft heer en meester. De HD 5870 stelt enigszin teleur in Crysis Warhead.

Crysis Warhead - 2560x1600 - Enthusiast - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
******
+
**
17,7 / 23,4
HD 4870X2
******
+
**
16,3 / 21,6
HD 5870
*****
+
**
14,5 / 18,8
GTX 285
****
+
*
12,0 / 14,5
HD 4890
****
+
*
10,3 / 13,0

2560 bij 1600 beeldpunten is te veel van het goede voor alle geteste videokaarten. Ook hier weet de HD 5870 geen records te breken.

Far Cry 2

Far Cry 2 is een van de weinige games waarin nog steeds gebruikgemaakt wordt van dezelfde benchmark. De ingebouwde benchmarker voorziet in een aantal runs van de Small Ranch-benchmark, waarbij alle settings op zijn hoogst staan terwijl 4xAA en 16xAF zijn ingeschakeld.

Far Cry 2 - 1680x1050 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
******
+
**
65,6 / 85,4
HD 5870
*****
+
**
55,9 / 75,3
HD 4870X2
*****
+
**
53,6 / 73,7
GTX 285
****
+
*
45,6 / 58,6
HD 4890
***
+
*
35,3 / 46,1

De HD 5870 verslaat de HD 4870X2. Hoewel dit niet helemaal onverwacht is, beide kaarten beschikken immers effectief over evenveel streamcores, is het een toch prestatie op zich. Het verschil ten opzichte van de HD 4890 bedraagt ruim 50 procent.

Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
******
+
**
58,4 / 77,8
HD 4870X2
*****
+
**
47,3 / 67,5
HD 5870
*****
+
**
47,3 / 66,2
GTX 285
****
+
*
41,0 / 52,7
HD 4890
****
+
*
32,9 / 43,6

De HD 4870X2 en de HD 5870 zijn wederom zeer aan elkaar gewaagd. Het verschil ten opzichte van de GTX 285 stelt wel enigszin teleur.

Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
*****
+
***
31,2 / 48,8
HD 5870
*****
+
***
31,8 / 46,0
GTX 295
****
+
***
24,4 / 40,4
GTX 285
*****
+
**
29,7 / 39,7
HD 4890
***
+
**
19,9 / 29,0

De GTX 295 stort helemaal in op 2560x1600. Zelfs de GTX 285 heeft hogere minima. De HD 5870 doet niet onder voor de HD 4870X2, maar de GTX 285 komt wel erg dicht in de buurt. Het lijkt erop dat er een limiterende factor is, maar die is niet zomaar aan te wijzen. Geheugenbandbreedte is, zoals eerder geopperd, een mogelijkheid.

Tom Clancy's: HAWX

In Tom Clancy's: HAWX wordt ook gebruikgemaakt van de ingebouwde benchmark. Anisotropic filterering is uitgeschakeld omdat dit een onevenredig grote performance-hit oplevert bij ATI-kaarten. AF wordt van nature ook niet door HAWX ondersteund, waardoor het forceren van AF met behulp van de drivers geen garantie biedt.

Hawx - 1680x1050 - Maximum - 4xAA/0xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
******
+
**
84,3 / 113,5
GTX 295
******
+
**
87,2 / 112,1
HD 5870
*****
+
*
74,6 / 85,7
HD 4890
****
+
*
56,4 / 72,4
GTX 285
****
+
*
54,5 / 68,7

In HAWX moet de HD 5870 de HD 4870X2 en de GTX 295 aan zich voorbij laten gaan, en ruim ook. Het verschil ten opzichte van de HD 4890 is aanzienlijk, maar lang geen 50 procent zoals in veel andere benchmarks.

Hawx - 1920x1200 - Maximum - 4xAA/0xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
******
+
**
79,6 / 106,4
GTX 295
******
+
**
76,0 / 93,6
HD 5870
****
+
*
63,3 / 78,8
HD 4890
****
+
*
47,3 / 62,7
GTX 285
***
+
*
42,0 / 58,8

Hetzelfde resultaat herhaalt zich op 1920x1200: het verschil tussen de 5870 en de 4890 neemt zelfs af naar ongeveer 33 procent.

Hawx - 2560x1600 - Maximum - 4xAA/0xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
*****
+
***
49,0 / 74,8
GTX 295
*****
+
**
48,2 / 64,9
HD 5870
****
+
**
44,2 / 59,6
HD 4890
***
+
**
28,2 / 42,8
GTX 285
***
+
**
27,2 / 39,8

De HD 5870 weet iets van zijn achterstand goed te maken en is nu net geen 50 procent sneller dan de HD 4890. In HAWX hadden we meer verwacht van de DirectX 11-kaart.

Stalker: Clear Sky

Net zoals Crysis Warhead is Stalker: Clear Sky een echte videokaart-killer. Met de hoogste instelling worden zelfs de snelste videokaarten op hun knieën gedwongen, waardoor een sli of CrossfireX-setup bijna noodzakelijk is. Met handmatige testruns kijken we hoe het de HD 5870 vergaat.

Stalker: Clear Sky - 1680x1050 - High - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
******
+
***
29,2 / 42,3
HD 4870X2
******
+
**
32,0 / 39,6
HD 5870
*****
+
**
27,7 / 38,8
GTX 285
****
+
**
22,6 / 30,8
HD 4890
****
+
*
20,3 / 25,8

De drie crème-de-la-crème-kaarten weten stuk voor stuk speelbare framerates tevoorschijn te toveren, al is het maar net aan. De HD 5870 kan aardig meekomen, maar overtuigt alleen als er gekeken wordt naar het verschil van zo'n 50 procent met de HD 4890.

Stalker: Clear Sky - 1920x1200 - High - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
*******
+
**
29,0 / 37,2
GTX 295
******
+
**
26,2 / 34,5
HD 5870
*****
+
**
23,3 / 33,4
GTX 285
****
+
**
18,8 / 25,4
HD 4890
****
+
*
17,2 / 21,8

De HD 4870X2 zet een sterke prestatie neer, terwijl de GTX 295 behoorlijk afzwakt. De HD 5870 laat nu wel en erg groot gat vallen en ook het verschil met de HD 4890 neemt af.

Stalker: Clear Sky - 2560x1600 - High - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 4870X2
******
+
**
17,0 / 23,3
GTX 295
******
+
***
15,4 / 22,6
HD 5870
******
+
**
17,6 / 22,3
GTX 285
*****
+
*
12,9 / 16,1
HD 4890
****
+
*
11,0 / 13,9

Pas op de allerhoogste resolutie weet de HD 5870 zich positief te onderscheiden. De minima zijn het hoogst van alle videokaarten en de gemiddelden zijn slechts marginaal lager.

Batman: Arkham Asylum

Batman: Arkham Asylum is een nieuwe benchmark. Het spel is een port van de consoles naar de pc en er wordt gebruikgemaakt van de populaire Unreal 3 Engine. Het spel is een zogenaamde The Way it's Meant to be Played-titel van Nvidia. AMD heeft al te kennen geven dat het de performance van zijn kaarten tegen vindt vallen, waardoor er in de toekomst misschien patches komen voor betere prestaties.

Het spel werd getest met 4xAA en met 8xAA en 8xqAA in het geval van Nvidia, zodat het aantal samples identiek is aan dat van ATI.

Batman: Arkham Asylym - 1680x1050 - Max - xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
****
+
*****
88,0 / 181,0
GTX 295 8xAA
***
+
***
75,7 / 139,7
HD 4870X2
****
+
***
76,7 / 132,0
GTX 285
***
+
***
72,0 / 128,3
HD 5870
***
+
**
72,7 / 115,7
HD 5870 8xAA
***
+
***
62,3 / 115,7
HD 4870X2 8xAA
***
+
***
61,3 / 111,0
GTX 285 8xAA
***
+
**
55,0 / 98,7
HD 4890
***
+
*
55,0 / 80,0
HD 4890 8xAA
**
+
*
45,7 / 70,0

De HD 5870 moet het met 4xAA afleggen tegen de GTX 285. Daar staat tegenover dat de HD 5870 met 8xAA sneller is dan zowel de HD 4870X2 als de GTX 285. Het verdubbelen van de render back-ends heeft ervoor gezorgd dat 8xAA nauwelijks invloed heeft op de framerates.

Batman: Arkham Asylym - 1920x1200 - Max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
*****
+
****
83,3 / 150,7
HD 4870X2
***
+
***
61,0 / 105,7
GTX 285
***
+
***
61,3 / 104,7
GTX 295 8xAA
***
+
**
53,7 / 92,3
HD 4870X2 8xAA
***
+
**
51,7 / 91,3
HD 5870
***
+
**
59,7 / 90,0
HD 5870 8xAA
***
+
**
56,3 / 86,7
HD 4890
***
+
*
46,6 / 65,0
GTX 285 8xAA
**
+
**
38,7 / 64,0
HD 4890 8xAA
**
+
*
37,0 / 56,0

De GTX 295 is wederom te sterk voor al zijn opponenten. De HD 5870 presteert echter nog vrij aardig, met redelijk hoog minima. Vooral met 8xAA laat de HD 5870 zijn kracht zien ten opzichte van de HD 4890.

Batman: Arkham Asylym - 2560x1600 - Max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
GTX 295
*****
+
***
51,7 / 82,0
HD 4870X2
****
+
***
39,9 / 66,0
HD 5870
****
+
**
40,7 / 58,7
GTX 285
****
+
**
35,7 / 55,7
HD 4870X2 8xAA
***
+
***
25,7 / 51,3
GTX 295 8xAA
**
+
**
24,0 / 44,3
HD 4890
***
+
*
26,0 / 38,0
GTX 285 8xAA
**
+
*
20,0 / 31,7
HD 4890 8xAA
*
+
**
14,3 / 30,3

Op 2560x1600 kwam de eerste grote bug tevoorschijn bij de HD 5870. Met 8xAA werd het spel een ware slideshow, met 2 tot 3 frames per seconde. De HD 4890 kon de benchmark echter gewoon afspelen. Met slechts 4xAA kan de 5870 prima meekomen met de HD 4870X2.

Energieverbruik en geluid

De Cypress-gpu wordt op 40nm gebakken, waardoor er niet alleen meer transistors in elke vierkante millimeter gepropt kunnen worden, maar er ook meer prestaties per watt geleverd zouden moeten kunnen worden.

AMD claimt zelf een tdp van 188W, maar nog veel opvallender is het idle-verbruik dat op slechts 28W zou liggen. Ten opzichte van de geteste HD 4890 zou de HD 5870 dus 2W minder verbruiken onder load en 32W minder in de idle-stand. De winst werd voornamelijk behaald bij het gddr5-geheugen, dat bij de voorgaande generatie niet teruggeklokt kon worden, zonder dat dit problemen, zoals flikkeringen van het beeldscherm, met zich meebracht.

Volgens Joe Macri, binnen AMD een voorvechter van de gddr5-standaard, is het nu gelukt om de snelheid van het geheugen zo snel te schakelen dat het niet langer merkbaar is: het geheugen schakelt terug in de fractie van een seconde waarin een monitor zichzelf ververst. De resterende 28W die de gpu verbruikt, is voornamelijk afkomstig van lekstroom, een noodzakelijk kwaad bij elke uit transistors opgebouwde chip.

Energieverbuik

Het energieverbruik is gemeten door de videokaarten eerst de desktop van Windows weer te laten geven, waarna de videokaarten vol werden belast met behulp van de stability-test in Furmark. Het opgenomen vermogen in Furmark ligt overigens hoger dan in games, maar voor de absolute verschillen voldoet Furmark prima.

Vermogensopname systeem - Idle
Verbruik (Watt)
HD 5870
*******
159
GTX 285
*********
194
HD 4890
*********
194
GTX 295
**********
203
HD 4870X2
**********
213

De HD 5870 verbruikt 35W minder dan zowel de HD 4890 als de GTX 285. Hierbij moet worden opgemerkt dat de waarden voor onder andere de GTX 285 en de GTX 295 hoger dan verwacht uitvallen. Deze kaarten scoorden op dit onderdeel in voorgaande reviews beter. Een mogelijke verklaring hiervoor kan de gewijzigde kloksnelheid van de cpu zijn, die ditmaal met een spanning van 1,35V op 3,8GHz liep in plaats van 3,2GHz bij een spanning van 1,275V.

Vermogensopname systeem - Load
Verbruik (Watt)
HD 4890
*******
325
HD 5870
*******
359
GTX 285
********
374
HD 4870X2
**********
461
GTX 295
**********
482

Onder load presteert de HD 5870 ogenschijnlijk minder goed. Als we echter rekening houden met de prestaties, die ruimschoots hoger liggen dan bij zowel de HD 4890 als de GTX 285, kan er geconcludeerd worden dat de HD 5870 per watt de meeste prestaties weet te leveren.

Geluidsproductie

AMD koos ervoor om de HD 5870 met een dualslot-koeler uit te rusten, waarbij een radiale ventilator de lucht de kast uitblaast. Aan de achterkant zijn vrij weinig ventilatiegaten te zien. De videokaarten werden wederom volledig met rust gelaten om de geluidsproductie in de idle-stand te bepalen. Vervolgens werd Furmark gedraaid, om de maximale geluidsproductie te leren kennen. Het omgevingsgeluid bedroeg 39,2dBA.

Geluidsproductie systeem - Idle
Geluidsdruk (dBA)
HD 4870X2
*********
42,3
HD 5870
*********
42,4
HD 4890
*********
45
GTX 285
**********
47,0
GTX 295
**********
47,5

AMD lijkt in ieder geval in de idle-modus een vrij stille videokaart af te hebben geleverd met de HD 5870. De Nvidia-kaarten maken hoorbaar meer herrie, terwijl de HD 4890 er precies tussenin zit. De HD 4870X2 wordt erg heet met de ventilator op de automatische stand.

Geluidsproductie systeem - Load
Geluidsdruk (dBA)
HD 5870
*********
55,2
HD 4870X2
*********
57,8
GTX 285
**********
60
HD 4890
**********
60,2
GTX 295
**********
61,7

Onder load weet de HD 5870 zich wederom positief te onderscheiden. De videokaart maakt waarschijnlijk gebruik van zijn extra lengte om efficiënter te kunnen koelen. De GTX 295 is zonder meer het luidste kaart van de vijf, maar dat is niet verwonderlijk aangezien deze ook de meeste warmte af moet voeren. De GTX 285 heeft een eigen koeler van Asus en is onnodig luid.

HD 5870 Koeler

Conclusie

De HD 5870 is zeker niet de snelste videokaart, maar heeft wel de snelste gpu aan boord die er te koop is. AMD heeft het zelf over een verbetering van ongeveer 60 procent ten opzichte van de HD 4870, waar wij ons wel in kunnen vinden. Uit onze benchmarks blijkt dat de HD 5870 regelmatig 50 procent sneller is dan de HD 4890. In enkele gevallen kan de HD 5870 zelfs direct concurreren met de HD 4870X2.

Het mag duidelijk zijn dat het verdubbelen van de rekeneenheden niet voor een verdubbeling in frames per seconde zorgt. Dat is ook logisch, omdat het toevoegen van rekeneenheden praktisch nooit 100 procent schaalt. Dat de HD 5870 niet sneller is dan de GTX 295, doet eigenlijk niets af aan de prestatie die AMD neer heeft gezet. De prestaties per watt liggen vele malen hoger en ook het idle verbruik is overtuigend.

Niet te verwaarlozen is dat de gpu behalve verbeterde prestaties ook DirectX 11-functionaliteit met zich meebrengt. Op het moment dat er DirectX 11-games uitkomen zou de videokaart een ware inhaalslag kunnen maken ten opzichte van de DirectX 10-kaarten. De ATI Eyefinity-technologie kan ook een reden zijn om de videokaart te kopen, alhoewel er met drie beeldschermen met een resolutie van 1680x1050 pixels al meer gerendered moet worden dan bij een enkel 2560x1600-scherm.

Met een adviesprijs van 399 dollar, dat in Nederland waarschijnlijk een prijskaartje van iets meer dan 300 euro zal betekenen, is de HD 5870 een aanrader. Zelfs met een prijs van ruim 320 euro zou de HD 5870 goedkoper zijn dan de GTX 295. De prestaties mogen dan iets minder zijn: DirectX 11, het verbruik en ATI Eyefinity maken de kaart erg aantrekkelijk. Nvidia zal dan waarschijnlijk ook reageren met een prijsverlaging.

In de chaos van al het grafische geweld zou de eveneens woensdag geïntroduceerde HD 5850 bijna over het hoofd worden gezien. Deze kaart moet het door het uitblijven van een reviewexemplaar echter nog zonder benchmarks doen. De HD 5850 kost 299 dollar en kan naar verwachting de concurrentie met de GTX 285 van 240 euro aan.

* CrossFire

Als voorbode van wat er komen gaat, volgt hieronder nog een enkele benchmark met twee HD 5870's in CrossFire, die met grof geweld door de Far Cry 2 benchmark heen ploegden.

Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5870 X2
******
+
**
85,8 / 117,7
HD 5870
***
+
*
47,3 / 66,2
Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5870 X2
******
+
**
58,8 / 79,7
HD 5870
***
+
**
31,8 / 46,0

Gallery

ATI HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870 HD 5870

Lees meer

Sapphire HD 5870 Vapor-X duikt op
Sapphire HD 5870 Vapor-X duikt op Nieuws van 24 september 2009

Reacties (225)

225
220
136
8
0
5
Wijzig sortering
Anandtech heeft ook een leuk artikel geschreven over de 5870. Hij heeft ook de 5870 in CF gezet, maar ook de GTX285 en GTX275 :).

http://www.anandtech.com/video/showdoc.aspx?i=3643
Ontzettend mooie re/preview. Ben erg onder de indruk van de prestaties van deze kaart. Generatie shifts laten eindelijk weer flink wat vooruitgang zien. Ook het vooruit springen van performance maar terug dringen van energie consumptie is een duidelijk pluspunt. Ben ook erg benieuwd naar de performance van de 5850 en de wat meer lower segments kaartjes in de 5xxx van AMD. Hoop dat de kaartjes <5850 alle connectivity mogelijkheden behouden.

[Reactie gewijzigd door MaDLiVe op 24 juli 2024 16:19]

inderdaad, erg goede review

Kan iemand mij het fijne van tesselation uitleggen; is het enige voordeel nou een kleinere polygoncount? Zoals ik het nu begrijp moeten nog steeds alle driehoeken gerenderd worden, dus zo heel veel kan het qua performance niet schelen toch?
Het punt is dat de tesselator al die extra driehoeken kan renderen met verschrikkelijk weinig verlies aan prestatie! In principe zou de huidige geometry shader hetzelfde kunnen produceren. Maar die is dan wel duizend keer langzamer!

Het gaat dus puur om snelheid. De tesselator zelf is een fixed function hardware feature, en daarom verschrikkelijk veel sneller dan de shader renderers die software uitvoeren. En dat maakt zaken mogelijk, die tot nu toe ondenkbaar waren.

Kijk naar die stenen rondom de ramen. Dat zijn textures. Je kunt de 3D illusie versterken met bumpmapping, maar het blijven platte vlakken. Het zal nooit boven het hout van de vensters uitsteken. Je kunt met een goemetry shader een displacement mapping doen, maar de prestaties zouden volledig onacceptabel zijn. Met de tesselator kun je het wel doen zonder enorm verlies aan prestaties. En dat levert plotseling een enorm veel betere 3D rendering op.

Wat dipje2 zegt is dan ook absoluut niet waar. De tesselator is voor alle platformen belangrijker. Sterker, juist de PC heeft er met zijn hogere resolutie meer voordeel van, om textures in daadwerkelijke 3D structuren om te zetten. Immers, door die hogere resolutie, zie je juist sneller de tekortkomingen van een te kleine hoeveelheid polygonen.

Waar tesselation ook heel belangrijk is, is wanneer verschillende vlakken elkaar snijden. Een probleem wat je typisch ziet bij rendering van water of wolken. Het water lijkt perfect rimpels en golven te hebben, maar het een een optische illusie die op een plat vlak wordt geschildert. En dat zie je wanneer dat water tegen een rots aan komt, omdat het snijpunt gewoon een rechte lijn oplevert. Dat wordt soms wel gecamoufleert, maar echt overtuigend is het nooit. Met tesselation kun je die optische illusie van rimpels en golven in daadwerkelijk 3D structuren omzetten, en dan gaat die interactie met rotsen ook gelijk goed.

Tesselation is wanneer het goed wordt gebruikt, een ongelooflijk krachtig concept, dat de grafische kwaliteit enorm verbeterd, voor heel weinig rekenkracht.
ja, ik weet wel wat tesselation is, maar ik snap niet hoe het tot hogere snelheden kan leiden. Het tesseleren is het proces van verhogen van de polycount (laten we het zo maar even noemen) en niet het renderen van die polygonen zoals jij zegt. Het resultaat van de tesselation is een high-poly object. Heel fijn, maar hoe wordt het vervolgens gerenderd, daar heeft tesselation niets meer mee te maken toch, dat is nog net zo snel als vanouds?

volgens mij zijn de voordelen die dipje noemt het meest voor de hand liggend... in feite wordt displacement mapping geimplementeerd op deze manier. Maar ik zie nog niet in hoe de snelheid (lees fps) verbeterd kan worden hierdoor.

aanvulling: Volgens toms hardware is het ook het verhogen van de kwaliteit zonder enorme polycounts over de bus te hoeven sturen het voordeel, en niet de snelheid. Verder staat ook in dit artikel dat geometry shading wel ongeveer hetzelfde doet maar omdat het getuned is voor fur shadings enzo, faalde het voor displacement maps en dat is nu verbeterd:
http://www.tomshardware.c...pengl-directx,2019-7.html

[Reactie gewijzigd door Garma op 24 juli 2024 16:19]

to be honest (ik zal er wel overheen hebben gelezen) maar ik heb niet gezien dat er ergens staat dat het de fps verhoogt. Doet het ook niet :). Het biedt meer (VEEL) meer detail zonder al te veel performance verlies.

Of anders gezegd, vergeleken met tessellation wat van te voren in de model-editors van de gamedesigners wordt gedaan, scheelt het fps :P.
je kan dus met erg lage polycounts werken.
die dynamisch worden opgeschaald als de speler dichtbij komt.

dat betekend dus dat je geen polygone verspild.
verder als je een vergelijkbaar effect wil bereiken.
dan kost het je nu heel veel performance.

je ziet min of meer hetzelfde idee met terrain maps.
die worde gegenereerd naar de hand van een heightmap.

dt is hetzelfde. alleen displaceje nu niet vanaf een plat vlak omhoog.
maar vanaf een model langs de normals.

dus je hebt een ontzettend high res model als je dichtbij bent.
en erg low res als je ver weg bent.

dat kan dus voor hogere performance zorgen aangezien dingen lowpoly gebouwd worden ipv medium. en opgeschaald worden waar nodig
ah ja inderdaad, het dynamisch maken van het detailniveau is inderdaad een enorm performance voordeel. Waar je nu 10000 polygonen per character nodig hebt bijvoorbeeld, kun je dus nu af met 2000 ofzo (?), en worden die upgescaled als iets dichtbij is.

thanks, freaq. De vraag is alleen, wordt dat geen staccato effect als je dichterbij iets komt vergelijkbaar met mipmapping?)

edit: aardig filmpje van amd:
http://www.youtube.com/watch?v=-eTngR6M37Q

[Reactie gewijzigd door Garma op 24 juli 2024 16:19]

Aww, kom op zeg. Da's niet erg vriendelijk van je. Ik denk dat freaq gewoon op het einde van z'n zin op enter drukt omdat het anders zo'n lap tekst wordt.
'T leest niet prettig, en zou ook wel wat minder overdreven mogen (einde regel gewoon een spatie, waar hij nu alinea's breekt een linebreak) maar het andere uiterste, die gigantische lappen ononderbroken tekst zijn ook niet prettig -- en dat tracht hij juist te voorkomen.

voorbeeldje, wat is prettiger lezen?
je kan dus met erg lage polycounts werken. die dynamisch worden opgeschaald als de speler dichtbij komt.
dat betekend dus dat je geen polygone verspild. verder als je een vergelijkbaar effect wil bereiken. dan kost het je nu heel veel performance.
je ziet min of meer hetzelfde idee met terrain maps. die worde gegenereerd naar de hand van een heightmap.
dt is hetzelfde. alleen displaceje nu niet vanaf een plat vlak omhoog. maar vanaf een model langs de normals.
dus je hebt een ontzettend high res model als je dichtbij bent. en erg low res als je ver weg bent.
dat kan dus voor hogere performance zorgen aangezien dingen lowpoly gebouwd worden ipv medium. en opgeschaald worden waar nodig
of
je kan dus met erg lage polycounts werken. die dynamisch worden opgeschaald als de speler dichtbij komt. dat betekend dus dat je geen polygone verspild. eerder als je een vergelijkbaar effect wil bereiken. dan kost het je nu heel veel performance. je ziet min of meer hetzelfde idee met terrain maps. die worde gegenereerd naar de hand van een heightmap. dt is hetzelfde. alleen displaceje nu niet vanaf een plat vlak omhoog. maar vanaf een model langs de normals. dus je hebt een ontzettend high res model als je dichtbij bent. en erg low res als je ver weg bent. dat kan dus voor hogere performance zorgen aangezien dingen lowpoly gebouwd worden ipv medium. en opgeschaald worden waar nodig
?

conclusie: het had wel wat vriendelijker gemogen.
ohja, en excuses voor de OT, maar dit stoorde me mateloos.

edit: linebreakje in tweede quote vergeten weg te halen

[Reactie gewijzigd door iceheart op 24 juli 2024 16:19]

Voor alle duidelijkheid :), ik zei dat 'de kleine voordeeltjes' waar ik mijn verhaal mee afsloot (zoals geheugen en inlezen van high-detail versies van modellen) niet zo van toepassing waren op de PC, maar het hele eerst blok JUIST wel (driver calls, hardware matig de splines en zo berekenen van de tessellation itself, etc..)

'wat dipje zegt is dan ook absoluut niet waar' is een beetje harsh, toch?
Maar de driver en software hoeft het allemaal niet aan te sturen. Het is de kaart zelf die de extra poly's er bij 'verzint' en ze gelijk rendered.

Met tessellation gaat de polycount over het algemeen exponentieel omhoog. Dus kijk niet gek op als je model van 2000 poly's opeens naar de 60000 gaat en verder. Er zit een heeel verschil in of de driver en software de graka 1-voor-1 moet gaan vertellen om die 60.000 poly's te tekenen, if de 2000 met de toggle van tessellation op 'aan' :).

En, het berekenen van de nieuwe poly's zelf (dus de daadwerkelijke tessellation itself) zijn ook (een hoop) berekeningen, die worden dan ook in de graka zelf gedaan.

En dan heb je ook nog een klein voordeeltje dat je dus niet het geheugen nodig hebt om de 60.000 poly-versies van modellen op te slaan, maar alleen de 2000 poly-versie. En zoals in de tekst staat, als je je object meer detail wilt geven als de camera dichterbij komt, dan kan je de tessellation factor omhoog gooien (en aanzetten), zonder eerst een speciaal high-detail versie van het model in te moeten lezen.

Op de PC zijn dit kleine voordeeltjes, maar in de console wereld is dit allemaal veel crucialer (inlezen betekent DVD streamen en weer een drive die moet seeken, dus haperingen. Daarbij zijn consoles al krap op geheugen). Eigenlijk snap ik dus ook niet waarom de ingebouwde tessellation-unit van de Xbox360 niet zo veel gebruikt wordt.
Helemaal mee eens, als ATi straks een 5870x2 loslaat dan hebben ze zeker weten de prestatiekroon terug! :)
Hoop ook dat ze de prijs wederom zo laag kunnen houden, dan zit er zelfs voor mij volgend jaar misschien een upgrade in :9
Precies! Ik vind de vergelijking GTX295 - HD5870 een beetje mank gaan omdat de GTX295 feitelijk een SLI kaart is. Je zou deze dus moeten vergelijken met een HD5870X2, waarbij ik op basis van deze review verwacht dat de HD5870X2 de GTX295 qua prestaties, performance/Watt en geluidsproductie het nakijken zal gaan geven.

Een ander belangrijk aspect is natuurlijk hoe de prijs/prestatie verhouding zal gaan zijn. De GTX295 gaat nu voor ca. 400 euro over de toonbank. Twee HD5870 kaarten zouden zoals genoemd ongeveer 600-640 euro gaan kosten. Als de prestatie dan ook minstens 1,5x de GTX295 is lijkt me dat te verkopen, zeker vanwege de bijkomende DX11 functionaliteit. (En afgezien van het feit dat sommige tweakers/early adopters toch voor high-end gaan, no matter what.. }> )
Dat is goed dat je dat zegt, alleen vind ik het opmerkelijk dat je de HD4870X2 dan ook niet noemt; dat is tenslotte ook een CF kaart (dual-gpu). Verder worden al tijden single-slot kaarten met elkaar vergeleken. Of dat nou single of dual GPU kaarten zijn word geen onderscheid in genaakt. In tegenstelling tot jou vind ik het daarom helemaal niet mank gaan.

Qua prijs/prestastie is de HD5870 de winnaar, met een prijs van rond de 320 euro. Dat is duidelijk. Qua feautures ook. Dat gezegt hebbende, ga ik mijn GTX825 nog niet inruilen voor deze kaart en ook niet de HD5850. DX11 games zijn er nog niet en de eerste titels komen hopelijk eind dit jaar (1 of 2). De eerste drie maanden van het volgend jaar kunnen daar nog zo'n 4 titels bijkomen. Is mij te mager om nu al op DX11 over te stappen.

Wacht wel even op de lanch van Nvidia nieuwe chips, tegen die tijd is meer van DX11 te genieten en zullen de prijzen misschien wat gedaalt zijn. Ook is dan meer keus en is meer non-referentie modellen te koop, Oc-edtities, HD5870X2 (HD5850x2 ??) etc.etc.

Als je je eerste pc koopt of je hebt echt een te gammele 3D-kaart dan is het zeker een aanrader. Heb je nog genoeg gamepower kan je denk beter nog een paar maanden wachten.

ps: Deze review laat zien dat Tweakers.net op de goede weg is; proficiat _/-\o_

[Reactie gewijzigd door Madrox op 24 juli 2024 16:19]

Het probleem is nog lastiger, en dat is als je 2x HD4890 pakt in CrossFireX.

De prijs als je goed zoekt is dan goedkoper dan 1x HD5870 en de prestaties in DX9/10 liggen hoger.

Het is dus vooral afwachten op de officiële release van Windows 7, en de daarbij behorende DirectX11 uitgifte voor Vista. Dan zullen er denk ik ook ineens snel DirectCompute applicatie updates komen. Het zal denk ik enkele weken zijn voordat de Windows open source community erop duikt en dat er een ffmpeg, XviD, etc versie komt met ondersteuning.

En nu er DX11 hardware beschikbaar is, Windows 7 standaard ondersteuning heeft en Vista een update krijgt, zal het een stuk sneller gaan met spel ondersteuning. Er zijn al geruchten dat bestaande engines een patch krijgen (Unreal Engine 3, CryEngine 2, HeroEngine, X-Ray), zodat een stortvloed aan gamepatches eventueel uitkomt die dan bestaande games een snelheidsboost geven. Echter het feit dat het dan mogelijk is wil helaas niet zeggen dat het gebeurt, de marketing/finaciële afdeling zal dan liever zien dat het alleen voor nieuwe versies wordt gebruikt.

In ieder geval zijn er al talloze engines die wel al geschikt zijn, DiRT2 Engine is de eerste die dan een daadwerkelijk produkt gaat opleveren, maar EA heeft de BattleForge engine al een update gegeven waardoor het als eerste spel wat op dit moment daadwerkelijk beschikbaar is, en met de eer mag strijken, maar het is maar een klein DX11 gedeelte waar het gebruik van maakt.

De id Tech 5 engine waar Rage en Doom 4 mee worden gemaakt wordt eventueel open source en heeft ook al DirectX11 ondersteuning.

Hoe dan ook het is een mooie tijd voor AMD/ATi, omdat alle spel fabrikanten die hun spelletjes alvast willen testen of optimaliseren voor DirectX11, op dit moment dus geen andere keuze hebben dan met een HD5870 aan de gang te gaan. Dat betekend dus dat de spelletjes vooral via de AMD/ATi compiler zullen worden getweaked, wat automatisch extra winst betekend, ook al komt nVidia uiteindelijk met hun G300 serie uit.

Ik persoonlijk wacht in ieder geval met spanning op de HD5830 af, wat vermoedelijk een $100 produkt gaat worden, maar door de 8-kanaals LPCM, TrueHD & DTS-HD MA Bitstreaming ondersteuning is de HD5000 series de allerbeste serie voor een HTPC systeem (met genoeg kracht voor een spelletje in lagere modus). Er is geen dure geluidskaart meer nodig en met uitzondering van wat kleine bugs in de huidige software, zoals in PowerDVD 9, loopt alles nu eindelijk perfect voor personen met een HDMI 7.2 receiver (en 9.2 receivers beginnen ook aan een opmars) en Blu-Ray media.
Ik ben het er helemaal mee eens dat Tweakers nu echt op fatsoenlijk niveau reviews begint te maken :)

Helemaal toppie!
Inderdaad, zeer goede review. Wat ik alleen nog wel wil zien, is of de prestaties over een paar maanden, met beter geoptimaliseerde drivers, nog omhoog geschroefd gaan worden. Dus met de zelfde setup (alleen de HD5870 uiteraard, niet de andere kaarten allemaal) en dan een paar benches runnen als 9.12 uit is ofzo.

Wat ik ook nog mis (altijd wat hè O-)) is de temperatuur van de GPU.

[Reactie gewijzigd door bwerg op 24 juli 2024 16:19]

Je kan wel zeggen dat de vergelijking niet klopt, maar de prijzen van de 5870 en de gtx295 verschillen niet zo veel (5870 ~ 320 euro/ gtx295 ~ 380), daarom wordt dan ook de vergelijk gemaakt. Als de 5870x2 uitkomt, dan wordt ie ook flink duurder dan de GTX295, dan is de GTX295 weer een goede prijs/ prestatie product.
De 5870X2 gaat €450-€500 kosten voor de gewone modellen. NVIDIA gaat hun prijzen dus gigantisch moeten laten dalen of ze hebben enkel hun fanboys om op te teren.
Dat lijkt er inderdaad op ja. Een erg goede situatie voor de consument. Het heeft dan ook gewoon 10 jaar geduurd voordat NV + ATI op de 'performance per watt' trein zijn gestapt... Het leer erop dat voedingen gewoon 2000 watt gingen worden door de graka...

Even wat spammen maar ik denk dat jullie tweakers dit wel kunnen waarderen:

http://www.youtube.com/watch?v=FR45ja_fNzU

[Reactie gewijzigd door kalechinees op 24 juli 2024 16:19]

Hehe.... dat filmpje is wel iets te geeky om echt grappig te zijn.

Snelle kaarten zullen altijd wel veel stroom blijven gebruiken. Het is net als auto's met grote motoren. Als je veel power wilt, kost dat gewoon veel energie.

En lekker boeiend trouwens als dat zo is. Als je je een kaart van 350 euro kan veroorloven, kan die 20 euro per jaar extra op de energierekening er ook wel af. En weer dezelfde vergelijking met auto's, als je je een Ferrari kan veroorloven, kun je ook wel de benzine betalen die je erin gooit.
als ie zuinig s vind ik dat toch wel fijn.
betekent dat mijn pckast koeler is.
betekent dat mijn dus stiller is.
en ja is toch weer 20 euro...

en het feel good gevoel van ik ben goed voor het milieu....
(door een kaart te kopen die belachelijk veel energie kost om te maken :P )
Je kunt ook gewoon geen computer nemen, nog beter voor het mileu en je feel good gevoel.
Natuurlijk kan dat. al is dat niet echt van deze tijd, vind je ook niet ?

Je hebt wel zuinige IGP's en losse kaarten, maar die presteren voor geen meter met games. Wat er denk ik bedoeld word is dat het fijn is dat er nu ook game-kaarten komen die zuinig kunnen zijn. het is natuurlijk waanzin dat je systeem dik stroom trekt, terwijl je simper zit te browsen of een briefje tiept etc. Daar heb je echt geen vier dikke océd cores voor nodig of een GPU die uit zijn peuterend alsnog 100watt verstookt.

Daarom is het goed dat er nu CPU's en GPU's komen die alleen dan hun sprierballen laten zien wanneer dat echt nodig is. Denk dat de eerste stappen gezet zijn, maar het kan nog veel beter heb ik zo'n vermoeden. Idle zou het makkelijk onder de 100watt moeten kunnen. Dan kunnen zuinige pc's ook, waarom deze niet ?
Sorry dat ik het zeg, maar je zegt het zelf al, die milieu shit is echt hypocriet.

Niemand zei het ooit beter dan George Carlin: http://www.youtube.com/watch?v=eScDfYzMEEw
20 euro per jaar?

149W x 24u x 7d x 52w is al gauw zo'n 300 euro, als je pc de hele dag aan staat en hij meestal idle is.

Dus 20 euro van 300 euro = minder dan 10% oftwel je gaat ervanuit dat je pc gemiddeld minder dan 2,4 uur per dag aan staat?

Of heb je een andere berekening voor die 20 euro/pj...?

Ik vind het erg optimistisch.
had ik gezien best wel epic
Je hebt al 10jaar IGP's en gpu's die weinig verbruiken. Je hebt blijkbaar gewoon een boot gemist als je het al die jaren niet zag.
Heel vetjes allemaal. Way to go ATI!
2,15 biljoen transistors
Moet dit niet 2,15 miljard zijn?
@t.net; hoe is de support / drivers van Ati voor linux? Heb altijd voorkeur gehad voor nvidia vanwege de goede (lees eenvoudig te gebruiken) drivers voor het linux systeem.

@Reinman; recentelijk had ik discussie met iemand hierover, uit eindelijk een ''battle'' geworden wie als eerste (en beste) zijn grafische kaart aan de gang had. Hij een ati, ik een nvidia. De Nvidia draaide binnen 5min. de Ati kaart was na 1.5u configureren nog niet op 60% van zijn performance [...] Ik zou graag ATI willen, maar nu ik jouw reactie lees, dat men iedere maand met updates komt, is wel zeer positieve ontwikkeling.

[Reactie gewijzigd door himlims_ op 24 juli 2024 16:19]

Voor zowel ATI als nVidia zijn het eigenlijk nieuwe 'openGL dll bestanden' plus een driver file die je moet uitpakken op de juiste plek, en vervolgens in je configuratie zeggen 'gebruik nu driver blablabla'.

Met de binary-closed-source officiele drivers dan, niet de opensource versies die standaard woren meegeleverd die ken ik niet.

En voor de meeste 'vriendelijke' Distro's zitten de drivers van alle twee de bedrijven gewoon bij de updates die je krijgt.

Voor mij was het in ieder geval een kwestie van het pakketje installeren en zeggen dat ik de 'binary non-free driver' wilde gebruiken Ubuntu. Opnieuw opstarten (weet niet of het nodig was of niet) en klaar.

Als je twee grafische kaarten hebt (van verschillende makers) wordt het wel een ramp. Want zowel de ATI drivers als de nVidia drivers leveren dus hun eigen mesaGL / openGL / DRI bestanden mee, die de standaard versies overschrijven (als je ze niet eerst ergens veilig zet).

Mijn laptop heeft bijvoorbeeld een toggle om OF met een Intel GMA te kunnen starten, OF met een Geforge Go 9600. Als ik de nvidia drivers installeer, en vervolgens met m'n intel GMA probeer te booten dan werkt zo goed als niks meer omdat de nvidia drivers files hebben overschreven die dus niet meer werken met de intel driver. Beetje lastig allemaal.
Tering, ben ik even blij dat ik geen Linux draai. Wat een gedoe allemaal zeg.
ik denk dat je de zin "En voor de meeste 'vriendelijke' Distro's zitten de drivers van alle twee de bedrijven gewoon bij de updates die je krijgt."

hebt gemist.
voor de meesten is het dus helemaal geen gedoe.
Ik installeer iedere maand de nieuwe drivers van Ati op twee verschillende machines. Op beide machines gaat dit altijd binnen 5 minuutjes. Het is een kwestie van downloaden en de grafische installer aanslingeren (klopt het dat de nvidia installer nog altijd gedraait moet worden buiten X? De laatste keer, vorig jaar ofzo, dat ik een nvidia driver onder linux installeerde moest ik Gnome geheel uitschakelen).

Ik speel niet heel veel games onder Linux, maar recentelijk vond ik UT2004 weer terug, dat native speelbaar is onder Linux. Dat draait prima op beide machines (de ene heeft een HD4870, de andere heeft een HD3450).
Recentelijk heeft AMD redelijk wat vaart achter de ATI linux drivers gezet. Elke maand komt er dus voor Linux ook een nieuwe versie uit. Ze lopen alleen wat achter op nvidia als het gaat qua video-decoding, maar verder vind ik de drivers gewoon goed werken op linux.
Ik heb, in tegenstelling tot wat de mensen hierboven zeggen, juist alleen maar slechte ervaring mete de recente binary-only drivers. Dit is echter met de drivers van beide fabrikanten zo, ik heb een pc met een HD4850 thuis die op een gegeven moment problemen gaf nadat ik fglrx probeerde te updaten, maar ik heb een pc met een GF7600GS die ik laatst weer even nodig had en daar gaf de Nvidia-binary driver ook gekloot... (Je zou bijna gaan zeggen dat het aan mij ligt.)

Ik draai echter nu al een tijdje vrolijk op de open-source ATI driver thuis en op mn werk en daar ben ik eigenlijk heel goed over te spreken. Het werkt vlekkeloos out-of-the-box en onder KDE4 heb ik zelfs zonder veel gedoe compositing en meerdere monitoren aan de praat. 3D is het enigste wat nog niet perfect werkt met de Open Source drivers, maar ook daar wordt aan gewerkt. Basic 3D support is recent opgenomen in de Linux kernel en Mesa (de OpenGL implementatie voor Linux) en daar kunnen ze nu verder mee om support uit te breiden.
Da's inderdaad miljard, in het Engels echter 'billion'
Best zielige prestaties voor een kaart die theoretisch in staat is tot 2.72 TFLOPS...

Dit is gewoon een verdubbeling van de RV770, maar de prestaties zijn allesbehalve dubbel. Dit toont toch aan dat men niet de juiste richting uit aan het gaan is. Heel erg veel rekenkracht gaat gewoon verloren. De vaste architectuur zorgt voor onnodig veel afhankelijkheden waardoor vaak componenten stilliggen.

Daarom heb ik erg veel hoop voor NVIDIA's GT300 architectuur en Intel's Larrabee. Beide zouden veel flexibeler zijn en ten alle tijde alle rekeneenheden beter benut kunnen houden. We zullen zien...
Wist je dat het nog de eerste drivers zijn? Wist je dat de geteste games nog geen gebruik maken van de nieuwe Dx11 mogelijkheden?
NVIDIA is juist de grootste verspiller en zakkenklopper. Je betaalt veel meer bij aankoop en verbruik, terwijl je helft van de prullen die ze op de die steken toch niet gebruikt. 'T is goed dat Intel misschien eens iets kan doen want NVIDIA is aan het slapen en AMD mag toch enige concurrentie kennen.
Ummm ietsje minder fanboy gedrag zou fijn zijn. Dit is de eerste ati kaart die een prima idle gebruikt heeft, tot nu toe was dat beslist niet het geval. Daarbij gaat deze, top, kaart een aardige berg $$ kosten en is nvidia goedkoper. Natuurlijk krijg je dan ook minder performance.

Fijne kaart die 5870 maar ik sla hem even over tot het duidelijk is wat de concurrentie te bieden heeft. Tegen die tijd is de prijs ook weer wat redelijker.
Even serieus. NVidia goedkoper? Ik heb al een half jaar lang geen NVidia-kaart meer in de BBG aangeraden zien worden om die reden. Een GTX295 kost 400 euro (en daar maken ze al verlies op omdat de productiekosten veel te hoog zijn voor de grote chip) en een HD4870 in crossfire is er nu al voor ruim 200 euro, die prijs blijft maar dalen. ;)

Daarbij heeft Rizon compleet gelijk met dat de NVidia-kaarten vol zitten met spul wat je niet gebruikt, namelijk CUDA en Physx. Niks fanboy, dat is de realiteit, er zijn wat wetenschappelijke toepassingen voor CUDA en Physx wordt meer gepromoot dan gebruikt, voor games heb je het echt niet nodig.

Ook kan je nog lang wachten: NVidia komt pas ergens begin/midden volgend jaar met de GT300. Daarvoor nog wat rebrands uiteraard...

[Reactie gewijzigd door bwerg op 24 juli 2024 16:19]

Ik geloof dat ik het niet goed geschreven heb, een gtx260-216 kost tegenwoordig 3x niets en presteerd uitstekend. Natuurlijk geen 5870 nivo dat zal duidelijk zijn. Daarbij heb ik behoefte aan video bewerking en conversie zoals powerdirector en badabing.

Op het prestatie nivo van de 5870 is nvidia natuurlijk (te) duur.
Nvidia goedkoper? 8)7 Deze kaart kost een hoop maar is in vergelijking tot Nvidia nog steeds goedkoper als je kijkt naar performance voor je $. Nvidia fanboy gedrag?

[Reactie gewijzigd door tjverhagen op 24 juli 2024 16:19]

Als de shadowrendering van deze kaart maar goed is... Ik heb een HD4870 gehad die hele slechte rendering had, deze ingeruild voor n andere die dezelfde problemen had.

Toen € 25,- meer betaald voor een GTX260, die het niet had én 30% beter presteerde.

Met beide merken heb ik goede/slechte ervaringen. Heb lang plezier gehad van m'n radeon 9600 XT :)
Kan er dan helemaal niemand meer lezen? Ik schrijf toch dat nvidia goedkoper is maar minder presteert. Een fanboy ben je niet meer als je 44 bent... Ik heb hier zowel pc's staan met nvidia / ati kaarten en intel on board, van alles wat.
Op de goeie momenten van AMD is het gewoon dom om niet over te schakelen. Bij de K7 schakel je even over van Intel en sinds de 4870 schakel je ook over van NVIDIA. Met de weg van nutteloze onderdelen en veel te hoge prijzen die NVIDIA keer op keer blijft inslaan, zullen slimme gamers de komende 2jaar dus gewoon nog hun gading bij AMD zoeken. Wie weet worden ze bij de GT400 eens wakker of heeft Intel de derde hond al weg gejaagd.
Ik vermoed dat ze je wegmodden omdat de ATIdrivers al jaren even goed zijn en dat er geen overhittingsproblemen bestaan. Ze worden gewoon warm maar dan gaat de fan harder. Het is juist NVIDIA de laatste jaren die overhittingsproblemen heeft, eerst in miljoenen laptops en nu ook miljoenen G80's.
Als je het over verspilling (van transistoren) wilt hebben, dan moet je vooral kijken bij nVidia. Die hebben een heel aantal zaken voor GPGPU geimplementeerd waar je als gamer dus geen klap aan hebt. Ik noem dual precision floating point stuk al het stuk wat voor gamers totaal niet interessant is, transistoren kost en dus stroom staat te verstoken en daardoor een lagere klok heeft dan zou kunnen.
Ehm, de 4870 en 5870 hebben juist veel meer double precision floating point dan de NVIDIA kaarten. :)
Blijkbaar weet jij niet hoe dat komt :). ATI heeft geen 800 of in dit geval 1600 Shader processing Units(SPU), maar 160 of 320 Shader Processing Units welke elk 5 Shader Processors bevatten(en dus kan 1 SPU 5 bewerkingen doen). In een SPU kan een Shader Processor alle bewerkingen doen, ook dual precision. De overige 4 kunnen dat niet, maar kunnen samenwerken om dat te doen, waardoor 2 SP's een double precision doen. Nvidia kan dit niet, die Shader Processing Units zijn gewoon een enkele, deze kunnen geen double precision, Nvidia heeft dus appart 30 double precision sp's in gebouwd. Die gebruik je dus niet bij het gamen, terwijl je de ATI shaders gewoon gebruikt.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 16:19]

En de RV770 heeft geen vaste architectuur ?
Je redenatie gaat daarom al meteen mank. De RV770 heeft nml. ook een vaste architectuur. Zielig zou ik de prestaties ook niet willen noemen, dat is nml. zwaar overdreven.

Als de prestaties al achterblijven bij wat je zou mogen verwachten, kan dat liggen aan bepaalde keuzes die gemaakt zijn; zoals de interne geheugenbandbreedte en andere zaken. Of aan de drivers die nog niet volwassen zijn. Aan dat laatste is nog wat te doen, er zullen nog zeker betere drivers komen met verhoogde performance.
Hij is in sommige gevallen sneller dan de 4870X2 dat vind ik al genoeg om "dubbel" te noemen. Hoe snel meot ie dan zijn, 2 keer zo snel als de 4890X2?

Ik vind het opzich jammer dat hij onder de 295GTX presteerd. Maar hij is zeker niet te sloom.
Geweldige kaart :)
Ik maak me nogsteeds wel zorgen over de kleine uitgang voor de warme lucht aan de achterkant... :S
En om eerlijk te zijn baal ik er een beetje van dat de 5870 de GTX295 niet volledig inmaakt. Krijgen we dat gezeur weer van ja jullie ATi mensen hebben wel DX11 maar wij hebben nogsteeds de snelste kaart....

Verder is het ook wel tof hoe de kaart gestyled is ;) Zeer strak zonder al te veel toeters en bellen! Zoalshet hoort ;)
De Ati is goedkoper, zuiniger, stiller, single-GPU en heeft DX11 en eyefinity. Ik denk dat er voorlopig geen gegronde kritiek op deze kaart komt hoor.

Over dat de GTX295 sneller is: Kijk even naar de voorbode, de resultaten in Far Cry 2 met crossfire. Vergelijk dat met de score van de GTX295. WHOOSH!!! 8)7

(en dan wil ik ook nog wel zien of de resultaten beter zijn met de drivers van over drie maanden ofzo. In de eerste paar maanden gaan de prestaties ook vaak redelijk hard omhoog, vooral bij spellen waarbij hij nu ondermaats presteert en er dus duidelijk iets gefixt moet worden.)

Ik moet zeggen dat die tesselation wel een hele berg realisme met zich meebrengt, als je dat zo op die plaatjes ziet. Wat er in-game neergezet wordt gaat steeds meer lijken op de resultaten van 3ds Max of Vue, en dat real-time ipv. na 4 uur renderen...

[Reactie gewijzigd door bwerg op 24 juli 2024 16:19]

Dan blijft het nog steeds appels met peren vergelijken, want de 5870 is een nieuwe generatie kaart en de GTX295 een oude die al een tijdje op de markt is.

Maarja op de opvolger van de GTX295 moeten we nog even wachten, maar tot nu toe is het wel een beetje koffiedik kijken, een oude en nieuwe generatie kaarten met elkaar vergelijken..
Ja, maar de komende tijd is de GTX295 toch echt het beste wat NVidia kan brengen. Dat ze niks nieuwers hebben is niet mijn probleem - als iemand nù (of in de komende maanden) een kaart wilt is de GT200 het nieuwste wat NVidia ze kan bieden.

waarom wordt er altijd weer gezegd: het is niet eerlijk, want die heeft een GPU meer/is nieuwer/is niet "de directe concurrent"(om een vage reden)? Je moet gewoon kijken wat er nu op de markt is en wat je het beste kan kopen. Dat een fabrikant nog een jaar uitstel wilt is voor een consument niet van belang, die wil nù iets hebben
Daarom even wachten tot oktober wanneer de x2 uitkomt ;)
Nadat ik deze review gelezen heb blijkt wel weer dat vele benchamrks die eerder op internet verschenen BS zijn ( had ik ook wel verwacht )
Hoewel mij de prestaties wat tegenvallen..

de 5870 is zeker een kaart om in de gaten te houden maar het is nu wachten op Nvidia.
Tot op zekere hoogste valt er nu nog niks te zeggen, mocht Nvidia komen met een kaart wat dezelfde proporties heeft als de 88xx serie dan maakt deze 5870 geen kans.

Wat wel zeer positief is is de prijs.
Aan de ene kant kan je hopen dat de nvidia kaart dezelfde prestaties heeft want dan moeten ze wel rond dezelfde prijs gaan zitten.
Aan de andere kant hoop je op een monster kaart maar dan krijg je ook een monster prijs.
Alleeen 6 maanden later, tja die zal wel sneller zijn.

Tegen die tijd is er misschien ook wel een 5890 en een 5870x2 (of 5890x2) uit waar ze mee moeten concureren, de stap is dus erg groot.
Een monster zal de GT300 zeker wel worden. Hij wordt namelijk weer groter dan de GT200, waar Ati lekker kleine (en dus zuinigere/koelere) chips maakt die makkelijk in x2 gezet kunnen worden. Dus terwijl iedereen zegt "ik wil wel eens zien hoe de GT300 presteert" zeg ik daarbij "ik wil wel eens zien hoeveel die dingen gaan slurpen." :)
Allereerst geweldige review, complimenten daarvoor.

Toch een puntje wat ik me zo afvraag:
Heb net ook de review gelezen op hardware.info en ik zag echt enorme verschillen in de becnhmarkresultaten. Neem FarCry 2 als voorbeeld.
Hoe is dit logisch te verklaren?
Ik zag daar ook dat de HD4770 de HD4850 met dubbele cijfers versloeg, waardoor ik denk dat er (vanwege de grote hoeveelheid kaarten daar) iets slordiger is getest. Ook lopen ze daar vaker tegen een andere bottleneck aan, terwijl bij de T.net review de CPU naar 3,8GHz is geklokt. Geen overbodige luxe dus, om het maximale uit je HD5870 CF te halen.
bij Hardware.info hebben ze met 8.10 beta getest, maar ik verwacht dat over 2 maand ongeveer de prestaties nog een stukje beter zijn. Dat is altijd zo geweest bij ATI, eerst kaart releasen en pas later komen de drivers die het maximale uit de kaart halen. :)
Wat een review, en wat een kaart! Ik was al onder de indruk van de 4870 in de pc van mijn ouders, maar dit gaat nog verder.

De review is lekker uitgebreid, maar voorrnamelijk de technische details vindt ik erg leuk om te weten. Kennisuitbreiding is altijd goed, nietwaar? Wat me opvalt is dat de GTX295 soms sneller is, terwijl die toch een generatie ouder is dan de 58xx serie. Komt dat omdat deze kaart zijn echte voordelen pas laat zien op DX11?

[Reactie gewijzigd door Pixeltje op 24 juli 2024 16:19]

De GTX295 is in feite 2x GTX260 op één kaart. Een andere vergelijking die je kan maken is de cijfers van de 5870 in cfx tegenover de 295 te leggen maar dan zit je ook weer in een hogere prijsklasse bezig. 5870 is +€300, 295 is +€400.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 16:19]

2x GTX 275 (nl 240 shaders, geen 216 en een 448bits* bus) op een lagere klok.
Nee de GTX295 is een dubbele GTX260 met iets meer shaders. De GTX275 is één GPU van de GTX295 genomen welke toen diende om met de nieuwe 4890 te concurreren.
De vernieuwde 260 kon al de 275 worden maar dan zouden ze nog iets te vroeg geweest zijn tegenover de 4890. Met een 260, 275, 280, 285 en 295 zouden ze misschien iets te belachelijk beginnen lijken om er nog iets tussen te persen om tegen de 4890 te adverteren.
Serieus, lees je wel wat je zelf zegt?
De GTX275 is één GPU van de GTX295 genomen
Dus het is een dubbel GTX 275. Niet een GTX 260, die heeft minder shaders.
Nee de GTX295 is een dubbele GTX260 met iets meer shaders.
Niet het is een lager geklokte GTX 280 core met een kleinere bus!

Zo als je ziet is dat net zon domme vergelijking, tis gewoon een GTX 275 op een lagere klok, die komt er het meest mee overeen. Daarbij zijn het gewoon allemaal GT 200 derivaten met meer of mindere stukken uit geschakeld.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 16:19]

Mooie review, lekker kompleet.

Toch als ATI gebruiker (of Fanboy zoals het hier genoemd word) valt deze kaart mij een beetje tegen.
Op de DX11 (wat misschien in het begin alleen in W7 GUI bruikbaar zal zijn) en de 2x HDMI 2x DVI aansluitingen na dan.
Hopelijk dat een nieuwe driver set deze resultaten nog wat zullen opkrikken.
Ik vind de resultaten alles behalve tegenvallen..

Let wel dat de drivers nog niet optimaal zijn, de kaart geoptimaliseerd is voor DX11 en niet 10, dit niet het topmodel is van ATI.. dit zal de 5890 en of de 5870X2 worden.

Zoals verteld in de review dit is de meeste efficientste gpu ooit, toch een aardig presatie imho :)

Maar volgens mij hebben ze bij Nvidia ook nog wat lekkers op de plank liggen... :P
Maar volgens mij hebben ze bij Nvidia ook nog wat lekkers op de plank liggen... :P
Wat dan? Want GT300 gaat nog lang op zich wachten(Q1 Q2 2010) en GT212 is gecanceld.
Correctie: 1x HDMI, 1x Displayport en 2x DVI ;)
Mhh, ik weet nog niet wat ik er van moet vinden. Het is nog even wachten op de 5870 X2, en kijken hoe die presteert :)

Ik heb ook erg benieuwd hoe de 5850 zich verhoudt tot de GTX285. Als de benchmarks op het forum kloppen gaat die hem aardig ruim verslaan :)

Bij salland is de 5850 te pre orderen voor 215 euro, terwijl de GTX 285 nog op 260 euro + zit! De keuze lijkt me dan niet zo heel moeilijk :Y)

NVidia zal dan onder de 200 euro moeten gaan zitten met de GTX285. Go AMD :9~
zoals in de tekst van deze review staat, nvidia zal zijn prjizen ook waarschijnlijk wel naar beneden gaan gooien. Alleen gebeurd dit pas denk ik als de HD58xx ook daadwerkelijk in de handen van klanten terecht is gekomen.
De markt zal die prijzen "corrigeren". Zodra leveranciers en verkopers door hebben dat de kaart "te snel" verkoopt gaat de prijs omhoog. Vraag en aanbod. De Nvidia's komen dan vanzelf omlaag, al dan niet op kosten van de leveranciers.

Maar denk maar niet dat er zulke grote verschillen komen. De "straatwaarde" van de 5850 gok ik op circa 250 euro...

En het feit dat elke 3-tot-6 maanden grafische kaarten goedkoper worden is natuurlijk ook geen nieuws.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 16:19]

Op dit item kan niet meer gereageerd worden.