Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 123 reacties

Nog geen week geleden introduceerde AMD zijn nieuwe videokaart aan de pers en nu al zijn de eerste benchmarks uitgelekt. Een Tsjechische website vergeleek de ATI Radeon HD 5870 met onder andere de HD 4870X2 en de GTX 285.

Het eerste spel dat getest werd, is Tom Clancy's H.A.W.X., waarin de HD 5870 de videokaarten van de oudere generatie met gemak achter zich laat. De videokaart weet zelfs de HD 4870X2 voor te blijven. De tweede benchmark betreft 3DMark Vantage met de Extreme-instelling. Deze benchmark is minder veelzeggend, maar valt nog steeds ruimschoots uit in het voordeel van de HD 5870. De eerste resultaten lijken in lijn te liggen met de specificaties die eerder naar buiten kwamen.

HD 5870 bench 1 HD 5870 bench 2

Behalve de eigen benchmarks weet de Tsjechische website ook de performance-scores volgens AMD's eigen benchmarks te melden. Zo zou de videokaart in zeventien spellen minimaal 5 procent en maximaal 155 procent sneller zijn dan de GTX285. Ten opzichte van de GTX295 zou de HD 5870 afhankelijk van het spel 25 procent minder tot 95 procent beter presteren. Twee HD 5870's in CrossFire produceren 5 procent minder tot 95 procent meer framerates dan twee GTX295's in sli, aldus deze cijfers.

De website heeft ook een foto van de naakte pcb van de videokaart online gezet. Naast de foto van de printplaat zijn er op het forum van TechPowerup nieuwe foto's van de HD 5870 opgedoken, die onder andere laten zien dat de gaten aan de voorkant puur decoratief van aard zijn.

HD 5870 2 HD 5870 pcb
Moderatie-faq Wijzig weergave

Reacties (123)

Met elke dieshrink kan je voor een high-end chip uiteraard stuk meer performance verwachten. Dit is eerder onvermijdelijk. Tenzij je op hele drastisch andere methoden overgaat.
intersanter is dat AMDTI weer hun performance value formule toepassen.
Vroeger betaalde je €300 voor midrange. Nu krijg je daar semi high-end voor.
Maar dit effect is minder sterk aangezien het 40nm vs 40nm wordt.

Als je redelijk wat performance wilt voor redelijk prijs, dus goede performance prijs ratie. Dan zit je goed met ATI.
Ik heb zo'n bruin vermoeden dat nV weer een kolosale chip maakt, en zullen uiteraard de snelste zijn. Maar alleen interresant voor diegiene waar geld minder toedoet. Maar voor top performance gaat. En nV kan er niet al te veel meer voor vragen.

Als ATI hun top single GPU lever voor €350 dan kan nV met 25% meer performance daar €425 voor vragen maar niet de oude €600+ Top high-end prijzen.

Dat maakt nV niet rendable maar ze zijn dan wel diegene met de snelste GPU. iig dat verwacht ik.

Tja wordt weer sneller. Dit zijn geen officiele resultaten. Maar voor mij is de DX11 funcionaliteit van belang.
Om zelf even met DX11 SDK met W7 later te kunnen klooien. Gezien ATI toch wat strakker DX versies volgt. Wil ik toch minsten één DX11 kaart hebben.

[Reactie gewijzigd door SG op 14 september 2009 19:51]

Waarom zijn die gaten decoratief? Het zijn niet voor niets gaten, uit gaten kan lucht komen en het lijkt me niet meer dan redelijk om te veronderstellen dat de gaten er zijn om lucht uit het plastic monster om de PCB te laten.
Ik geloof dat deze uitspraak alleen op deze post is gebaseerd:
http://forums.techpowerup...p?p=1551590&postcount=658

Begrijp ik het goed dat de CF prestaties van deze kaart in vergelijk met de schaling van de SLI prestaties van de GTX295 beter zijn?

[Reactie gewijzigd door Allubz op 14 september 2009 15:21]

De koeler is omgeven door plastic. Als je dus goed door de gaten heen kijkt, zie je plastic. Plastic laat geen lucht door ... Decoratief dus ...
Als je nog even beter kijkt. zie je dat je er wel door heen kan kijken. die gaten zijn dus echt wel voor de lucht hoor ik zie een`zwarte pcb door de gaten heen. ;)
Ik heb de kaart voor me liggen. De foto's zijn dan wel niet van ons, dat mag namelijk niet, ik kan je verzekeren dat de gaten er voor de sier zitten. Er wordt door de koeler geen zuchtje wind door de gaten aangetrokken, want er kan alleen van de bovenkant lucht naar binnen, aangezien de koeler rondom door plastic is afgesloten.
Lijkt me ook een logisch ontwerpkeuze.
Als lucht wel door die gaten weer de kast inkomt, is dat hete lucht. Dat wil je niet.
Het beste ontwerp is als alle (warme) afkoellucht de kast wordt uitgevoerd, en niet deels weer gecirculeerd wordt.
Meestal zuigt de fan zo'n 80-90% aan de bovenkant maar wordt ook zeker wat lucht van onder de fan (over het PCB) aangezogen. Ik heb de kaart niet voor me liggen maar afgaande op het ontwerp van zo'n beetje alle videokaartkoelers met een radiale fan zal dat ook hier het geval zijn. De gaten in het ontwerp zouden in dit geval dan nodig zijn omdat de koeler de kaart voor de rest helemaal afsluit.

Ik kan natuurlijk vanaf hier niet inschatten of jij enig verstand van aerodynamica hebt.

Het idee van sommige mensen dat het "blaasgaten" zouden moeten zijn is in ieder geval sowieso onwaarschijnlijk. Als die gaten op die plek iets doen dan zuigen ze lucht aan naar de onderkant (of achterkant, hoe je het wilt noemen) van de fan.
Misschien heb ik de datum gemist, maar wanneer gaat het embargo eraf?
Ik dacht dat je vanaf 22 september 'echte' reviews kan verwachten. Maar er lekker zo hier en daar wel eens wat dingen uit (zie boven ;)).
Ik heb de kaart voor me liggen.
*aaarrgh zat ik maar bij de tweakers.net crew* :D
En dan? * GENETX heeft de kaart nog niet gezien, zal hem niet zien, en zal geen tijd + benzine verspillen om naar Amersfoort te tuffen :+
En dan nog moet je maar hopen dat je hem te zien krijgt natuurlijk ;)

Overigens Bitage, de vervaldatum van het embargo, valt ook onder embargo :P Verscheidene websites nemen het echter niet zo nauw met het embargo, dus daar kun je het vast wel vinden :p
Ik kom morgen toch in Amersfoort :) :+
Ik zie eigenlijk de PCB als ik door de gaten heen kijk.

De PCB wordt toch ook gekoeld door de fan in het midden? Deze is niet volledig afgesloten van de rest van de PCB door plastic lijkt me.
Ik zie toch echt de PCB door de gaten heen. Als die kant dicht zou zijn,dan zou de koeler wel lucht richting die kant verplaatsen, maar kan het nergens heen. Denk dat die gaten een outtake in je kast is. Zitten de VRMs niet op die plek?
je hebt een goed punt Allubz. Het lijkt mij ook nogal dom van andere op dat forum om tot de conclusie te komen dat gaten op die plaats decoratief zijn aangezien ze wel op een plaats zitten waar je veel airflow zou kunnen verwachten. Lijkt mij ook gedaan te zijn om de airflow door de kaart te bevorderen. De kaart is wel bruut snel dat hij goed mee kan met een GTX295 in preformence. Een kaart die momenteel +€400 kost he. Dan zou de 5850 denk ik gebaseerd op de specs meer in de buurt liggen van de 4870x2 maar dan wel veruit sneller zijn in bepaalde benchmarks. Ben dus erg benieuwd naar de uiteindelijke officiele reviews. Maar eerlijk is eerlijk het ziet er veel belovend uit en het design van dit model ziet er best mooi uit al ziet het er evengoed nog aardig simpel uit.
Als de 5850 niet al te duur wordt dan koop ik hem denk samen met een lynnfiel i5 750. Dan moet je toch een aardig snel game systeem kunnen bouwen wat een aardige bang for the buck zal leveren.
Super kaart zo te zien, nu nog hopen dat de prijs gaat meevallen en natuurlijk het idle verbruik, iets waarin tot nu toe nvidia op nr1 staat.

Buiten dat, moeten er natuurlijk wel games uitkomen die het de moeite maken om zo'n kaart aan te schaffen want daar schort het dit jaar nogal aan. Bijna alle games zijn console ports die met een gtx260 al over de 100fps zitten, dus what's the point nietwaar.
The point is denk ik vooral DirectX 11.

Wordt DiRT 2 niet vertraagd vanwege DX11?

edit: ik bedoel idd als argument om deze kaart aan te schaffen. Men zit eventueel eerder te wachten op een kaart die DX11 doet, dan op extra performance, als je al een high-end kaart hebt.

[Reactie gewijzigd door 19339 op 14 september 2009 16:37]

Waarom?

HAWX draait op een 4890 bijvoorbeeld ook beter op DX 10.1 dan op DX9...
Hij bedoelt dat het spel uitgesteld is omdat men DX11 wil implementeren niet dat het trager loopt door DX11 :-)
Hij doelt erop dat de release van Dirt 2 is uitgesteld, zodat de developer DX 11 in het spel kan implementeren. Niet dat het spel op DX 11 langzamer draait dan DX 10. ;)

De kaart word een mooie vervanging van mijn 2 4850's in crossfire. Hij is sneller, maakt waarschijnlijk minder hitte, en vreet minder stroom (veel minder in idle)

[Reactie gewijzigd door leeuwtje1 op 14 september 2009 15:46]

Heb gelezen dat verbruik idle zeer goed meeviel, slechts enkele watts boven Nvidia. Ook load verbruik was +- 70 watt minder dan dat van de 4890. Maarja hoeveel er tot nu toe van waar is wachten op een officiele review! Maar ik kan mij wel inbeelden dat dit procédé minder gaat verbruiken!
Ik ken nog zat spellen die deze kaarten wel op hun knieetjes zullen krijgen.
Denk aan ArmA 2, of Crysis met de nodige anti-aliasing.
Ja, eh Arma 2 zal de komende jaartjes nog wel alles op zijn knieën krijgen... en zeker kwa CPU, de beste i7's krijgt ArmA 2 zelfs op zijn knieën.
Uhm.. Je zegt zeker qua CPU.... Ik heb een i7 920, en draai Arma 2 maximaal? Zonder problemen?
Grafisch stelt Arma2 geen zak voor. Sterker nog, de graphics zijn zo erg outdated dat je misschien beter Delta Force kan gaan spelen. Echter, CPU-gewijs is het inderdaad knieenwerk.
Ik heb het niet gespeeld maar dat lijkt me wel heel erg overdreven, vooral omdat de eerste ArmA een heel erg mooi en veeleisend spel was. Is ArmA II grafisch dan al minder dan het eerste deel?
Ja idd. Aan een goed game aanbod schiet men momenteel te kort. Maar een voordeel van DX11 is wel dat straks alle consoles voor DX11 gaan zoals bij DX10 niet het geval was. Dus de nieuwe console ports zullen zaarder worden. Of deze dan ook meteen in preformance zo zwaar zijn dat bijvoorbeeld een radeon 5870 al weer te kort zal schieten hoop ik toch van niet. Ik heb liever dat deze netzoals de geforce 8800 serie een aardige tijd mee kan voor de laatste nieuw geporte games. Want dat was wel iets wat mij in de tijd van de geforce 8600 en radeon x2600 series heel erg tegen viel dat er DX10 games er niet fatsoenlijk op te draaien waren terwijl men er wel groot mee adverteerde zo kan ik de vergelijking ook trekken dat iedereen die toen bijvoorbeeld voor de snellere radeon x1950pro had gekozen inplaats van voor de toen erg populaire DX10 ondersteunende 8600 GT - GTS die toch aardig gelijk geprijst waren toen uiteindelijk veel beter is afgeweest in preformance omdat DX9 in nog zo goed als in alle games ondersteund werd.
Mensen neem alles nog even met een korreltje zout. Ja de HD5870 zal de performance gaan geven van een HD4870 X2 of misschien iets meer. Maar hoeveel pressies wordt nog even afwachten. Ik verwacht geen Wonderen. Ik denk dat de waarheid wel in de buurt van het bovenstaande zal zitten.
@Astennu
En als je dan deze kaart X2 gebruikt? Dat is natuurlijk waar het dan wel heen gaat. Overigens weet ik niet precies zit hoe het zit met SLI en Crossfire, maar het lijkt me dat SLI wel sneller is dan Crossfire?, gezien de resultaten minder verschillen tov. de GTX295 wanneer deze met 2 kaarten tegelijk draaien (resp. in Crossfire en SLI)

Maar het is natuurlijk een ontwikkeling die voor gamers erg lekker is, je hebt dan een videokaart die (in zijn 1-tje) een (aantal) huidige games kan draaien. Laat staan wanneer je er 2 hebt.
Waarom is SLI volgens jouw dan sneller? Ik dnek namelijk het omgekeerde :) zowiezo heb ik begrepen dat de schaalbaarheid van CF veel beter is ook naar 3 of 4 kaarten.
Omdat CF meer niet werkt dan SLI doordat er geen geschikt profiel in de ATI drivers zitten. SLI ondersteunt drivermatig meer games dan CF.

http://www.overclockerscl...s/crossfire_vs_sli/25.htm

[Reactie gewijzigd door aval0ne op 14 september 2009 16:25]

ik weet niet:P
ik weet alleen dat crossfire 2x 8lanes gaan draaien en in sli met goed mobo in 2x 16 en 3 way sli 16x,8x,8x
PCI-E lanes heeft weinig met Crossfire of SLI te maken, op een goed moederbord gaat Crossfire zelfs 16*16*16*16
Dat is echt pure onzin wat je daar tikt.

Het aantal lanes wordt bepaald door het moederbord, niet door de drivers voor crossfire of SLI.

op een X58 bordje kan je prima crossfire draaien met 2 x 16 PCI-e 2.0 lanes hoor.
Dit is anders een single-chip oplossing, en geen sprake van X2 techniek. Ook die benchmarks moeten nog uitwijzen, maar Ati heeft zichzelf een nieuw rekenmonster gemaakt.
We staren nu blind naar deze benchmarks terwijl de officiele drivers nog niet eens uit zijn. In sommige benchmarks is volgens de site de hd5870 2x beter dan de gtx295. En sommige 5% minder. Dit ligt dus compleet aan de drivers. Zulke schommelingen zijn niet natuurlijk. Als de kaart 95% beter KAN presteren dan kan ati dit bij ELKE game regelen via de drivers.
Nou ja niet helemaal, maar inderdaad die 5% lager gaat zeker hoger uitkomen maar alle games 95% nee, ligt toch aan de game, of die geoptimaliseert id voor ati/nvidia (vooral in het aanspreken van de shaders)... Dus ja het zal vast opgetilt kunnen worden naar 50/100% sneller ofso maar 1 getal kan niet :)
In sommige benchmarks is volgens de site de hd5870 2x beter dan de gtx295. En sommige 5% minder. Dit ligt dus compleet aan de drivers. Zulke schommelingen zijn niet natuurlijk. Als de kaart 95% beter KAN presteren dan kan ati dit bij ELKE game regelen via de drivers.
Sorry hoor, maar dat is echt complete onzin. Wanneer je kaarten met verschillende architectuur hebt, dan is het doodnormaal dat ze bij verschillende spellen verschillende karakteristieken laten zien.

Typisch geval bijvoorbeeld, dat sommige spellen begrensd worden door shader kracht, en anderen door geheugen bandbreedte. Als je dan een kaart hebt die een tweemaal zo krachtige shader engine heeft, maar ongeveer dezelfde bandbreedte, dan krijg je precies het verschil in performance zoals er beschreven wordt.
We staren nu blind naar deze benchmarks terwijl de officiele drivers nog niet eens uit zijn. In sommige benchmarks is volgens de site de hd5870 2x beter dan de gtx295. En sommige 5% minder. Dit ligt dus compleet aan de drivers. Zulke schommelingen zijn niet natuurlijk. Als de kaart 95% beter KAN presteren dan kan ati dit bij ELKE game regelen via de drivers.
Denk je nu echt dat reviewers deze kaart reviewen zonder officiële drivers? |:(
Veel worden bij de intro van kaarten BETA drivers of zelfs speciale (nog niet vrijgegeven) drivers gebruikt..

De kaart is overigens ook niet de enige factor, maw een kaart die 95% beter preseteerd tilt niet de prestaties van het gehele systeem met 95% omhoog
zullen deze kaarten allemaal uitgerust worden met de ATI Eyefinity technologie?
Ik stond namelijk op het punt een matrox triplehead2 go te kopen en mijn gpu te upgraden.
Een triplehead2 go alleen kost al rond de 300 Euro.Als deze nieuwe kaartjes dit al standaard kunnen (zelfs 6 monitors aansluiten), dan heb ik twee vliegen in één klap (nieuwe gpu + mogelijkheid om te gamen met meerdere monitors)voor dezelfde prijs van enkel een matrox.(hoop ik).
(heb nu nog een EVGA 8800gt ).
De kaarten hebben niet standaard 6 uitgangen, normaal zelfs maar twee, dus even afwachten wanneer de 'speciale edities' uitkomen.
de hd 5870 krijgt 3 of 6 poorten.
minimaal 3.
Voor een derde scherm heb je geloof ik wel een DisplayPort scherm nodig.
Zoals iemand hier op het Ati forum vermelde is het nog een twijfel of deze scores echt zijn.

*De HD5870 zou 1.6 keer beter presteren dan de HD4890*

Als je de Vantage score van de HD4890 neemt en die keer 1.6 doet krijg je exact de score van de HD5870.

5107*1.6 = 8171

Edit:
@ watercoolertje
Zit nog in het weekend 8)7

[Reactie gewijzigd door Axelfoley007 op 14 september 2009 16:49]

Hmm klinkt nep eigenlijk, omdat het precies uitkomt wat dus te 'gemaakt is'.... (ik neem aan dat je niet door had dat je eerst een HD4890 noemt en vervolgens de HD4870)

Hmm ik heb zelf een HD4890 gekocht maandje terug, moet ik weer gaan sparen voor ene nieuwe :P Maar ik wacht nog wel ff tot het allemaal wat goedkoper wordt, maak elke keer wle pittig verlies op het aan en verkopen van de nieuwste ati's :P Of voor CF sparen, nu die HD4890 toch van de hand gedaan gaan worden :D

[Reactie gewijzigd door watercoolertje op 14 september 2009 15:36]

Waarom niet goedkoop een 2e 4890 kopen en dan nog enkele jaartjes kunnen verder gamen? Ik zie het niet echt als een waardige investering als je net een 4890 hebt.
DirectX 11 bijvoorbeeld. Ook kun je hier nog wel een 2e 4890 bij kopen maar 2x (of X2) een 4870 is natuurlijk nog sneller ^^.
Als je ziet dat DX10 na zoveel jaar nog steeds niet is ingeburgerd is je HD 5870 waarschijnlijk allang antiek wanneer DX11 echt ingeburgerd is.
Vantage zegt niet veel. Als je naar de HAWX resultaten kijkt dan haalt hij wel ongeveer 1,6x zo veel frames als de HD4890.
Hoop dat dit echte benchmarks zijn!! leuke vervanger voor mijn 3870,
wel hopen dat mn e8400 @3.6ghz deze kaart kan bijbenen, anders word het weer overclocken geslagen
Is dat zo dat een stuk beter loopt allemaal als ze elkaar bijbenen? En hoe zie je überhaupt dat een videokaart en de cpu elkaar bijbenen? (serieuze vraag, wil er graag iets over weten)

[Reactie gewijzigd door snsgn op 14 september 2009 16:08]

Als de cpu niet toereikend is merk je dat doordat de prestaties(fps) hetzelfde blijven wanneer je de beeldkwaliteit omhoog gooit (AA, resolutie).

Wanneer je dan je cpu overklokt zie je dat je een evenredige prestatiewinst ziet in spellen, waar dit normaal gesproken niet het geval is.
Simpel gezegd, als je de resolutie en graphics instellingen hoger zet en de framerate blijft hetzelfde, dan houdt de CPU je grafische kaart niet bij. Als je framerate omlaag gaat bij hogere grafische instellingen, dan is je CPU 'snel genoeg'.
Ik zou er mijn 2 HD4850's wel voor in willen ruilen :P Nja, nog snel zat voor mij totdat ik over een jaartje toch weer de knoop doorhak.

Maar een single HD5870 die een HD4870x2 inmaakt is toch wel heel erg.. nouja netjes.. ik denk dat het allemaal maar een beetje te snel gaat. Je houd dit nooit bij, beetje jammer.
Het feit dat je het niet bijhoudt is misschien frustrerend maar uiteraard niet jammer. Je 'oude' kaart presteert er natuurlijk niks slechter door en ook nieuwe spellen kan je de komende paar jaar wel blijven spelen hoor. Het zou juist jammer zijn als er geen nieuwe kaarten meer komen omdat de laatste generatie 'toch wel goed genoeg is" (denk hierbij aan de laatste NVidia-series :P)
Frustrerend is het indd, je hebt het ene in huis en het andere word geintroduceerd. Er is altijd wat beters om de hoek :P IMHO gaat het allemaal te snel.
Als (en ik zeg wel ALS) deze cijfers kloppen dan lijkt het mij dat je voor de rest al een aardig high-end systeem moet hebben of je CPU aardig moet gaan overclocken zonder dat je op een bottleneck gaat stoten met zo'n 5870, om nog maar te zwijgen over twee 5870's in CF. Dit zijn wel érg indrukwekkende cijfers...

Ik begin me al zorgen te maken, haha.
Ik vind dat Intel de ontwikkelingen goed bijhoudt. Ze bieden met de i5 nu een flinke turbo-modus, welke denk ik ook wel z'n weg gaat vinden naar X58. Als je een goed threaded spel hebt, is een 'trage' quadcore meer dan voldoende om een high end setup bij te benen. Heb je een slecht of niet threaded spel dan lopen 1 of 2 belaste cores je ene core 5 of 6 stappen sneller (de Core i5 870 haalt dan 3.6Ghz).

Verder moet je bedenken dat bij het toepassen (of verhogen) van AA en het verhogen van de resolutie, de CPU het nauwelijks zwaarder krijgt, maar de videokaart(en) des te meer.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True