Radeon HD4850 op de pijnbank gelegd

AMD gaat de ATI Radeon HD4850 officieel op 25 juni uitbrengen maar de eerste reviews zijn al op internet verschenen. De nieuwe mainstreamkaart biedt volgens de reviewers een ongekende prijs/prestatieverhouding.

De nieuwe mainstreamkaart van AMD is gebaseerd op de RV770 en gebakken op 55nm. De kloksnelheid bedraagt 625MHz, terwijl het 512MB aan gddr3-geheugen op 1GHz loopt en er een 256bits-geheugeninterface aan boord is. De Radeon HD4870 zal overigens over gddr5-geheugen gaan beschikken. Een belangrijke uitbreiding is bij het aantal streamprocessors te zien: dat nam toe van 320 bij de HD3850 en de HD3870 naar 800 bij de HD4850. De hoeveelheid texture units is gestegen van 16 naar 40 en ook het aantal transistors nam flink toe ten opzichte van de 'oude' twee kaarten: van 666 miljoen naar 965 miljoen. Dit alles resulteerde in een vergroting van de die van 192 mm² naar 256 mm²

Uit de reviews blijkt dat de HD4850 bij sommige benchmarks vergelijkbaar of zelfs beter presteert dan de Geforce 9800GTX. Ook lijkt de Radeon HD3870 X2 in een klap overbodig te zijn geworden. Tweaktown testte twee HD4850-kaarten in Crossfire-opstelling maar hier lieten de prestaties een wisselend beeld zien: sommige benchmarks toonden een marginale toename terwijl bij andere de Geforce 9800 X2 in zicht kwam. Aangezien de kaart voor minder dan 170 euro opgepikt kan worden, heeft AMD goed werk afgeleverd waarmee de concurrentie met Nvidia een nieuwe fase in kan gaan, concluderen de reviewers. Wel lijkt de kaart veel hitte te genereren, oplopend tot 80 graden Celsius, dus de verwachting is dat fabrikanten flinke koelers gaan plaatsen op de gpu. Het verbruik van het HD4850-testsysteem van de site PC Perspective lag op 285W onder volle belasting en 179W in idle-modus. Daarmee ligt het verbruik lager dan de 303W die het 9800GTX-systeem verstookte en iets hoger dan de 277W van de testpc met de Geforce 8800GT 512MB.

Update: AMD heeft de introductie van de HD4850 vervroegd naar donderdag 19 juni, zodat alle hardwaresites hun reviews kunnen plaatsen en fabrikanten hun kaarten kunnen aankondigen. Her en der was de HD4850 overigens al te krijgen.

Radeon HD4850 Sapphire

* Reviews

Door Olaf van Miltenburg

Nieuwscoördinator

19-06-2008 • 19:03

147

Reacties (147)

147
137
28
17
0
0
Wijzig sortering
Anoniem: 144108 19 juni 2008 19:10
Het aantal graden Celsius wat een kaart kan worden is totaal geen graadmeter voor de hittegeneratie. Wanneer wordt hij 80 graden? Zonder koeler? Het gaat om de hoeveelheid warmte energie die de kaart afstoot. En dat is ongeveer gelijk aan het stroomverbruik van de kaart. Bij alle kaarten. Dus het is nuttiger om te vermelden hoeveel stroom hij verbruikt, en hoe dat zich relatief verhoudt tot de concurrentie. :)
Volgens een van de testen wordt hij aan de achterkant van de printplaat waar de GPU zit in idle 80 graden, terwijl de fan op 20% draait (hij draait automatisch op 20% omdat ie in idle zit).

Toch wel apart, als je die cijfers van een paar maanden geleden ziet over de 48xx GPU-serie. De 4850 GPU zelf zou in idle maar 10 W verstoken. Da's toch beetje jammer dat ie daarmee 80 graden haalt. Of die 10 W klopt niet meer.
ik wacht toch nog op de 4870 (en hoop dat de x2 snel in beeld komt)
ik dil dat toch wel in mijn nieuwe pc.
de gtx260 en 280 doen het niet voor mij.
zijn wel snel maar ook erg duur en vragen om een veels te dure voeding...
ook kan dat niet in sli ( met intel chipset) dus uitbreiden wordt ook lastiger

ben erg blij dat deze kaart al zo goed is. hoop dat de 4870 (en met name de x2) er nog een schepje bovenop gooien
de 4870X2 staat voor eind juli, begin augustus gepland als ik het goed heb
normaal gesproken is deze nog wat sneller. Gezien de gtx280 tegenviel qua prestaties zou amd er goed aan doem om die kaart ook wat duurder te verkopen om zo wat extra winst te maken. Ipv de 600 euro voor zo'n 500 adviesprijs(waar dus 450 van overblijft). Dan zijn ze iets goedkoper voor goede prestaties. Als de productiekosten ongeveer hetzelfde zijn kan de prijs ver omlaag wanner nvidia dat ook doet.
Ik ben het totaal niet eens met de stelling dat de HD3870 X2 overbodig is. In games als UT3 En Bioshock veegt deze kaart de vloer aan met de HD4850 en ook de GTX260.

In sommige games waar CF niet werkt is de HD4850 sneller ja maar dit is niet altijd het geval. De HD4870 en de HD4870 X2 zijn een ander verhaal die zullen em wel overbodig gaan maken.
'Overbodig', dat is een andere prijsklasse ook wel.
gigantische mooie prestatie van ATI.
voor 1/3 van de prijs op 1280x1024 binnen 20% van de prestaties van de gtx280 te zitten is een hele mooie prestatie.
op hogere resoluties word het gat wat groter waarschijnlijk door een te kort aan bandbreedte. daar zou de hd4870 verandering in moeten brengen, dus als je een groot scherm hebt koop je die. zit je ook op hoge resoluties ook bijna op de prestaties van de gtx280 voor ongeveer de helft van de prijs

de chip is wel wat groter geworden dan origineel gedacht, 40 texture units ipv 32 800 shaders ipv 480 ect. en bijna 1 miljard transistors ipv 800miljoen.
geen hoger geclockte shaders jammer genoeg. maar dat kan nog komen in volgende generaties.

edit : bij andere sites zie je dat de hd4850 het ook nog niet super doet met hogere AA en FA scores. ook daar zou de hd4870's het een stuk beter moeten doen. voor mij niet echt een probleem aangezien ik zelf of ooit AA of FA aan zet maar vind je het wel belangrijk moet je ven wachten op de hd4870's benchmarks moeten wachten.

edit 2 : als ik de review op fudzilla bekijk zie je wel dat de hd4850 een stuk minder hoeft in te leveren met AA en FA als de hd3870x2 bijvoorbeeld.

[Reactie gewijzigd door Countess op 22 juli 2024 19:25]

50% meer transistoren, en meer dan dubbel shaders en texture;

ligt het aan mij of houd dit in dat er forse wijzigingen in het shader/texture gebied aan zijn gebracht? (Minder transistoren/eemheid, dus)
Het verbruik ligt op 285W onder volle belasting en 179W in idle-modus. Daarmee ligt het verbruik lager dan de 303W die de 9800GTX verstookt en iets hoger dan de 277W van een Geforce 8800GT 512MB, zo weet PC Perspective te melden.
De HD4850 verbruikt zelf niet 285W onder volle belasting, maar het volledig systeem (zie ook grafiek, hoofding is duidelijk 'Power Consumption - Entire System'); hetzelfde commentaar geldt voor de cijfers m.b.t. de 9800GTX en 8800GT.

De testopstelling die dit verbruik veroorzaakte was:
Intel Core 2 Extreme X6800
EVGA nForce 680i Motherboard
Corsair TWIN2X2048-8500C4
Western Digital Raptor 150 GB
Sound Blaster Audigy 2 Value
MSI Radeon HD 4850 512MB
BFG 8800 GT 512MB OCX
BFG 9800 GTX 512MB
PC Power and Cooling 1000 watt
I.m.o. is het representatiever om te zeggen dat het systeem met de HD4850 idle 16W minder verbruikt dan de 9800GTX, en 28W minder onder load. 'Bang for (electricity) buck' valt hier gemakkelijker uit af te leiden ;)
De HD4850 werd aangekondigd voor $249.-, omgerekend €162.- , dat is maar €2.- van onze pricewatch af.
De HD4870 is aangekondigd voor $349.- , omgerekend €226.- . Als deze prijs (plus een beetje, zegge €230-240.-) gehandhaaft kan worden dan hoeven we ons niet erg druk te maken over de in prijs verlaagde 9800GTX, de 9800GTX+ of de 260GTX (wat een overduidelijke benaming hanteert NVIDIA toch...).
De HD4870 zal (als de speculaties bij benadering kloppen) een bijzonder sterke toekomstinvestering zijn op dit prijspeil.
Je mag niet vergeten dat een 249$ meestal 249€ wil zeggen....
door allerlei importkosten etc.
Anoniem: 93545 @de_nille20 juni 2008 02:45
Je mag niet vergeten dat een 249$ meestal 249€ wil zeggen....
door allerlei importkosten etc. door allerlei belastingen en algemene afzetterij.
Als je het ding zelf uit de VS haalt betaal je niks extra op verzendkosten na, en dat is zowat aantrekkelijk voor vrijwel alles behalve levensmiddelen.
Anoniem: 63628 @de_nille20 juni 2008 17:20
Dat gaat al een half jaar nietmeer op. Zoals in de post boven je beschreven werd is het omrekenen tegenwoordig gewoon netjes gedaan.
Anoniem: 58485 19 juni 2008 19:17
Wel lijkt de kaart veel hitte te genereren, oplopend tot 80 graden Celsius, dus de verwachting is dat fabrikanten flinke koelers gaan plaatsen op de gpu.
Dit is de refefence-cooler geleverd door AMD, met elk zijn fabrikants-logotje erop. De fanspeeds zullen wel laag staan weer, en kan handmatig omzeild worden door gebruik van Rivatuner. 80Graden is overigens niet eens zo 'lethal' maar het is een goede bron van warmte. 3rd party coolers zoals bijv de VF1000 van zalman zal dan ook prima passen. Mijn 3850 doet 45 graden stressed, en dat zal met de bovenstaande kaart niet zoveel verschillen :)

Al met al, een top-kaart van AMD/Ati voor een mooie prijs, (nu 200 dollar, straks 169 dollar). Het mocht eens tijd worden dat Nvidia weer eventjes van de troon getild wordt :P
Staat in één van die reviews dat de fanspeed heel de tijd op 20% (ongeveer 1300rpm of zo) staat. Rivatuner herkent de kaart nog niet, dus daar zal later wel veel verandering in komen.

[Reactie gewijzigd door MacPoedel op 22 juli 2024 19:25]

Nou sorry hoor maar ik vind 2 a 3 a 4 FPS niet veel beter hoor.
Misschien zul je de 4870 met de 9800gtx moeten vergelijken..
Daarnaast moet er vooral op de prijs gelet worden, anders moet je het maar vergelijken met een kaart met dezelfde prijskaartje :)
Jammer dat onder linux nvidia een beter keus is. Als ze nu eens flink aan de opengl implementatie zouden trekken...
heb je hun laatste driver releases gevolgd?
er zijn ENORME verbeteringen geweest onder linux, dus dat is geen excuus

EDIT// als je kijkt naar de scores die ze behalen bij Quake4 snap ik niet wat er mis is met de opengl implementatie

EDIT2//

over de Opengl implementatie

http://www.phoronix.com/s...ge=article&item=897&num=1

check vooral blz 3&4, linux is namelijk sneller dan windows
en dit is met drivers van enkele maanden geleden

[Reactie gewijzigd door de_nille op 22 juli 2024 19:25]

Ik heb een ATI kaart in mn linux bak met de laatste drivers dus ik weet waar ik over praat. Het waren idd hele mooie verbeteringen. Ik hoop dus dat ze zo doorgaan en idealiter flink aan de opengl sleutelen. Volgend jaar haal ik een nieuwe pc dus we zullen dan zien.
Welke kaart en welke driver gebruik je dan?
Als je een open source driver gebruikt dan kan de 3D performance een beetje achter lopen ja, maar ook niet voor lang meer, aangezien AMD zich behoorlijk heeft gecommit aan Open Source.
Hiernaast geldt dat voor een beetje recente kaart, de performance en de stabiliteit wel flink in orde zouden moeten zijn.

Hiernaast zou ik niet te hard roepen dat nvidia de betere keus is. Ik heb inmiddels op Ubuntu 8.04 en Archlinux de ervaring opgedaan dat mijn GeForce 8600M GT met 512MB geheugen vrij grote moeite heeft met het renderen van compiz en compiz fusion op acceptabele framerate; deze zakt vrij vaak onder de 30fps grens. terwijl mijn hardware dar moeiteloos aan zou moeten kunnen. Het ligt ook niet aan de hardware zelf aangezien deze onder windows redelijk te gebruiken is voor games.

Conclusie: Als ik nu een nieuw systeem zou moeten kopen zou ik zeker weten voor een kaart van AMD gaan.

[Reactie gewijzigd door Jeanpaul145 op 22 juli 2024 19:25]

Ik vond het uiteindelijk toch tegenvallen met mijn HD3870 - weliswaar zijn de ati-drivers er flink op vooruit gegaan, maar de opengl-prestaties blijven minder dan bij nvidia. Verder vond ik de prestaties in 2D veel minder en gaven driver-updates soms problemen met X. Ben overgestapt naar een 8800GT en alles werkt weer een stuk beter.

Behalve de beeldkwaliteit misschien, die is bij ati wel goed :).
Dit is een kwestie van tijd. Sinds ATi de specificaties openbaar maakt is er een team met volledig open source drivers bezig. Ze hebben zelfs net 3D ondersteuning voor de HD2xxx serie voor elkaar gekregen alhoewel ze maar een korte tijd bezig zijn. Naar mijn mening zal ATi's uiteindelijk out-of-the-box het net zo goed doen als nVidia het doet met hun binary only driver.

-edit: er is al ondersteuning voor de 4850 met open source drivers! (bron) Nog geen ondersteuning voor 2D of 3D acceleratie, maar toch: hoe snel!

[Reactie gewijzigd door Cristan op 22 juli 2024 19:25]

beter lijkt me. ook aan de nvidia drivers is nog wel wat mis onder linux.
en de ATI OSS drivers in de kernel, of al mee gecompileerde module bijvoorbeeld zou gewoon ideaal zijn. dat krijg je met binary only niet voor elkaar.
hopelijk binnen een jaartje.

[Reactie gewijzigd door Countess op 22 juli 2024 19:25]

Je stelt de verkeerde vraag. Een correctere vraag zou zijn: waarom zou je met je high-end hardware geen 3D rendering mogelijkheden mogen hebben? Steeds meer games draaien op Linux (zij het onder Wine, zij het natively zoals de games van Id software bijvoorbeeld), en er zijn genoeg renderprogramma's zoals Maya beschikbaar onder Linux.
Geen goede driver ontwikkelen voor Linux zou het platform (om maar te zwijgen over de hardware zelf...) behoorlijk kreupel maken, lijkt me.
Gelukkig beginnen steeds meer fabrikanten dit ook in te zien (zoals AMD in dit geval).
Multi-boot wellicht?
En er zijn spellen die prima werken onder Linux en nog een heleboel extra spellen die met Wine ook (prima) werken.
Anoniem: 48989 @Jogai20 juni 2008 09:18
Waarom klaag je over de drivers onder linux?

1. Ze zijn serieus verbeterd
2. Als je zo een kaart steekt, is het niet om te zitten devven. Als je wil gamen is Windows nog steeds het OS.
euhm.. 2. blender en opengl development.
Anoniem: 80922 19 juni 2008 19:19
179W in idle, zit op deze kaart geen hybrid sli variant waarmee dat verbruik ver naar beneden kan? Vind het nogal veel eigenlijk. Ik heb mijn videokaart veel meer idle dan onder load.
De videokaart zal maximaal ongeveer 120 Watt gaan gebruiken.
En als PowerPlay eenmaal in de drivers zit dan zal de videokaart in Idle minder dan 10 Watt gaan verbruiken wat heel laag is. ;)

Zie ook dit artikel van Wikipedia: http://en.wikipedia.org/wiki/ATI_PowerPlay
Als ik de review op pc perspective bekijk lijkt mij dat Powerplay er al in zit. In het tweede plaatje is de GPU idle: 160 MHz, 76”C, fan speed 14%. De laatste pagina laat tussen idle en load een verschil van 106 W zien, maar dat is voor het hele systeem. Ook de cpu, geheugen en moederbord dragen hieraan bij lijkt me. Het is mij nog niet duidelijk wat nu het echte verbruik van de kaart is in load en idle. 10 W zou natuurlijk erg mooi zijn.

[Reactie gewijzigd door Bonez0r op 22 juli 2024 19:25]

179W is voor het hele systeem e :+
dat is van het hele systeem hé
Iedereen hier op Tweakers weet ook dat 179W voor het hele systeem is, op een paar enkelingen na. Huh, voor hybrid CROSSFIRE dus (en dat is géén variant op SLI), moet je moederbord vooral voorzien zijn van een grafische chip; en dat staat dus volledig los van deze HD4850, nuh?

Is dit informatiever?
Anoniem: 80922 @Th1x4nG19 juni 2008 23:26
Nou ik dus niet, omdat ik nog een 2600+ gebruik met een 300 watt voeding. En ik hoorde almaar verhalen over toenemende tdp's en mensen met 500 W voedingen dus dan is het niet zo raar dat ik denk dat het totale verbruik dik over de 300 watt is gegaan in die 5 jaar. Ik ben pas de laatste 6 maanden weer wat actiever op tweakers.net.

Bovendien gaat er tussen onze communicatie iets goed verkeerd. Want ik weet dat er bij hybrid sli/hybrid cf dan op je moederbord een grafische chip moet zitten. Ik vind crossfire een variant op sli omdat je bij zowel SLI als CF met meerdere gpu's op pci expres sloten werkt. Aangezien nvidia hybrid SLI heeft vraag ik dus of er een variant daarop is voor ATI om het verbruik te drukken. Ik vind niet dat Hybrid Crossfire een variant op SLI is waar jij mij nu weer op bekritiseert. Dat had ik misschien in die eerste post wat duidelijker op moeten schrijven maar het leek mij voor de hand liggend. En het verbruik gaat omlaag icm zon onboard GPU. Dan staat het toch niet los van het verbruik van deze kaart?

En dat je wordt weggemod omdat je op onterechte kritiek reageert zegt weer genoeg over de modders hier.

[Reactie gewijzigd door Anoniem: 80922 op 22 juli 2024 19:25]

Op dit item kan niet meer gereageerd worden.