Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties

AMD heeft woensdag officieel zijn ATI Radeon HD4800-serie ge´ntroduceerd. Na de HD4850 is daarmee ook de HD4870 verschenen waarmee de fabrikant zich op het hogere deel van het mainstreamsegment richt.

Vorige week donderdag dook plotseling de Radeon HD4850 op nadat AMD had besloten de kaart een week eerder uit te brengen. Uit de reviews viel op te maken dat de prestaties van deze kaart op ongeveer gelijke hoogte liggen als die van de Geforce 9800GTX, waarvoor Nvidia dan ook prompt een prijsverlaging aankondigde. Woensdag introduceerde AMD dan eindelijk officieel zijn HD4800-lijn, die is gebaseerd op de RV770-chip.

De RV770 is net als de vorige grafische chip van AMD, de RV670, op 55nm gebakken. De die-grootte is echter wel toegenomen, en wel van 190mm² naar 260mm², en ook het aantal transistors is verhoogd, van 666 miljoen naar 956 miljoen. Verder heeft AMD zijn nieuwe gpu van 800 shaderprocessors voorzien waar de RV670 het nog met 320 shaderprocessors moest doen, en is het aantal texture-eenheden gestegen van 16 naar 40.

Bij de Radeon HD4870 heeft AMD de kloksnelheid op 750MHz gezet, terwijl de 256bit-geheugenbus 512MB gddr5-geheugen aanspreekt dat op 3,6GHz draait zodat de geheugenbandbreedte op 115,2GB/s komt te liggen. De rekenkracht zou op 1,2TFlops liggen terwijl de kaart toch maar 160W trekt. Het aantal gigaflops per watt is in vergelijking met de Radeon HD2900 verviervoudigd, claimt AMD, en dat mocht ook wel want de R600 stond niet bepaald bekend om zijn zuinigheid.

RV770 close AMD RV770 2 AMD RV770AMD HD4870 2 AMD HD4870

Belangrijker dan de verbeteringen ten opzichte van de Radeon HD3800-lijn zijn misschien nog wel de prestatieverschillen ten opzichte van de concurrerende kaarten van Nvidia. De HD4850 heeft al laten zien het op te kunnen nemen tegen de Geforce 9800GTX. Volgens de reviewers presteert de HD4870 op zijn beurt beter dan de komende Geforce 9800GTX+ en kan de kaart zelfs de GTX260 bijbenen en bij sommige benchmarks inhalen. In Crossfire-opstelling zijn twee HD4870-kaarten zelfs sneller dan de Geforce GTX280, terwijl hier toch 50 dollar minder dan voor de GTX280 voor op tafel gelegd hoeft te worden, volgens Anandtech. De conclusie luidt dan ook dat AMD niet de snelste single-gpu-kaart van dit moment biedt, maar met de HD4850 en de HD4870 wel een zeer aantrekkelijke aanbod heeft in het prijssegment tussen grofweg 145 en 250 euro. De grote vraag zal echter zijn of AMD in staat is de HD4870 in grote getale te kunnen leveren, aangezien gddr5-geheugen relatief schaars is. Daar hoeft bij de HD4850-kaarten niet aan getwijfeld te worden, aangezien die van het goed verkrijgbare gddr3-geheugen gebruik maken.

*Reviews

Reacties (76)

Reactiefilter:-176067+123+213+31
Moderatie-faq Wijzig weergave
In hoeverre zijn we bezig met de race van de meeste FPS-en, terwijl we die eigenlijk helemaal (in ieder geval in Ŕn voor 99,9% van de gevallen) niet nodig hebben?

Als ik de (moeder aller) review(s) van frankknopers lees, dan sta ik te kijken wat de "simpele" 4850 al presteert. Meer dan genoeg FPS voor het gros der spellen bij voorwaar geen mislijke resolutie. Alleen Crysis en Call of Juarez zou wat meer FPS willen. Maar de test is gedaan met een Club3D zonder enige OC. In een CF opstelling komt alleen Crysis nog wat te kort.

Wil dat zeggen dat eenieder een fout (maar volgens velen heel erg mooi) geprogrammeerd spel tot de defacto standaard gaat verheffen en daar zijn computer op gaat inrchten? Als je die prijs bij de kosten van het spel optelt, wordt het wel een heeeeeeel erg duur spel.

Voor mij moet mijn computer gewoon doen wat ik ermee wil doen. Het zal mij dan ook niet echt boeien dat er bijv een NVidia kaart is die wat meer FPS zou leveren of niet. Ik zie door AMD/ATI fantastische kaarten op de markt gebracht worden die in zeer veel gevallen (4850) voldoen of in vrijwel alle gevallen (4870) voldoen. Nemen we daar nog eens bij dat de kaart net uitgebracht is waardoor de optimalisatie ver van optimaal is, dan zal in de komende maanden naar mijn idee een spel als Crysis zelfs goed gaan draaien op een 4870 (dus met betere drivers). Dan heb ik nog niet eens meegenomen dat de kaart ook nog wel wat opgeschroeft kan worden door OC-en.

Mijn stelling: pas op voor hypes, waarom een CF-opstelling of een X2 van de 4870. Met eentje zou IK in ieder geval zeer tevreden zijn. En het is nog betaalbaar ook, zelfs nu al.
Helemaal mee eens, ik heb het idee dat grafische ontwikkelingen op software gebied trager gaan als de grafische ontwikkelingen op HW gebied. Hetzelfde geld eigenlijk voor CPU met die quadcores (die eigenlijk ook voor een habekrats te koop zijn) en snelle dualcores kan je gewoon alles gemakkelijk draaien, zonder dat je een top of the line CPU koopt. "vroeger" was dat wel wat anders, dan kocht je het snelste wat er was en 6 maanden later waren de nieuwste spellen al niet meer vooruit te branden. Mijn systeem is momenteel drie jaar oud en kan nog steeds redelijk meekomen (zolang ik HL2, teamfortress etc nog lekker kan draaien ben ik tevreden), OK ik zit er over te denken om te upgraden maar heel erg noodzakelijk is het eigenlijk nog niet en als ik die lage prijzen zie die dan ook nog dalen wacht ik nog wel eventjes.
Vroeger kocht ik alles puur en alleen op basis van snelheid, nu koop ik meer op basis van zuinigheid/gecombineerd met snelheid.
De enige grote bottleneck is naar mijn mening de Harddisk, maar met SSD komt daar ook verbetering in, nu nog die prijzen naar beneden.

[Reactie gewijzigd door een_naam op 26 juni 2008 09:58]

Auw.. pijnlijk voor Nvidia :)

De moederborden voor Ati (X48/X38) zijn ook nog is een stukje goedkoper als die voor de Nvidia kaarten (780i/790i)
Maarja het mocht ook wel een keer na al die moeilijke jaren voor Ati.

De 4870x2 gaat ook nog is gehakt maken van de gtx280, als twee 4870 in cf al hoger scoren op 1 kaart kunnen ze sneller met elkaar communiceren dus wie weet pakt Ati de prestatie kroon ook wel over :)

Mijn nieuwe kaart word of de 4870 of een cf 4850.
Nu maar hopen dat ze de vraag aan kunnen, en dat we geen 8800gt taferelen gaan krijgen.

[Reactie gewijzigd door pennenlikker op 25 juni 2008 18:36]

2 HD4850's zijn ook ongeveer even snel als ene GTX280 mits op 24" resoluties.
wel grappig ja 2 4870s in crossfire zijn denk ik zelfs goedkoper dan 1 gtx 280 iniedergeval wel als je een x48 of x38 tegen over een 780i/790i zet als moederbord.
maar goed de 4870 is een hele verbetering met zijn voorganger de 3870. de min puntjes zijn aangepakt en voor zijn prijs is het een zeer leuke kaart. ik denk dat de prijs de komende tijd nog redelijk omlaag zal gaan zodra de vooraad 38xx kaarten uitverkocht zijn.
Het enige wat ik nog wel zou vereisen is de energie besparende functie, want zonder dat gaat zo'n 4870 Crossfire setup je in idle verschrikkelijk veel nutteloos verbruik opleveren. Het mag dan zo zijn dat de GTX280 veel verbruikt, het equivalent daarvan in prestaties, HD4850 in SLI, verbruikt evenveel...
4870X2 wordt intresanter, deze zal sideport hebben voor nog betere Crossfire support en dus betere performance dan 2x 4870 :)
Wow... Ik denk dat dit toch wel een kleine schok is voor Nvida...

Op de 4850 hebben ze nog wel een antwoord met de 9800GTX+ die ook op 55nm wordt gebakken. (Waarbij je dan wel moet aantekenen dat van die aangekondigde prijsverlagingen op dit moment nog niets te merken valt, terwijl de 4850 al volop voor die lage prijs te vinden valt. )

Maar de 4870 is gewoon makkelijk evensnel als de GTX260, terwijl die laatste veel duuder is. Daar hadden ze waarschijnlijk niet op gerekend... Ben benieuwd hoe men daar op gaat reageren.... De 4870 is door een kleiner process, Ún met GDDR5 met een 256bit bus een veel goedkoper te produceren ontwerp is dan het GTX260 ontwerp. Dus het is niet zo dat NVidia daar makkelijk op prijs kan gaan concurreren... En het ontwerp is net uit, dus voorlopig mag je nog geen update verwachten.

Lijkt er een beetje op dat NVidia met de GT200 hun eigen R600 hebben?
[reply] Door Allubz, woensdag 25 juni 2008 21:59
De auteur van dit artikel doelt er denk ik op dat het toegenomen verbruik goed wordt gemaakt door een veel grotere toename in performance.
Ik ben het met je interpretatie eens, maar ik zag het er niet in...
De review van frankknopers, kijk, zo moet het! :)
[reply] Door Toontje_78, woensdag 25 juni 2008 23:28
Eindelijk als in langverwacht, slimmeke. Denk Sinterklaas.
[reply] Door Dutchman01, donderdag 26 juni 2008 03:30
Al met al helemaal niet slecht van ATI, ;)
Nou, ook ik was blij verrast door het rode dat ze gewoon F*ckin 800 SP en 40 TMUs (twee en een half keer zoveel als de RV670, dus +150%) er in hebben weten te proppen met maar 35% meer oppervlak en 43% meer transistors. Zeker omdat de geruchten sinds Maart vrij lang 480 SP en 32 TMUs waren. Gelukkig heeft de onzekerheid dit keer niet twee keer zo lang geduurd...
[reply] Door een_naam, donderdag 26 juni 2008 09:56
Helemaal mee eens, ik heb het idee dat grafische ontwikkelingen op software gebied trager gaan als de grafische ontwikkelingen op HW gebied.
Interessant punt. Voor de hand ligt: Twijfel van ontwikkelaars om DX10 te gebruiken, pc spellen ontwikkelen is te duur duur geworden, etc.

Maar ik denk ook dat DX10 gewoon niet cool genoeg is vergeleken met DX9. Grafische kaarten blijven gefocuste pijplijnen aangedreven door rasterizer engines (driehoekjes tekenen), waardoor ontwikkelaars aan die driehoekjes veel extra detail en animaties moeten toevoegen, om het weer nog mooier en geloofwaardiger te maken (Crysis zit er vol mee). En de rek is daar een beetje uit. Het is een wonder dat het 10 jaar lang zo goed gewerkt heeft.

Praat je over Ray Tracing, dan kan het weer interessant worden. Op 12 Juni 2008 heeft Intel laten zien dat ze Enemy Territory: Quake Wars real-time en speelbaar kunnen renderen met een nog erg jonge ray tracing engine op niet gespecialiseerde hardware (4 quadcore CPUs).

De discussie is bij Beyond3D.com momenteel gaande over wat de jonge ray tracing engine nog allemaal moet leren, om op hetzelfde detail te komen als de rasterizer engine. Maar wanneer dat lukt, kosten PC spellen opeens een stuk minder om te maken!
:Y)

Ik zeg wanneer, omdat Intel ondertussen bezig is met Larrabee, een ~80-core co-processor op ~3 GHz ongeveer. Larrabee zou wel eens heel efficient zou kunnen zijn in het draaien van die engine. Het grappige is dat CPUs (te flexibel = general purpose) en GPUs (teveel gefocust = fixed function) naar elkaar toegroeien wat dat betreft. Dezelfde co-processor is ook zeer goed te gebruiken voor industriele en medische toepassingen, zolang de berekeningen maar parallelliseerbaar zijn.
[reply] Door een_naam, donderdag 26 juni 2008 09:56
De enige grote bottleneck is naar mijn mening de Harddisk, maar met SSD komt daar ook verbetering in, nu nog die prijzen naar beneden.
Klopt, ik wacht ook voor ik ga upgraden (SATA IV?), maar misschien nog wel langer:
SED of OLED komt in 2009, een platte toekomst-tv met ouderwets hoog contrast.
STT-RAM (of een afgeleide) komt in 2011, tien keer zo snel geheugen (access time 0,5 ns).
De tijd vliegt. 8)7 Maar ik vind dat je het moet kunnen voelen als je je PC upgrade, in alles, anders vind ik het zonde. We leven al in zo'n wegwerp-maatschappij...
[reply] Door Theadalus, vrijdag 27 juni 2008 14:15
Wat nou overdreven? :?
De GTX 260 en GTX 280 zijn inderdaad zuiniger dan 4850 CF en 4870 CF. Maar dat is puur omdat nVidia wel moest met zulke grote chips. Ze zouden anders veel te heet worden. ATi hoefde dat deze ronde niet, maar wees gerust dat ze bij de volgende "die shrink" beter zullen letten op de kleintjes (lekstroompjes).

Het is ook niet helemaal eerlijk om 2 borden te vergelijken met 1, wat betreft stroomgebruik. Maar de GPU trekt wel de meeste stroom van alle componenten. Ik ben benieuwd of de R700 (2xRV770) nu echt een consistente multi-GPU oplossing gaat worden, in plaats van CrossFire-op-een-stokje. :O

[Reactie gewijzigd door sunsmountain op 28 juni 2008 01:26]

Inhoudelijke reactie op een naar mijn mening te gehaast nieuws item:
Woensdag introduceerde AMD dan eindelijk officieel zijn HD4800-lijn, die is gebaseerd op de RV770-chip.
Eindelijk? Mooi op tijd juist, vergeleken met de launch van X1800 (R520), die 6 maanden te laat was, of de X2900XT (R600), die nog steeds 3 maanden te laat was. We hebben het hier over 1 week te laat als je uitgaat van de 4850, dus om dan "eindelijk" te gebruiken...
...en is het aantal texture-eenheden gestegen van 16 naar 40. Dit alles zou volgens de chipfabrikant resulteren in een toename van de bandbreedte van 72GB/s naar 115,2GB/s.
Die hele voorgaande paragraaf vertelt niets over de werkelijke reden waarom de bandbreedte toeneemt naar 115,2 GB/s voor de 4870: GDDR5 in plaats van GDDR3 bij dezelfde geheugen kloksnelheid als die van de 4850. Als je een mogelijk gevolg neerzet, zet het dan op de juiste plaats.
De rekenkracht zou op 1,2TFlops liggen terwijl de kaart toch maar 160W zou trekken.
Nee, die (theoretische) rekenkracht ligt gewoon op 1,2 TFlops. 160W is gewoon de TDP (Thermal Design Power) waar de chip mee ontworpen is. Zucht, dat misbruik van de onvoltooid verleden toekomende tijd... Dit zijn geen hypothesen, maar feitelijke ontwerpkeuzes.
De prestaties per watt zijn dus aanzienlijk toegenomen, claimt AMD, en dat mocht ook wel want de RV670 stond niet bepaald bekend om zijn zuinigheid.
Het is logisch dat de prestaties per watt toenemen met elke nieuwe generatie. Bijna alle GPUs voldoen hier aan. Wat betreft energiezuinigheid (neem ik aan?), lijkt de auteur wederom niet door kennis gehinderd. Hij verwijst naar anandtech, laten we kijken:

Anandtech
Idle / Load
HD 3870 (RV670): 142.2 W / 211.7 W (de meest zuinige)
HD 4850 (RV770): 158.9 W / 227 W
HD 4870 (RV770): 203.7 W / 278.6 W

Tech Report dan:
Idle / Load
HD 3870 (RV670): 104 W / 212 W (de meest zuinige)
HD 4850 (RV770): 127 W / 236 W
HD 4870 (RV770): 156 W / 274 W

?? 4870 presteert beter dan zijn voorganger, maar zuipt ook flink wat meer stroom, zo'n 50 a 60 W meer.
Ben het met al je punten eens, alleen wat commentaar op het laatste:

De auteur van dit artikel doelt er denk ik op dat het toegenomen verbruik goed wordt gemaakt door een veel grotere toename in performance. De r670 wordt als een grootverbruiker gezien en dat kan nu worden geconcludeerd naar het feit dat de R770XT aanzienlijk veel beter presteert voor maar een kleine vermeerdering van verbruik.
Puntje bij paaltje komt het er wel op neer dat pc's steeds meer en meer stroom vreten, hoe je het ook wend of keert. Moet je daar zo blij mee zijn, in deze tijden ?
Als je 50% meer transistors met ongeveer hetzelfde productieproces ( 55nm en 8 maanden na RV670), op een chip zet, dan kun je toch niet anders verwachten dat met bijna dezelfe marchitectuur, wel beter moet presteren tegen een hoger stroomverbruik! Ik moest ook 2x kijken of die getallen wel klopten, maar het ding slurpt stroom navenant het presteert, So what? Altijd een stuk beter dan GTX280, qua (Prijs x Power) / Prestatie.
Qua prijs en prestaties heeft AMD hiermee een hele mooie kaart in handen.

Alleen jammer dat 'ie behoorlijk veel energie vreet in idle, terwijl AMD volgens mij bij de 3870 nog zo trots liep te verkondigen dat de kaart zo zuinig was in idle en dat deze waarde nog omlaag zou gaan bij de volgende generaties.

Nu verbruikt de 4870 gewoon 60W meer als de 3870 in idle, en verbruikt zelfs het meest van alle kaarten die er zijn...

[Reactie gewijzigd door knirfie244 op 25 juni 2008 18:09]

Yep, Powerplay voor de 48xx GPU's is in de Catalyst drivers nog niet ondersteund. Moet dus nog komen. En dan hebben we eindelijk die fantastische idle consumpties :)
ik heb het idee dat op de hd4870 de power saving features nog niet werken. want de hd4850 is een heel stuk zuiniger idle.
en alle gpu-z screens en CCC screens zie je dat de de default clock en de gpu clock altijd gelijk zijn voor de hd4870, terwijl ze als de energy besparende features aan staan zou daar een verschil in moeten zitten.
wacht dus event tot de officiele drivers uit komen en kijk dan nog een keer naar het idle verbruik. want het verschil tussen de hd4850 en hd4870 is echt veel te groot om door het verschil in clocksnelheid te komen, en gddr5 is ook weer net wat zuiniger als gddr3.
Power consumption van de HD4*** serie vind ik een beetje vreemd, werd er voor de introductie juist niet gezegd dat een van de troeven van AMD was dat deze kaart erg weinig in idle modus gebruikte? Zoals in de bovenstaande test blijkt, gebruikt de GTX280 in idle modus nog minder 8)7
ATi Powerplay werkt nog niet in de HD4xxx serie. Misschien dat driver 8.7 dit wel met zich mee brengt. En dan zal ook het verbruik stukken minder zijn.
Je roept nu wel dingen, maar je zet er geen bron bij..
kijk maar naar de gpu-z en CCC screens, daar zie je dat default en current clocks gelijk zijn, terwijl dat bij de hd4850 en de hd3xxx serie niet zo is.
ook het idle verbruik is van de hd4870 is VEEL te hoog vergelijken bij de hd4850. veel hoger als het clock verschil kan verklaren, en dat terwijl gddr5 zuiniger zou moeten zijn.

[Reactie gewijzigd door Countess op 26 juni 2008 18:38]

yes! Nvdia en ati gaan eindelijk weer eens ongeveer gelijk op (op het moment in het voordeel van ati) hopelijk blijven ze mooi gelijk opgaan voor de komende tijd , dan kunnen we goede bang for our buck verwachten.
Nou dat zal van korte duur zijn als ze ook een GTX280X2 uitbrengen Nvidia blijft denk ik toch de beste performer op dit gebied.

Ik ben zeker geen Nvdia fan maar ATI kan goed concureren tegen het grafische geweld, ATI is eigelijk al een aantal jaren Big Bang for the Buck net als dat AMD is.

Deze 4870 gaat denk wel mijn nieuw aanschaf worden aangezien ik nu met een 3850 draai is dit voor het geld zeker ruimschoots de moeite waard om weer eens wat meer frames op mijn scherm te toveren.

Hoop alleen dat mijn E6600 2.4 @ 3.2 dit nog kan bijbenen :)

[Reactie gewijzigd door edje5555 op 25 juni 2008 19:10]

Een GTX280 GX2 (zo zal die dan eerder heten) zal er niet komen. Lijkt me technisch onmogelijk om zo'n giga chip uit te voeren in dual configuratie. Het verbruik van 1 zo'n chip is al 238 watt, laat staan als je er 2 op 1 kaart doet, het moet ook nog gekoeld worden en gevoed :)
Al zou het qua verbruik kunnen (chip flink onderclocken en op 55nm bakken), dan nog zou het niet gaan, want nVidia had al flink moeite volgens geruchten om zo'n grote chip op een kaart te plaatsen, wegen een erg grote core, en de 512bit bus (heel veel sporen op de print waarmee je niet makkelijk weg kan komen). Theoretisch kan alles, maar zoals hierboven al vermeld, je kunt 2 van die chips nooit koelen, tenzij je het met waterkoeling doet (is een flink nadeel aangezien de kaart dan erg duur word, en niet iedereen een wc setup heeft waar 300-400 watt mee gekoeld kan worden.
Lucht koeling is zeker een no-way aangezien je het nooit kan koelen, tenzij je ze een gigantische koeler maken, die dan minimaal 3 sloten in beslag zou moeten nemen.

Zo'n kaart zal in ieder geval uit 2 pcb's moeten bestaan, aangezien full lenght nog niet lang genoeg zal zijn. Daar heb je meteen het nadeel, want je kan geen grote koel constructies plaatsen zonder de pcb's ver uit elkaar te plaatsen.

Oftwel, 2 pcb's, dure koeling en niet sneller dan GTX 280 in SLI (omdat je naar mijn mening nooit 2 van die chips zo hoog kan clocken als de GTX 280 aangezien de 9800GX2 ook lager geclockt is als de 9800GTX terwijl die cores al veel minder verbruiken), terwijl hij nog meer kost ook om te maken en dan heb je nog enorme research kosten om zoiets te ontwikkelen.

Oftwel, aan zoiets gaan ze echt niet beginnen, doen ze het wel dan komt hij toch te laat als ati in dezelfde vaart doorstoomd naar de RV870 als van de RV670 naar de RV770.

nVidia bakt de 55nm G200 core nog, en zegt dan vaarwel tegen grote cores, zijn ze toch nog de laatste gpu bakker met een gigantische gpu (is groter dan de R600, dus denk dat het wel een gpu is dat in de top terecht is gekomen).

SLI schaalt helemaal niet slecht, dus waarom niet ook de weg inslaan van multi gpu kaarten?
Vroeger, toen NVida en ATI beiden ongeveer gelijk snelle en geprijsde kaarten leverden, was het wel interessant om net altijd iets sneller te zijn.

Maar ik denk dat het prijsniveau van de GTX280 (en een eventuele X2) dusdanig is, dat mensen daar niet meer naar kijken. Ik kan me zelfs voorstellen dat het een negatieve invloed heeft; dat mensen denken dat Nvidia niet op de prijs let, en dus een dure reputatie krijgt...
Het is ook al zoveel gezegd dat het niet echt heel interessant is wie nou de beste kaart in handen heeft. Uiteindelijk gaat het erom welke potentiele klant, voor NVIDIA of AMD/ATi , welk budget heeft. De klant zal dus aan de hand van zijn of haar budget gaan kijken naar de beste prijs/prestatie en dan zullen ze dus nu met deze 2 kaarten, de 4850 en 4870, een behoorlijk verschil gaan maken in de markt lijkt mij.

Helemaal als de klanten Nederlanders zijn. Iets met kwartje en 1e rij :)
Waren dubbeltjes :)
Het zijn tegenwoordig duurdere tijden he :P
Nederlands of niet, als je even veel geld wilt betalen voor minder of meer voor hetzelfde ben je gewoon niet goed snik
"Woensdag introduceerde AMD dan eindelijk officieel zijn HD4800-lijn, die is gebaseerd op de RV770-chip."

staat er wel een beetje lullig, hoezo eindelijk?


"De prestaties per watt zijn dus aanzienlijk toegenomen, claimt AMD, en dat mocht ook wel want de RV670 stond niet bepaald bekend om zijn zuinigheid."

foutje? ding gebruikt minder als 8800gt bvb.
HIj zou aanvankelijk al een week eerder uitkomen, vandaar eindelijk :)
"De prestaties per watt zijn dus aanzienlijk toegenomen, claimt AMD, en dat mocht ook wel want de RV670 stond niet bepaald bekend om zijn zuinigheid."

foutje? ding gebruikt minder als 8800gt bvb.
Dat een andere kaart/chip op de markt nog meer verbruikt wil niet zeggen dat deze zuinig is ;).
Misschien een beetje rare vraag, maar waarom wordt hier op tweakers altijd naar AMD gerefereerd en niet naar ATI? Zolang het ATI merk nog steeds wordt gebruikt zou het gewoon ATI moeten heten. Hotmail wordt toch ook niet microsoft email genoemd ofzo ?!
"microsoft heeft een niuwe hotmail feauture uitgebracht"
"amd heeft een nieuwe ati kaart uitgebracht"

ATI is volgens mij een onderdeel van AMD dus het kan toch wel?
Inderdaad, ze zijn in 2006 gefuseerd voor een bedrag van 5,4 miljard dollar. Ze gaan nu soms onder de naam DAAMIT (ATI + AMD) verder.

Ook dacht ik dat het GDDR5 geheugen een grotere impact zou hebben. Natuurlijk is de HD4870 wel een stukje sneller dan de HD4850, maar volgens mij komt dit meer door de hogere clock op de core.

Nu valt nog te bezien of de prijzen van deze kaart nog drastisch omlaag gaan zoals het geval was bij de HD38x0. Het GDDR5 geheugen is namelijk relatief duur vergeleken met GDDR3 en GDDR4. Misschien was het wel een nog slimmere zet geweest om erg goed GDDR3 geheugen op de HD4870 te zetten en zo de kaart eerder op de markt te brengen zonder al te veel prestatieverlies. Natuurlijk is het GDDR5 geheugen een stap in de goede richting aangezien er waarschijnlijk nu meer gebruik van gemaakt zal worden.

Maar zo zie je maar weer: 'Elk nadeel hep z'n voordeel' :P .
In Crossfire-opstelling zijn twee HD4870-kaarten zelfs sneller dan de Geforce GTX280, terwijl hier toch 50 dollar minder dan voor de GTX280 voor op tafel gelegd hoeft te worden, volgens Anandtech.
Uit de verscheidene benchmarks is de HD4870 in CF wel sneller dan de GTX 280, erg mooi om te zien. Maar men moet hier wel rekening mee houden dat je wel een CF moederbord moet hebben, in tegen stelling tot de GTX 280.

Nu maar is wachen tot er betere drivers komen voor beide zijdes en dan nog maar is kijken hoe de prestatie zich verhoudt tot de prijs. :)

[Reactie gewijzigd door Bolletje op 25 juni 2008 20:40]

Heel veel borden hebben tegenwoordig ondersteuning voor crossfire. De beste mobo's worden, naar mijn mening, op het moment gebasseerd op een Intel chipset. Je moet wel een budget versie uitzoekken als deze geen CF heeft. Het is bijna standaard geworden. Het voordeel hier van is, is dat je later altijd nog een kaart er bij kan prikken als je een ATI hebt. Met een Nvidia heb je een veel duurdere chipset van Nvidia nodig die ook nog eens veel meer stroom verbruikt.
soms is het ook wel raar ja
Ik zou zelf de naam AMD-ATI gebruiken
Dan is het direct duidelijk

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True