Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties

Voorafgaand aan AMD's introductie van de ATI Radeon HD4870 aanstaande woensdag, hebben fabrikanten als Asus en MSI al hun kaarten op basis van de RV770 geopenbaard.

Waarschijnlijk is de vroege presentatie het gevolg van de onduidelijkheid die ontstond bij de introductie van de Radeon HD4850. Die zou ook woensdag officieel uitkomen, maar AMD besloot deze te vervroegen naar vorige week donderdag, waarschijnlijk op verzoek van grote afnemers. Onder andere Asus, Sapphire, MSI en Powercolor hebben sindsdien beide kaarten aan het grote publiek voorgesteld. De HD4870-modellen van de fabrikanten volgen het referentieontwerp van AMD. Asus toont naast zijn HD4870-model ook een HD4850-kaart die van 1GB-geheugen is voorzien in plaats van de 512MB die AMD's ontwerp voorschrijft.

De standaardkloksnelheid van de HD4870-kaarten is gesteld op 750MHz, en er is 512MB gddr5-geheugen aan boord dat op 900MHz loopt wat effectief een snelheid van 3,6GHz oplevert. Alleen Powercolor wijkt hier vreemd genoeg vanaf met een lagere kloksnelheid van 725MHz. Uit de pricewatch valt op te maken dat de kaart verkrijgbaar is voor een prijs die tussen de 250 en 295 euro ligt. De eerste weken zal de oplage volgens Fudzilla nog beperkt zijn, vanwege een tekort aan gddr5-geheugen, maar daarna zou de levering op gang moeten komen. Hoe de prestaties van de kaart zich verhouden tot die van de Geforce 9800GTX en de Geforce GTX260, die niet geheel toevallig eveneens deze week beschikbaar komt, zal woensdag blijken als de uitgebreide reviews binnen beginnen te druppelen.

Asus Radeon HD4870 MSI Radeon HD4870 Powercolor Radeon HD4870
Moderatie-faq Wijzig weergave

Reacties (83)

ik vind het mooie kaarten. ze zien er welliswaar bijna het zelfde uit als hun voorgrangers. dit doordat ze het zelfde type reference koeler gebruiken. maar als je naar de prestaties gaat kijken merk je een enorm verschil. ik ben vooral blij dat amd de paar min punten die de 3870 had opgebied van FSAA en texture render units goed aangepakt heeft. ik ben erg beniewd naar de benchmarks van de 4870. ik verwacht dat de benchmarks van de 4870x2 zelfs nog indrukwekkender zullen zijn. dit omdat hij waarschijnlijk een stuk beter schaald dan zijn voorganger omdat men de plx chip die max 8gb/s aan kon vervangen heeft voor een systeem dat gebruik maakt van de bandbreete van het geheugen. en met het dikke hoog geclockte gddr5 zal het hem dan aan bandbreete niet mogen ontbreken lijkt me zo. 8gb/s vs iets van 120~160gb/s is een enorm verschil. de minpuntjes van de voorige generatie zijn voor zo ver te zien zeer goed aangepakt.
Ik wil graag weten hoe de kaart zich gedraagt in een dual view opstelling met een receiver tussen de PC en TV voordat ik er eentje aanschaf. Dit werkt bagger op m'n nVidia kaart. En iemand al ervaring met het 7.1 geluid van de 4000 serie?
voor de mensen die graag al wat benchmarks van de radeon 4870 willen zien hier heb ik een aantal links voor jullie. force3d een minder bekende semiconductor voor de radeon heeft een benchmark op hun sit staan waarin ze claimen dat hij ongeveer 20%

http://www.force3d.com/press/23_6_08_hd4870.html

sneller is als zijn kleinere broer de 4850 en hij zou ongeveer 5% sneller zijn dan de 3870x2. mooie resulaten dacht ik zo :)
dit vond ik via fudzilla

http://www.fudzilla.com/i...sk=view&id=8090&Itemid=65

de verkoop prijs valt ongeveer op 239 euro dit baseer ik op de prijs die alternate op hun site had staan voor de nog teverwachten club 3d versie van de kaart. alleen het aantal mhz voor het geheugen klopt denk ik niet helemaal effectief zou dit 3,6ghz moeten zijn

http://www.alternate.nl/h...Details.html?artno=JBXUOA

[Reactie gewijzigd door Mietex op 25 juni 2008 00:03]

Wanneer zou die HD4870x2 uitkomen? Dat zou kwa prijs de echte concurrent zijn voor de HD280.
HD280 bestaat niet vriend :) , dat is de GTX 280.

De X2 zal na een tijdje wel volgen, net als met de HD38x0.

Ik ben dan alleen benieuwd hoe deze zich gaat positioneren ten op zichte van de NVIDIA kaarten. Als ATI namelijk de prestatiekroon weet te bemachtigen dan zal ze hier ook wel het nodige geld voor vragen (gok ook op 500 euro aangezien het met de oude serie ook 2 keer zo veel was.)

En aangezien HD4870 in CF misschien wel beter presteerd dan een enkele HD4870X2 (en je hebt nu ook al tal van moederborden die CF ondersteunen) zal dit verkoop van de X2 niet begunstigen.

Zo zie ik vandaag ook bij Dollarshop.eu, dat je daar een enkele HD3870X2 voor 269 kan halen en twee voor 369. Voorheen betaalde je dat voor een enkele.

Ook valt te bezien of ATI ook kiest voor GDDR5 voor op hun X2. Met de HD3870X2 is namelijk ook gebleken dat ze kozen voor GDDR3 omdat dat misschien winstgevender was.

[Reactie gewijzigd door Bolletje op 23 juni 2008 23:29]

ik ga er wel vanuit dat ze gaan voor gddr5 met de 4870x2. de extra bandbreete bied een voordeel en zal de kaart de nodige horse power geven die hij nodig heeft. misschien dat ze later ooit een goedkopere versie zoals een 4850x2 met gddr3 uitbrengen dat zou kunnen. maar ati snijt zich zelf in de vingers als ze voor gdd3 gaan voor hun snelste model. met gddr5 zal hij veel beter schalen omdat als de data via het geheugen uitgewisseld word er meer bandbreete nodig is. ook is gddr5 invergelijking tot gddr3 niet zo veel duurder in de aanfschaf voor de fabrikant.
wat trekken deze kaarten aan wattage? Ik wil er wel 1 kopen maar met mn huidide 350W voeding lijkt me dat een kansloze zaak...

Toch wel een aardige shifting in het verbruik van de mid-range kaarten (4850). 'Vroega' was mn 7900gt een midrange kaart en die trekt het prima op mn 350w, en die was nog relatief duurder ook dan een 4850 nu.

[Reactie gewijzigd door Chefbierrr op 23 juni 2008 14:33]

Zover ik de technische specificaties op verschillende sites zo zie (google is your friend) trekt de kaart in load zo'n 150 watt. Idle is het vermogen vergeleken daarmee 'peanuts' (10 watt). Als je verder een redelijk energiezuinig systeem hebt (niet meer dan 200 watt onder full load dus) is het te doen .... maar de vraag is dan 1) is de rest van je systeem krachtig genoeg om je kaart bij te benen en 2) is het aan te raden een voeding op vol vermogen te belasten? Al was het alleen maar omdat ze op vol vermogen vaak minder efficient zijn en door de extra gegenereerde hitte sneller stuk gaan. Als je vijf of zes tientjes voor een goede 450-500 watt voeding wil uitgeven is het opeens een heel ander verhaal natuurlijk ;)

(edit, even ter vergelijking wat cijfertjes bij elkaar getrokken.. onder load uiteraard:
HD 3870: 80 watt
HD 2900XT: 160 watt
X1900XT: 110 watt
X800XT: 65 watt
9800XT: 65 watt
GF 8800 GTX: 135 watt
GF 7800 GTX: 95 watt
GF 6800 Ultra: 80 watt
GF 5900 Ultra: 60 watt)

[Reactie gewijzigd door jiriw op 23 juni 2008 15:06]

Dat is inderdaad best kansloos.. :P
Deze video kaart trekt samen met het systeem zeg maar iets meer volgens mij..
Of iets minder, maar hetl igt er wel gevaarlijk dicht in de buurt.

Deze kaart zou wel is een hele mooie concurrent kunnen zijn tegen de huidige generatie van nVidia! :)
Het zal sowieso een mooie prijs/kwaliteit zijn en ook tegenover de 'dure' kaarten van nVidia.
Ik kijk ernaar uit zo'n kaartje in mijn mooie computertje te duwen! :D
Ik denk dat 2x een 4850 al prima werkt vanaf 400-450 watt. Heb het al eerder gepost, maar het spul gebruikt niet zoveel. Mijn enermax 400 watt voeding trekt een quadcore op 3800mhz en tweemaal een 3870 met gemak. Op een niet al te zuinig P5K deluxe bordje. Dan zit ik net over de 400 watt uit het stoptcontact heen.

Als je uitgaat van een rendement van 80% zit je nog lang niet aan de max 400 watt die aan de hardware geleverd kan worden.

Hele dikke voedingen zijn alleen mooi meegenomen als ze meer aansluitingen hebben of efficienter zijn. Anders is het helemaal niet noodzakelijk. Ook niet met deze nieuwe kaarten.
Bij de 3870 raden ze al een 500 watt voeding aan dus inderdaad kansloos ja
2x HD4850 kan met 550 watt PSU (wel een goed merk niet zo'n B merk ding)

Die HD4850 zou iets van 110 watt gebruiken. HD4870 150 watt.
Ben erg benieuw naar de de benchmarks ik ben van plan de 4850 of 4870 in mijn pc te hangen kan ik een nieuwe pc nog even 2jaar uitstellen. Ik hoop dat de 4870 sneller is dan de GTX260 zou een goede opsteker zijn voor ATI/AMD

[Reactie gewijzigd door Crazyanz op 23 juni 2008 14:25]

de 4870 wordt de high-end kaart van AMD/ATI terwijl dit bij nvidia de GTX280 is en niet de GTX260. Je maakt dus al een kromme vergelijking qua prestatieverwachtingen.
Daar maakt jij weer een kromme vergelijking...

Het is de gtx260 vs de 4870
En de gtx280 vs de 4870x2

dus.... ;)
Ook niet, het zit zo:

HD4850 - 8800GT/9800GT (zelfde)
HD4870 - 9800GTX

AMD zet ze qua prijs zo neer, dat blijkt uit officile slides. Qua prestaties is de HD4850 echter ietsjes sneller dan een 9800GTX, en de HD4870 zal meer in de buurt van GTX260 zitten qua prestaties, maar dat maakt hem niet direct de concurrent van deze kaart.

Wat hierboven gezegd werd over dat de HD4870 de high-end van AMD is klopt trouwens ook niet, de high-end wordt namelijk R700. Het is sowieso een bananen/aardbeien vergelijking om zo'n grote (en dre) core te vergelijken met 1 zo'n kleine.

@rj1093: nee die vergelijking is niet krom. Het is dan wel 2 cores vs. 1 core, maar die ene core van NVIDIA is vele malen groter en vele malen duurder (en dus ook sneller). Qua stroomverbruik zullen ze uiteindelijk ongeveer gelijk zijn, maar de R700 zal zelfs goedkoper worden (dus de vergelijking is absoluut niet krom), en ook nog eens stukken sneller.

Van GT200 komt trouwens geen dual-chip solution. Misschien wanneer de 55nm GT200b komt dat men 2 GTX260's op 1 PCB zet (of 2 PCB's aan elkaar), maar de kans dat dit binnenkort gaat gebeuren is erg klein.

[Reactie gewijzigd door Avalaxy op 23 juni 2008 14:53]

Alleen jammer dat die GeForce 9800GT niet bestaat ;) Dat is de 9600GT die jij bedoelt en heeft zijn geheugen 200MHz sneller lopen dan een 8800GT, dus ze zijn gezien dit kleine verschil niet gelijk zoals jij beweerd, hoewel het verschil niet groot is.
9800GT gaat nog uitkomen en zal veel lijken op de 8800GT. Waarschijnlijk gaat deze kaart de 55nm GPU (die ook op de 9800GTX+ zit) aan boord krijgen wat ervoor zorgt dat hij zuiniger is en met alle waarschijnlijkheid ook hoger geclockt is.

Ik vind het wel vreemd dat Sapphire zoveel afwijkt van de 'reference' snelheden. Ik zie daaroom ook niet in waarom je voor een Sapphire zou kiezen als deze bijna dezelfde prijs heeft (10 euro verschil). Of de garantie en accesoires moeten zoveel afwijken.

[Reactie gewijzigd door Bolletje op 23 juni 2008 16:04]

Waarschijnlij is de sapphire een 1 slot kaart
Kun je er meer in crossfire zetten (3-4)
De 9800GT bestaat/komt wel hoor. Het is gewoon precies een 8800GT. De 9600GT heeft misschien een hogere core frequentie dan de 8800GT maar heeft slechts 64 shaders in plaats van de 128(?) shaders uit de 8800GT/GTS.

Maar m'n punt is duidelijk, de HD4850 is qua prijs de concurrent van 8800GT.
Onzin. Als ik zo de reviews eens bekijk scoort de 4850 al bijna net zo goed als de GTX280, lijkt me dus sterk als je daar een dual vga setup voor nodig hebt. Het is eerder GTX260 vs. HD4850 en eventueel de GTX280 vs. HD4870.

LegitReviews: Crysis benchmark
LegitReviews: HD4850 review

De kaarten zijn iig erg gewaagd aan elkaar en dat is natuurlijk heerlijk voor de concurrentie en dus ook voor de consument ;)

edit:

@ hieronder:

Ik pak in princiepe heel vaak meteen de Crysis benches erbij omdat Crysis gewoon een van de (als het die d is) zwaarste spellen is van dit moment. Als in een dergelijk spel de 4850 erg goed scoort (want ik noem die 3 tot 4 frames verschil niet spectaculair), zegt dat toch wel wat. Je hebt inderdaad gelijk als je zegt dat in andere games de GTX280 superieur is aan de 4850. Ik wacht in ieder geval met smart op de reviews van de 4870, want AMD heeft nu wel een mooi kaartje voor helemaal geen gekke prijs.

[Reactie gewijzigd door Bitage op 23 juni 2008 15:40]

Die crysis benchmark is wel mooi voor AMD maar als ik zo kijk naar meer moet de HD3850 toch echt het afzien tegen de top van Nvidia... En je kan bij die benchmark van Crysis ook zien dat de GTX280 veel beter presteert dan de HD3850 op hoge resoluties. De GTX280 is het neusje van de zalm en moet juist daar ook het beste zijn.
Klopt, prestatiegericht, maar kijk nu weer eens naar de prijzen.
Als ik zo de reviews eens bekijk scoort de 4850 al bijna net zo goed als de GTX280
Euh... als mensen zeggen dat de 9800 en de 4850 aan elkaar gewaagd zijn snap ik dat, en zelfs als je zegt dat in een enkel geval de 4850 aan de GTX260 gewaagd is is daar misschien een beetje bewijs voor te vinden, maar er is echt een wereld van verschil tussen de 4850 en GTX280, op elke resolutie en bij elke game.
Sorry hoor maar die review daar klopt echt geen hout van volgens mij.

http://www.pcper.com/arti...aid=579&type=expert&pid=4
http://www.pcper.com/arti...id=577&type=expert&pid=14

De 4850 ligt op lijn met de 9800GTX met 32.1 FPS gemiddeld op 1920x1024 (ligt ongeveer in lijn met jouw benchmark waarin de 4850 34.8 FPS haalt) maar op dezelfde resolutie en settings haalt de GTX 280 48.9 FPS gemiddeld. Dus ik zou maar eens wat meer reviews raadplegen voor je de conclusie trekt dat de GTX 280 en de HD 4850 op een lijn liggen wat prestaties betreft.
2 vs 1? Is dat ook niet enigszins krom dan?
Wat gebeurt er volgens jou dan wanneer Nvidia met 'n dual set-up van 2x 260GTX kaarten komt op 1x pci-e slot?

[Reactie gewijzigd door rj1093 op 23 juni 2008 14:41]

2 vs 1 slaat kant nog wal, het gaat op prestaties, en niet om het feit of het bereikt word met 1 of 2 cores.

De HD4850 vs 8800GT
HD 4870 VS 9800GTX

De HD4870X2 komt tegen het einde van augustus en word gepositioneerd tegenover de GTX280.

Een dual kaart met 2 G200 cores is prijs/technisch onmogelijk.

Zolang het geen set is van losse kaarten dat perse op een cf mobo moet, is het en blijft het gewoon n kaart.

Kaarten beoordelen doe je niet door te kijken onder de koeler en dan te zeggen: ooh hij heeft 2 cores, dat is niet eerlijk want hij heeft er maar n.

We kijken gewoon naar: prijs, prestatie, herrie, hitte, stroomverbruik. De rest is totaal onbelangrijk voor de consument.

Overigens sprak nvidia bij de intro van de GTX260 en GTX280 niet over 240 shaders, maar over 240 gpu cores, die voor veel soorten berekeningen geschikt zijn.
Dat het om prestaties gaat heb je helemaal gelijk in. Helaas betekent dat X2 kaarten hele goeie ondersteuning vraagt van games en drivers. Zodra dit niet het geval is heb je mega performance drops. Waarbij ook nog eens niet in alle games even goed schaalt...
Dus mijn voorkeur zal bij twee evensnelle kaarten altijd uitgaan naar de single core en niet de x2.
Dus de 2 vs 1 opmerking is weldegelijk legitiem.

Overigens ben ik geen fanboy van 1 van beiden. Ik wil gewoon graag een zo snel mogelijke kaart tegen een fatsoenlijke prijs.
Je hebt helemaal gelijk wat betreft de ondersteuning van zo'n X2 kaart, maar in mij ogen duik je dan weer in technische specs,

Hoe de kaart presteert in games blijkt uit de benches.

Nu mag je mij eens vertellen waarom voor de single core kaart zou gaan, want als ze even snel zijn, zijn ze gewoon evensnel, benches van games zijn realistisch, wat betekent dat alle voor en tegens voor de dualgpu kaart al invloed hebben gehad op het aantel fps, en kunnen dat niet nog eens hebben.

Als er dus een single gpu en een dual gpu hetzelfde presteren, ga ik kijken naar de prijs, verbruik, hitte en groote van de kaart. Is de dual gpu kaart dan even duur, verbruikt iets minder en genereert dus ook iets minder warmte is de keuze snel gemaakt, namelijk de dual gpu kaart.

Zoals ik al zei hebben alle voors en tegens van dual gpu die de prestatie beinvloeden, al hun invloed gehad op de performance en is het dus volslagen onzin om nog met de gedachte te spelen van ondersteuning voor multi gpu in de game zelf omdat het al uit het aantel fps is gebleken hoe het met die ondersteuning zit in de game! (overigens schalen de meeste games wel aardig tot 2 gpu's) Daarom zullen veel mensen datgene wat tussen hun oren zit de kop om moeten draaien en gewoon gaan kijken naar:

Prijs, Performance, Stroomverbruik, Hitte, Herrie en eventuele accesoires, en andere functies zoals UVD en de tegenhanger van nvidia.
Developers gaan hun toepassingen toch multicore en multi-GPU compatibel moeten maken. Hetgeen jij nu zegt, was een paar jaar terug exact hetzelfde met multicore cpu's, en moet je nu eens kijken wat voor cpu's er alleen nog maar gemaakt worden.
Ehm misschien heb je niet genoeg reviews gevolgt maar het is eerder..

De HD4850 vs 9800GTX(+)
HD 4870 VS GTX260

GTX280 zou dan idd kunnen vechten tegen de HD4870x2
met het verbruik van de nvidia chips? dat gaat zeker niet gebeuren met de 65nm versie.
en zelfs een gtx260x2 zou meer als 700 euro kosten op het moment.

en als je even naar de prijzen kijkt is een hd4870x2 vs gtx280 helemaal geen gekke vergelijking.

[Reactie gewijzigd door Countess op 23 juni 2008 14:58]

2 vs 1? Is dat ook niet enigszins krom dan?
Wat gebeurt er volgens jou dan wanneer Nvidia met 'n dual set-up van 2x 260GTX kaarten komt op 1x pci-e slot?
Mja alleen die heb ik nog niet gezien, zal wel een reden hebben ;)
@pennenlikker
Ati is al een tijd een andere weg ingeslagen. Ze hebben gekozen om meerdere gpu's op 1 kaart te plakken. Al Ati high-end kaarten worden met meerder gpu's. Dan kan je wel zeggen dat het oneerlijk is maar het gaat om de prijs prestatie verhouding. En als je daar naar kijkt dan moet je de 4870 X2 met de gtx280 vergelijken.
Want om de 4870 te verlijken met de gtx280 is raar, de gtx280 is bijna 2 keer zo duur.

[Reactie gewijzigd door nr12 op 23 juni 2008 14:50]

Ja, dus aTI's R700 is de eerste stap richting Multicore GPU's.
Bij de RV770 is iig de ringbus eruit en zit er 'n centralle hub voor interchip connect.
Het ziet er naar uit dat CF con's dan in d etoekomst ook enigzins gaan evrvallen.
Ben benieuwed hoe ver gevorder de R700 design is op dat gebied.
Kan zijn dat het pas met R800 komt.

We zien wel.

En ja ATI zet 4870X2 tegen GTX280 dat is even wennen.
aTI moet mit's nog gewoon CF tech de drivers kwa CF schaling voor heel veel games optimaliseren. Dat zie ik niet 123 gebeuren.
Was jij niet zo'n zelfde tiep dat Nvidia ten tijde van de GeForce 7 de snelste noemden vanwege de 7950GX2? Zelfde kunstje. X1950XTX was snelste single GPU kaart toen...
dan is je portomonee gewoon veelste groot.


Qua notering zou je idd de single kaarten aan elkaar moeten houden, als je echter naar de prijs kijkt, dan zit Nvidia simpelweg aan de top vd prijs. en bied ati een veel betere prijs/prestatie verhouding.
Nou als je dat aan de kaarten uitgeeft heb je juist helemaal geen grote portomonnee nodig :Y)
Who cares als het 1 of twee kaarten in 1 slot zijn, het gaat om de prijs prestatie verhouding, als de ene daarvoor twee kaarten voor een enkel slot uit de stal haalt, en de andere niet maakt dan niet uit.
de r700 oftewel radeon 4870x2 word de high-end.
Ghehe zou leuk zijn kaart van 350 euro veslaan. Ik denk dat het een beetje om en om zal zijn.

Ik heb zelf nu een HD4850 om te testen bevalt erg goed moet ik zeggen. Zit te wachten op de HD4870 1 GB.
Performance per euro lijkt nu wel ATi's sterkste punt, nog niet helemaal de performance kroon en zeker niet overduidelijk. Maar we zullen zien wat de R700 gaat brengen (4870X2 is nog geen zekere naam maar opzich wel logisch)

@ dasiro

Krom? De prijs van NVidia, je moet gewoon op prijs vergelijken niks snelste model, wat krijg je voor welk geld.

[Reactie gewijzigd door PaddoSwam op 23 juni 2008 16:11]

het is steeds de performance per euro die de klanten naderhand toch naar ati doet overgaan:

de X1950 pro is daar een mooi voorbeeld van: laat geintroduceerd, maar toch beter dan elke andere directx 9 kaart uit zijn prijsklasse
Tijd van release is toch net zo belangrijk. Als de meerderheid na een aantal maanden 7900GT al voorzien is, dan heeft het minder nut.
Ik verwacht dat hij in test soms een beetje sneller is en soms een beetje langzamer. De GTX 260 zal wel aanzienlijk duurder zijn. Zo duur dat je bijna en 4870 in crossfire kunt draaien. In grote lijnen zal nvidea de performance kroon hebben en ATI de proce performance. Echter voor bepaalde benchmarks/spelen kan dat anders liggen.

2 jaar uitstellen? 2 jaar is een lange tijd hoor. Je kaart moet wel in Balans zijn met de processor/memory, anders krijg je soms vreemde performance.

Over een half jar krijg je weer de release van de X2 varianten van de R770. Juist de ATI drivers lijken zich goed te gaan schalen.

Na deze NDA zooi zullen sites wel kritischer naar de NDA kijken. De kaarten liggen straks in de winkel en sites mogen nog niet publiceren. Zeker kritische sites hebben een probleem, want ATI heeft vast eerder problemen met slechte reviews.
je kunt kijken op: http://www.techpowerup.com/reviews/MSI/HD_4850/
dan zie je de volledige review van de ATI Radeon 4850, ik heb hem doorgelezen en ik ben echt overtuigd ik ga deze kaart zeker kopen.

Admin-edit:Het ligt niet aan deze user dat de link niet werkt.
Referrers vanuit Tweakers werken niet.

[Reactie gewijzigd door Kixtart op 23 juni 2008 16:23]

Komt er eigenlijk ook een passief gekoelde 4850/4870 uit?
Zeker niet als reference ontwerp van ATI/AMD.
Maar ik denk dat er in ieder geval van de 4850 je nog wel een passieve variant kunt verwachten. Die 80 graden leek veel, maar bij de test draaide de fan maar op 20%. Dat is dus al bijna passief. Zet er een groot blok op, en dan zal het wel lukken.
Dat lijkt me niet, kan niet zo snel een goede passieve gamerskaart opnoemen? Verder waren de temperaturen van de 4850 ook niet mals, deze zal alleen maar meer warmte produceren...

Misschien bij de 4600-serie(?) maar die zal niet zo super met games zijn. Er zijn uiteraard wel wat gigantische koelblokken op de markt, zoals: Thermalright HR-03 serie.

Edit:
Sapphire heeft wel een 3850 passive: link

Misschien volgt de 4850, met vergelijkbaar koelblok monster.

Edit2:
Thermaltake beweert iig dat hij compatible is met de HR-03 serie: klik

[Reactie gewijzigd door SSH op 23 juni 2008 18:18]

hoeveel shaders zitten er nu op?
800 of 480?

wel een mooi kaartje.

verder nog details over de 4870x2?
en de realise datum van de x2?
800 Begreep ik uit nieuwspost van laatst..

Hier nog even de nieuwspost! :)
Gaat overigens wel over de 4850.. Maar zal ook wel betrekking hebben op de 4870 dunkt mij! :)

[Reactie gewijzigd door Jelmoh op 23 juni 2008 14:46]

Ik dacht dat powercolor de enige was die een 4870 met lagere clocks uitbracht. AMD pakt het marketingtechnisch beter aan door niet al te streng te zijn met de NDA, nu is Nvidi's 260 al minder gehyped omdat de 4870 deze zelfs zou verslaan...
zijn die kaarten ook in een crossfire opstelling met een HD3870 te gebruiken, of moet ik dan voor een 2e HD3870 shoppen. Verder rest is de concurrentie erg goed, high-end kaarten hebben nu ongeveer de prijs van mid-end kaarten gekregen :).
het schijnt te werken. Alleen is er geen ondersteuning voor. Dus als je er een probleem mee hebt is het je eigen probleem

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True