Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties

AMD heeft de Radeon HD3870 X2 officieel geïntroduceerd. Deze kaart combineert twee gpu's op één pcb en moet er voor zorgen dat AMD weer voet aan de grond krijgt in het high-end segment, waar nVidia het afgelopen jaar heer en meester was.

De Radeon HD3870 X2 is ontwikkeld voor de groep van veeleisende gebruikers. De videokaart bevat twee Radeon HD3870-gpu's die intern met elkaar samenwerken via Crossfire. Een Crossfire-moederbord is evenwel niet nodig om de kaart te kunnen gebruiken. De twee gpu's zijn geklokt op 825MHz, bevatten 320 streamprocessors en hebben elk de beschikking over 512MB-geheugen via een 256bit brede bus. Het geheugen is geklokt op 1,8GHz. Hiermee zijn de cores hoger geklokt dan de reguliere Radeon HD3870, terwijl het geheugen juist langzamer draait.

Meer informatie over de kaart is te vinden in de Tweakers.net-review. Onder meer de volgende sites hebben de Radeon HD3870 X2 ook op de pijnbank gelegd:

Radeon HD 3870 X2 close-up
Moderatie-faq Wijzig weergave

Reacties (108)

Volgens de reviews kun je de 3870 X2 pas overclocken als je een 1 x 6 en 1 x 8 pins connector gebruikt, anders kom je niet in het Ati Overdrive menu!

Als je de 3870 X2 nu met 2 x 6 pins connectoren aansluit, zou je dan bijvoorbeeld wel kunnen overclocken met een ander programma behalve Ati Overdrive? Of kun je desnoods een verloopstekker gebruiken van 6 naar 8 pins?
Dat met de 1x6 en 1x8 pins connector had de 2900XT ook al.
Bij de 2900XT kreeg je gewoon een verloop stekker van een molex naar een 6pins aansluiting.... Zal bij de 3870x2 ook wel weer zo zijn verwacht ik.

Bij de 2900XT kun je trouwens niet overclocken als je een van de connectors niet aansluit zowel in overdrive als rivatuner.
De 2900xt clockte fijn hoor met rivatuner en bv. atitool.
Ook met 2x 6 pins.

Dat je met dat brakke ccc er niet inkomt is eigenlijk geen probleem ;)
@ painkill: Wele sli combo is beter dan?

Een 8800gt is sneller dan een HD3870 maar
omdat xfire meer prestatie winst geeft van de 2e kaart
is een hd3870 in xfire in het algemeen sneller dan een 8800gt in sli.


De 8800gt in sli is de enige die mee zou kunnen met een hd3870 in xfire.
http://en.expreview.com/?p=53&page=4

[Reactie gewijzigd door r.marijnissen op 28 januari 2008 18:57]

omdat xfire meer prestatie winst geeft van de 2e kaart
is een hd3870 in xfire in het algemeen sneller dan een 8800gt in sli.
Dit is een fabeltje dat een flinke tijd geleden gelanceerd is en sindsdien onterecht de ronde doet en door velen nagepraat wordt zonde verificatie (net als dat fabeltje dat de 7950GX2 op een SLI bord zou moeten)... 8800GT SLI is aanmerkelijk (vaak 25+ %) sneller dan de 3870X2.
Lees de review van Anandtech er maar eens op na waar deze een op een vergeleken worden, en bedenk daarbij dat de 3870X2 zelfs vaak wat sneller is dan 3870 CF. Alleen op 2560x1600 weet de 3870X2 het soms te winnen.
Ik geef nog een linkje :P
Geeft wel een stuk beter beeld van de videokaart als de review van tweakers.
met de 1e drivers al 30% sneller is lang niet verkeerd

http://www.computerbase.d..._ati_radeon_hd_3870_x2/2/

Zeer uitgebreid en goed leesbaar getest. Bij de tweakers wordtt gezegt dat het verschil in drivers niet groot was, maar bij Computerbase kom je erachter dat bij 1grote tegenvaller qua FPS (crysis) de prestatie 40% omhoog is gegaan.

Gek nu lijkt een 8800gtx/2900xt ineens wel slecht zeg, was van plan een 3870 te kopen maar zal nu wel een X2 worden :P (past goed bij mij athlon x2, moet ik alleen ook een nieuw beeldscherm anders krijg ik de kaart niet op de knietjes :) )
Leuk kaartje, maar er zijn betere opties, zoals een sli systeem met 2 kaarten die samen onder de 400 euro zitten, en dan betere fps halen, maar met goede drivers kan dit nog wel veranderen.
Klein puntje, een SLI moederbord is nog altijd een heel pak duurder dan een gewoon P35'tje. Zeker als je de nieuwe quadcores wilt, dan dien je meteen een 780i chipset te regelen. En nVidia staat niet bekend om z'n fatsoenlijke chipsets jammer genoeg...
Voor zo'n kaart is een 2.0 lane wel erg fijn. Liggen de prestaties een leuk stukje hoger.
Neem je x38, ook goed. Nog altijd beter dan nVidia's chipsets, Intel vraagt niet zo'n bizarre koeling en stroomverbruik...
Daar twijfel ik sterk aan, als je bedenkt dat een single-core kaart amper slechter presteert op x8 vergeleken met x16. Deze X2 3870 zal daarom amper slechter presteren op een moederbord met geen PCIe 2.0 bus.

Wat noem je dan leuk ? 1 a 2% ?
Ja, en er is meer keuze uit diverse P35 en X38 moederboarden dan uit sli boordjes... nog een voordeel ;)
Daar heb ik het niet over, nu puur over de videokaarten, als je alles rekent zal je inderdaad geen goedkopere opties vinden.

Nouja, een 8800 ultra is in de aanbieding nu voor 400 euro, en die is dus net zo duur, en wat de tests grootendeels hebben bewezen, net iets beter.
Kun je het wel niet over hebben, feit is dat het er gewoon bij hoort en anders werken die twee kaartjes van jou gewoon niet, klaar. Zelfde dat bij CPU vergelijkingen ook enkel de prijs van het stukje silicium zelf bekeken wordt terwijl er een behoorlijk prijsverschil zit tussen Intel en AMD borden. Ik reken die kosten nog altijd mee als ik een CPU moet kiezen...
Mag jij me eens een sli opstelling van onder de 400 euro wijzen die beter presteerd dan een 3870X2. Ik heb het geprobeerd maar voor minder dan 600 euro weet ik niks beters te vinden. En voor dat geld kan je een triple crossfire opstelling bouwen.
ja, ook een heel mooie review, btw.
Ik heb de review uitgebreid gelezen, en mijn reactie daar geldt hier dus ook.
Ik vind de review wel van de negatieve cathegorie moet ik zeggen. Dat is op zich niet zo vreemd want de reviews op het het internet geven een heel wisselend beeld. Soms enorme uitschieters, soms een heel treurig score. 8)7

Dit heeft twee oorzaken. In de eerste plaats hangt het sterk af van welke games worden gedraaid. Daarnaast is een deel van de reviews met 'oude' en een deel met 'nieuwe' drivers gedraaid. Let daarop want het maakt soms nogal eens verschil. Zie het forum verder: http://gathering.tweakers.net/forum/view_message/29507746

AMD heeft niet voor niets op het laatste moment de introductie een paar dagen naar achter geschoven. De nieuwe drivers lijken toch wel verschil te maken. :P

Opvallend is wel dat in veel reviews de X2 vaak 5 tot 10% beter scoort dan een crossfire 3870. :9
Nooit zal ik zo'n kaart kopen lol...
Sorry maar dat stroomverbruik, 320 watt onder load. Het gaat echt ff iets te ver, mijn volledige PC gebruikt nu nog minder.
Is het dan zo moeilijk voor AMD en Nvidia om eens een high end kaart te maken die niet zo warm wordt en zoveel stroom verbruikt? De techniek staat echt stil geloof ik

[Reactie gewijzigd door Trance__Energy op 28 januari 2008 21:40]

die 320 watt is wel de hele pc hoor en vaak een zware test pc
had van de week een 3870 met een q6600 rn 4 gig mem trok onder ful load 160 watt uit het stop kontakt
dat doet mijn 3800x2 op 2600mhz met 7800gt ook
Dat was geen fullload of die 1 moet een 3 zijn :z of misschien een echte verbruiksmeter kopen O-)
ik heb een verbruiksmeter
en ik heb hem net getest met verschillende lampen
de lampen trokken allemaal met een paar watt verschil uit het stop contakt wat ze zouden moeten doen
dus met mijn meter is niets mis
full load is 2X orthos dus 4 kernen 100% en een ati ruby demo draaiende
waarom zeggen sommigen hier dat ze hem moeten vergelijken met 2 nvidea kaarten, het was de bedoeling dat de x3870 in CF zou gaan draaien, dus vergelijk dan es 2 nvidea met 2 ati ;)

[Reactie gewijzigd door incapable op 28 januari 2008 19:27]

Omdat aangezien deze kaart 2 gpu's bezit het qua prestatie beter te vergelijken valt met een kaart in SLI dan een single kaart, natuurlijk heb je met deze kaart het voordeel dat je deze ook nog eens in CF kan gaan zetten en dan zit je maar met even 4 GPU's bezig, en zo kunnen we maar blijven pushen :).

de vraag is volgens mij wanneer komt Nv met zijn antwoord op deze kaart en dan zijn we weer vertrokken :D
Op technisch vlak:

* Ja dan kun je hem vergelijken met 2 kaarten in sli.

Prijs/prestatie technisch (waar het eigenlijk om gaat):

* Dan is het gewoon kijken wie voor welk budget de beste prestie geeft.

______________________________
8800GT = trager ----205¤
8800gtx=trager ----360¤
8800ultra= trager ----544¤
8800gt sli=trager ----410¤

Hd3870x2 kost 380/400¤, en na een tijdje zal de prijs ook dalen.


Ze hebben gewoon een super kaartje neer gezet en de prestatie van de 2e of 3e kaart wordt steeds beter.

Goed gedaan AMD
8800GT = trager ----205¤
8800gtx=trager ----360¤
8800ultra= trager ----544¤
8800gt sli=trager ----410¤
Volgens HardOCP is de kaart ongeveer even goed als de 8800GTX hoor, en die is goedkoper. En gezien de testmethodes ga ik liever met HardOCP mee dan met de andere reviews die ik tot nu toe heb gelezen.
Om Kyle Bennett van HardOCP er maar even bij te quoten (zie laatste pagina vd review):
You will see here today that our evaluation of the gaming performance produced by this video card does not track with some other big sites on the Web, and the simple fact is that those sites did not measure "gaming performance." Those sites measured frames per second performance in canned benchmarks and even some of them went as far as to use cut scenes from games to pull their data from. I have been part of this industry for years now and we are seeing now more than ever where real world gaming performance and gaming "benchmarks" are not coming to the same conclusions. Remember that when we evaluate video cards, we use them exactly the way you would use them. We play games on them and collect our data.
EDIT: Dit neemt uiteraard niet weg dat de 3870X2 een prima kaart is, en het is mooi voor ATI dat ze eindelijk weer een kaart hebben die mee kan doen in de race. :)

[Reactie gewijzigd door Snoitkever op 28 januari 2008 20:34]

Sorry, maar ik vind HardOCP videokaart reviews zeer brak, ze testen kaarten altijd onder verschillende omstandigheden, hoe kan je nou serieus twee kaarten vergelijken als ze op andere settings draaien?
Wat er verder gezegd wordt over dat 8800GT in SLI langzamer is klopt niet, in bijna elke benchmark die ik gezien heb (met enkele uitzonderingen op 2560*1600) scoort de 8800GT veel beter.

DIT is ook nog een interessante review, hier word de kaart ook vergeleken met een 3870 Crossfire opstelling. Het verschil tussen de twee is bedroevend, qua prijs en performance is de crossfire opstelling interessanter. Waar de X2 sneller is is het verschil minimaal, maar waar de crossfire sneller is is het verschil groter (maar nog steeds klein).

Ik denk dat vooral de geheugensnelheid de X2 de strop om doet (2.25GHz vs 1.8GHz), met sneller geheugen zou de X2 waarschijnlijk wel beter presteren dan de Crossfire. Al in al is het toch een hele mooie oplossing met die PCIe switch.

Ik snap trouwens niet waarom ze in bijna elke review over een bridge praten, het is weldegelijk een switch!

[Reactie gewijzigd door knirfie244 op 29 januari 2008 00:40]

Je bedoelt dat jij niet begrijpt hoe de reviews van HardOCP in elkaar zitten.

Als je een review doet, dan moet je kaarten onder gelijke instellingen testen.
Maar helaas is er vrijwel geen enkele review site die dat doet. Wat je dan namelijk zou moeten doen is kijken welke settings van een kaart op het scherm dezelde beeldkwaliteit geven en DAN pas de framerates gaan meten.

In de praktijk stelt iedereen echter gewoon 4xAA en 16xAF in ZONDER daarbij te kijken of dat wel daadwerkelijk bij de verschillende kaarten dezelfde beeldkwaliteit oplevert.

HardOCP doet het anders. Die nemen een waarde die je makkelijk objectief gelijk kan houden. (de framerate) en testen dan hoeveel eyecandy je aan kan zetten.
Dat is ook zoals je zelf in de praktijk werkt.

Persoonlijk vind ik dat ook niet de makkelijkste manier om een review te lezen, maar in principe is hun methode van testen wel een stuk eerlijker daardoor.

Probleem is natuurlijk wel dat het nogal kan uitmaken wel stuk eyecandy je aan zet, en dat niet iedereen daarin dezelfde keuzes zal maken. De een zal AA omhoog halen, terwijl een ander liever een hogere resolutie kiest.
Niet om het 1 of ander maar Hard OCP is pro Nvidia.

3 van de 4 games zijn geoptimaliseerd voor nvidia.

3 uit de 4 games zijn niet geoptimaliseerd voor multiple GPU's.

In Crysis gebruiken ze geen AA en geen AF. En men beweerd dat Crysis onspeelbaar wordt op medium bij een resolutie hoger dan 1600 wat complete bullshit is. Mijn pc met een magere 3850 trekt dat nog op een speelbare FPS van 23. Uit iedere andere Crysis benchmark met de laatste patch en driver blijkt dat de 3870X2 gehakt maakt van andere videokaarten op hogere resoluties.

Alles wat ze uit de kast konden trekken om de 3870X2 slecht uit de kast te laten komen hebben ze in 1 review weten te proppen.

[Reactie gewijzigd door Seth_Chaos op 28 januari 2008 20:57]

3 van de 4 games zijn geoptimaliseerd voor nvidia.
De laatste tijd nog wel eens gekeken hoeveel games er uberhaupt onder TWIMTBP vallen en hoeveel onder ATI's variant daarvan? Die 3/4e valt dan nog goed uit voor ATI. Probeer sowieso maar eens een representatieve lijst games te maken met ATI geoptimaliseerde titels.
En sinds wanneer tellen goeie developer relations niet meer in het voordeel van een kaart?
3 uit de 4 games zijn niet geoptimaliseerd voor multiple GPU's.
Ja en? Het gaat er toch als gamer om hoe goed je spellen kunt spelen, niet hoeveel GFLOPS, geheugenbandbreedte of GPU's je in je kast hebt zitten?
In Crysis gebruiken ze geen AA en geen AF. En men beweerd dat Crysis onspeelbaar wordt op medium bij een resolutie hoger dan 1600 wat complete bullshit is.
Dat is nu juist het hele punt bij HardOCP, ze spelen games op speelbare framerates (en ik haak echt af bij een "speelbare" FPS van 23 hoor), en kijken dan hoe hoog alle detail en de resolutie kan. Dat is hoe je een kaart gebruikt, niet door alles zo hoog mogelijk te zetten en dan te kijken wat voor FPS je gebruikt. Als ze AA aanzetten in Crysis wordt het gewoon niet speelbaar meer (voor een grote groep mensen), dus wat heeft het voor nut om het aan te zetten als de meerderheid het niet gebruikt? Synthetische benchmark heet dat.

[Reactie gewijzigd door Snoitkever op 28 januari 2008 21:35]

Act of War
Oblivion
Guild Wars
The godfather
brother in arms
De halflife reeks

Had de kaart geriviewed met wat DX10 titels zoals Assasins Creed en Hellgate London. Dan was deze kaart heel anders uit de review gekomen.

Alle spellen die nu uitkomen zijn nagenoeg voor multi GPU geschreven.

Mijn tv heeft een native resolution van 1920x1080. Met minder neem ik geen genoegen. Daarbij draai ik het op een 3850 het kleinere broertje van de 3870. Op een 3870X2 moet je het met gemak op 1920x1080 alles op extreme high kunnen spelen.

Daarbij is bij de test bak van Hard OCP de 2Gb mem een ernstige beperking. Ik moet er niet aan denken Vista 64bit met 2Gb te draaien. Dat is als een Ferrari met een dicht geknepen brandstofslang zonde van brute vermogen..
Er zijn vier games gereviewed, kennelijk hadden ze voor meer geen tijd, dus dat moeten dan vier moderne spelen zijn. Waarom zou je dan in hemelsnaam een van de spelen op jouw lijst nemen, die zijn stuk voor stuk verouderd. Er zal geen performanceverschil te zien zijn omdat zowel de 8800GTX als de HD3870X2 die spelen in full-detail op speelbare framerates zal draaien. Je moet gewoon moderne spelen hebben die veel van je GPU vragen om te laten zien welke GPU het beste is.
HL2 - Episode 2is hierbij de enige uitzondering, en die is dan juist wel weer getest.
Had de kaart geriviewed met wat DX10 titels zoals Assasins Creed en Hellgate London. Dan was deze kaart heel anders uit de review gekomen.
Volgens mij is al vaak genoeg aangetoond dat DX10 en DX9 weinig verschil maken in performance. Dat de ATI kaarten beter zouden zijn in DX10 was een fabeltje dat ten tijde van het R600 debacle door ATI fanboys is bedacht om de kaart goed te praten en is later nooit met harde feiten gestaafd.
Alle spellen die nu uitkomen zijn nagenoeg voor multi GPU geschreven.
Waarom roep je dan eerst:
3 uit de 4 games zijn niet geoptimaliseerd voor multiple GPU's.
Of zijn net toevallig UT3, HL2 en CoD4 niet geoptimaliseerd? Ik geloof er geen bal van, kijk maar eens naar de AnandTech review, daarin schalen ze prachtig.
Dat Crysis niet lekker schaalt voor multi-GPU is bekend, maar je kan er als reviewsite niet onderuit, Crysis moet gewoon gereviewed worden omdat het het zwaarste spel sinds jaren is.
Daarbij is bij de test bak van Hard OCP de 2Gb mem een ernstige beperking. Ik moet er niet aan denken Vista 64bit met 2Gb te draaien. Dat is als een Ferrari met een dicht geknepen brandstofslang zonde van brute vermogen..
Oh, en die 2GB is natuurlijk in het nadeel van ATI, maar NVIDIA kaarten doen het beter met 2GB dan met 4GB? Kom op zeg, je bent gewoon op zoek naar redenen om de review af te kraken.
Niet om het 1 of ander maar Hard OCP is pro Nvidia.
AnandTech bevestigd ook dat 8800GT in SLI sneller is. Maar ja, die zullen dan ook wel pro NVIDIA zijn...
Twee 3870's in crossfire zijn sneller dan twee 8800GT's in SLi.

Zo kunnen we nog wel even door gaan.
Onzin, de 3870 is echt niet sneller kijk maar 8800GT in SLI maakt de HD3870X2 al in... laat staan HD3870 in CF
Twee 3870's in crossfire zijn sneller dan twee 8800GT's in SLi.
Het punt was dat je voor twee GT's in SLI ongeveer hetzelfde betaalt als voor de 3870X2.
ze hebben hem maar met 1 kaart vergelijken... en de scores lagen regelmatig ver uit elkaar.
dus je conclusie vind ik nogal kort door de bocht.

[Reactie gewijzigd door Countess op 28 januari 2008 21:04]

De 3870 gaat bij introductie rond de 450 Euro kosten, en voor 400 Euro heb je 2 8800 GT's in SLI draaien die meestal sneller zijn en minder energie onder full load verbruiken.
Ja, en die energiewinst lever je direct weer in; de P35 chipset is zuiniger dan de 650/680/780 SLI chipsets. Verder denk ik dat het overklokken van de CPU op de P35 chipset (en x38/48) makkelijker en beter gaat dan op de 650/680/780 chipsets. Heb zelf met de 650i chipset slechte ervaringen, waar de P35 chipset die ik nu gebruik moeiteloos op 3200/800fsb draait.
Wie zegt dat ie 450 euro gaat kosten? 8800GT's kosten in de VS ruim 250 dollar (x2 = 500 dollar). Waarschijnlijk zal deze kaart hier onder de 400 euro zitten...
Lol zit geen logica in jouw beredenering. 8800GT van 250,- Dollar koste hier ook
bij introductie 240-250 EURO (afgezien van sommige webwinkels is die kaart nog
steeds 240-250 EURO, nu 2-3 maanden later.)

Dikke kans dat de X2 ook gewoon rond de Dollar prijs in EURO's zal zijn bij
introductie. Natuurlijk zal hij na een maand zakken of langer zakken naar eerder
450 EUR dan 400 EURO ben ik bang.

[Reactie gewijzigd door Xelation op 29 januari 2008 10:00]

@ xelation : de GT's zijn moeilijk te krijgen
maar kijk eens naar de 3870's
die zijn maar 177 euro, ver onder de dollar prijs, en dat zag je al 2-3 weken na introductie.
ATI heeft duidelijk minder moeite met leveren en daarom zakken de prijzen op een normale manier.
het is daarom ook niet onredelijk om aan te nemen dat de 3870x2 ook snel lager zal zitten in euro's dan de dollar prijs (zelfde GPU's zelfde fabricanten).

[Reactie gewijzigd door Countess op 29 januari 2008 13:58]

Jullie hebben zelf ook een review geschreven :

reviews: ATI Radeon HD 3870 X2 review

Daar hebben jullie laten zien dat in Crysis De 3870 X2 totaal niet lekker presteerd (tenopzicht van de nvidia kaarten).
Ik vind het daaorm raar dat dit totaal niet het geval is bij deze review van Hardwareinfo:

http://www.hardware.info/..._Radeon_HD_3870_X2_Test/9

Hier presteerd de 3870 X2 heel goed in crysis stukken beter dan een GTX.


Edit: Ik denk dat ik het zelf al weet =). Jullie hebben zelf dx9 gebruikt en hier wort dx10 getest. Het is dus zeer interesant om te zien dat hij in dx10 veel beter word benut.

Edit 2 @ Countess : Ze gebruiken windows xp (dus dx 9, dat is dus waaorm de preformence verschillend zijn)

[Reactie gewijzigd door nr12 op 28 januari 2008 23:33]

dx10/dx9 crysis?
kan niet met zekerheid vinden wat tweakers gebruikte maar hardware info gebruikte dx10.

ook nieuwe driver versie zou kunnen, want de problemen van de 3870x2 zijn duidelijk driver related
De mooiste review staat er niet bij:

http://www.computerbase.d..._x2/7/#abschnitt_3dmark06

De meest uitgebreide review tot nu toe. Moet zeggen dat ik best onder de indruk ben. Op hogere reso's 1600-1200+ met aa en AF vaak teven de 80-90% winst.
Misschien andere drivers gebruikt.

Verder is het wel dat je een losse hd3870 vanaf 180¤ koopt.
Dan 2 stuks= 360¤.

Wel wat goedkoper.
Maar om het maximale uit 2x 3870 te halen moet je een x38 chipset hebben. Zo'n mobo is duurder dan bijv. een p35 variant zodat het prijsvoordeel weg is. Nu heb je ook nog een extra pci (express) slot over zodat je er tenminste een geluidskaart in kan zetten (zonder de luchtstroom van de onderste kaart teveel te verstoren.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True