Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties

Sapphire heeft een nieuwe high-end grafische kaart in de Radeon HD-serie geïntroduceerd. De 4850 X2 van deze fabrikant wordt met 1GB of 2GB geheugen geleverd en moet de strijd met Nvidia's Geforce GTX280 aangaan.

De eerste details van de HD 4850 X2 van Sapphire doken vorige week op. Inmiddels is duidelijk dat de fabrikant twee varianten zal uitbrengen. De 1GB- en de 2GB-versie van de kaart bieden met 625MHz voor de gpu en 993MHz voor het geheugen standaardsnelheden. De twee op 55nm gebakken RV770-gpu's zorgen samen voor 1600 streamprocessors en de geheugenbus is 256 bits breed. Niet alleen verschilt het tweetal op het gebied van kloksnelheden van de Radeon HD 4870 X2, de nieuwe Sapphires worden bovendien uitgerust met gddr3-geheugen in plaats van gddr5. Bovendien heeft het nieuwe dubbelkoppige monster van Sapphire vier dvi-uitgangen aan boord.

De prijs van 1GB-versie is onbekend maar de 2GB-variant van de Radeon HD 4850 X2 kan worden opgepikt voor rond de 400 euro, waarmee de kaart eerder in de prijsklasse van de Geforce GTX 280 ligt, dan van de GTX 260. De prestaties zijn navenant, zo blijkt uit de eerste reviews. Hoewel de kaart de concurrentie in bepaalde benchmarks weet te verslaan, is de winst niet afgetekend. Mogelijk dat driver-updates daar nog verandering in brengen, want de stuurprogramma's laten nog te wensen over: onder andere Benchmarkreviews ondervond problemen met de bijgeleverde drivers. De conclusie luidt toch dat de Radeon HD 4850 X2 een prima alternatief voor de GTX 280 vormt. De Radeon HD 4870 X2 is weliswaar nog beter, maar die kaart is weer hoger geprijsd.

Sapphire Radeon HD 4850 X2 2GB 1 Sapphire Radeon HD 4850 X2 2GB 2 Sapphire Radeon HD 4850 X2 2GB 3
Moderatie-faq Wijzig weergave

Reacties (51)

Ik vind hem erg prijzig, wanneer ik hier in de pricewatch kijk naar sapphire producten:

HD4850 (512MB) : 140 ¤
HD4850 (1024MB) : 180 ¤

HD4850X2 (2x 1024MB): 400 ¤

Dan klopt er toch iets niet helemaal in die prijsstelling, zeker niet als we dan de snellere HD4870s er bij halen (met DDR5!) :

HD4870 (512MB) : 220 ¤
HD4870X2 (2x 1024MB) : 450 ¤

offtopic: waren die 4870X2's niet 400 euro bij de introductie?!
offtopic: waren die 4870X2's niet 400 euro bij de introductie?!
Ja, maar door de stijgende dollar is die kaart dus duurder geworden. Dat is ook de reden waarom de introductieprijs van de HD4850X2 zo hoog is.
is wel een beetje balen eigenlijk de goedkopere 4870x2 kost rond de 420 euro volgens pricewatch en dan heb je gddr5 .en de 4850x2 staat er voor rond de 380 minimaal in oplopend tot heel snel 440 euro. Dus ik denk dat hij in de eerste instantie niet zo heel interessant is als goedkoper broertje van de radeon 4870x2. rond de 300 euro zou ik persoonlijk beter gevonden hebben omdat 2 maal een 4850 ook rond die prijs ligt.

[Reactie gewijzigd door Mietex op 4 november 2008 17:09]

Misschien wel interessante invalshoek als je deze kaart met een GTX280 vergelijkt:
Tom's Hardware heeft SLI en Crossfire combinaties van de 280 en de 4870(X2) vergeleken in combinatie met Core i7; de conclusie daar is dat de 280 het in SLI beter doet dan de 4870X2. Een 4850X2 zal het vermoedelijk niet beter doen in die vergelijking.

Dit als aanvulling, het doet niets af aan de resultaten van andere vergelijkingen, waarbij enkelvoudige kaarten of gelijk geprijsde oplossingen worden vergeleken.

linkje: http://www.tomshardware.com/reviews/core-i7-gaming,2061.html
dat komt omdat er iets mis gaat met crossfire en radeons. ik weet niet wat tom gedaan heeft maar er klopt duidelijk iets niet.

als een game goed schaalt met multi-gpu (geen crysis dus) zou de hd4870x2 bijna altijd sneller moeten zijn als een gtx280.

[Reactie gewijzigd door Countess op 4 november 2008 14:17]

Hoeft niet asan tom te liggen, kan net zo goed aan de radeon drivers liggen, die nog niet goed zijn geoptimaliseerd voor het X58 platform.
Op het grotere geheugen na, wat is het voordeel van 4850X2 tov 2*4850 in CrossFire opstelling?
Een 4850 kost ¤140, 2 keer is dat ¤280 (heb je ook 1Gb geheugen)
Een 4850X2 kost ¤400, die ¤120 verschil moet toch ergens inzitten?
De snelheid van 2 video kaarten is langzamer dan 1 videokaart. Dit is dus het eerste kleine verschil.

Volgens de producenten of experts moet de nieuwe 4850X2 kaart van 1gb of 2gb het gat in prestaties en prijs tussen de 4870 en de 4870X2. Logies.

Het voordeel van de 2gb is duidelijk. Het geheugen is 2x zoveel. Hij is gebouwd om hoge resoluties te draaien met veel textures in het geheugen.

Denk ook aan het verschil in vermogen dat een 4850 in CF en een 4850X2 levert. Een CF-opstelling gebruikt meer lijkt mij.

Als het budget het toelaat, dan zijn mensen in staat zon kaart te kopen, omdat de prijs tussen een 4870 en 4870 CF ligt.

Als het erop aankomt gaat dit dus puur om een 'marketing' techniek.

Als je benchmarks wilt zien moet je hier checken:

http://vr-zone.com/articl...st-look--tested/6157.html
120 euro extra voor 1GB meer GDDR3 geheugen.
De 2 GB variant kost ¤400,- de prijs van de 1Gb variant is nog onbekend.

Wat redfoxert duidelijk wilt maken is dat je voor de 2e gb i.c.m. 2x 4850 p[1kaart welliswaar een meerprijs van 120 E betekend

[Reactie gewijzigd door MrBigfield op 4 november 2008 13:02]

Het grootste voordeel is natuurlijk dat de HD4...X2 videokaarten op één PCI-Express slot passen. Dit opent de mogelijkheid tot veel meer moederborden die dan gebruikt kunnen worden om de kracht van CrossFireX los te laten. Of dat je twee of meer van deze kaarten in één systeem stopt voor nog meer geweld.

Tevens zijn de CrossFireX interconnectie verbindingen iets beter geregeld, en een HD4850X2 is daarmee een klein beetje sneller dan 2 losse HD4850 samengekoppeld.

Soms komt dat voordeel niet naar voren, wat vaak de schuld is van onderontwikkelde drivers, maar AMD/ATi is daar op dit moment wel wat beter in dan vroeger en ze brengen vaak nieuwe Catalyst drivers uit. Nog steeds niet optimaal in vele gevallen, maar "cutting edge" staat dan ook niet echt garant voor stabiel.
de 4850X2 is 2 sloten dik (4*DVI aansluitingen), dus het argument van 1 PCIe-slot is alvast niet waar...
Dat een geïntegreerde verbinding (iets?) sneller is dan een CrossFire verbinding, mogen we hopen, maar ik zou er toch benchmarks tegen willen zien, die de serieuze meerprijs kunnen rechtvaardigen...
Ow, dus omdat deze kaart twee sloten aan de achterkant van je PC gebruikt voor de 4 DVI aansluitingen gebruikt die meer dan 1 PCIe-slot? Volgens mij prop je dit ding nog steeds in 1 PCI-e slot op je mobo hoor, ook al gebruikt die twee kast sloten...

Volgens mij is dit bedoelt om twee van deze kaarten naast elkaar te kunnen zetten zodat je dus in theorie 4x zoveel kracht hebt als een normale 4850.
de kaart gebruikt misschien maar 1 PCIe slot, maar blokkeert wel een 2de,
dus is het argument van "maar 1 slot" niet echt relevant, het 2de wordt nog steeds in beslag genomen, zij het niet voor actief gebruik :)
Je kunt niet 2x een HD4850 in één PCI-E slot op je moederbord drukken. Wel kun je een HD4850 X2 in één slot drukken. Dus voor moederborden met 1 videokaartslot of gebrek aan CF support is dit een uitkomst.

[Reactie gewijzigd door frankknopers op 4 november 2008 19:22]

maar voor 120 heb je weer een mobo waarvoor die uitkomst niet nodig is, en da's zoiezo dan wel op meer vlakken een zinnige upgrade ;)
De kaart gebruikt een pcie16 slot en blokkeert een pcie1 of pci slot die je toch al niet voor een grafische kaart ken gebruiken. Het tweede PCIe16 slot zit altijd een paar sloten verder.
Waarschijnlijk zal de oplossing van Sapphire wat sneller en soepeler werken omdat de kaarten in 1 zitten. Ook heb je nu minder ruimte in je pc nodig.

Maar, je hebt gelijk, 120 euro verschil is toch vrij veel, daar kun je een kaart op zich van kopen.
Pfoei! Hoeveel verstookt zo'n ding wel niet? :?

Sowieso mag er volgens mij best wel wat zuiniger aan gedaan worden in het vermogen/verbruik van videokaarten. Is de trend voor CPU's omlaagm, gaat-ie voor GPU's/videokaarten omhoog. Lekkere ontwikkeling?
Ik maakte die bemerking bij de introductie van de i7 ook, maar werd teruggefloten door degene( n) bij Tweakers die de test gedaan hadden. Zij beweerden dat de idle bij i7 minder verbruikte dan bij C2D en dat het hogere verbruik onder load helemaal te rechtvaardigen is door de betere prestaties.

Misschien is dat hier ook, in idle kunnen ze bv een van de 2 cores volledig uitzetten, dan verbruikt ie zoveel als een 4850. Pas onder load schakelt de 2de core ook in.
Op die manier heb je wel de voordelen in prestaties, maar niet de nadelen in meerverbruik.
Ik zeg enkel dat die mogelijkheid zou kunnen bestaan, ik weet niet of ze het op die manier ook geïmplementeerd hebben.
Op GOT lees ik veel over "profiles", misschien kun je dat manueel instellen in zo'n "profile"?
Misschien is dat hier ook, in idle kunnen ze bv een van de 2 cores volledig uitzetten, dan verbruikt ie zoveel als een 4850. Pas onder load schakelt de 2de core ook in.
Ook als je vier schermen aansluit? ;)
ik zie twee pci-e 8 pins stroomstekkers zitten, dus reken maar uit dat er een hoop energie door dit beestje verstookt kan worden!
Dan heb ik een bril nodig want ik zie maar een 1*6 en 1*8 aansluiting
als dat 4*DVI-DL is, kan je daar *overkill* 8 schermen op hangen :)
Flightsimulator wordt dan wel erg letterlijk en realistisch...
Dual Link is niet om nog een extra monitor op aan te sluiten, maar wel om een hogere resolutie te halen op je monitor. In Single Link kan je ongeveer twee MegaPixel halen, in Dual Link wordt dat het dubbel: vier MegaPixel.
my mistake
ik dacht dat de 2de datalink voor een 2de display was, dit is inderdaad niet hetgeval
http://en.wikipedia.org/wiki/Digital_Visual_Interface
Ik heb even de DVI spec er op nagezocht maar de dual link is voor high color depth bedoelt. iig in versie 1.0. Andere specificaties zijn iig nergens te vinden.
Als jij meer weet dan de DDWG kun je me dan een bron geven? of aangeven waar ik een splitter voor zo'n "DVI-DL" poort kan kopen? Dat lijkt me een leuke feature.

edit:
Enigszins duppelpost, maar volgens officiele spec van DDWG is het dus voor meer color depth en niet hogere resolutie, misschien een foutje op wikipedia?

[Reactie gewijzigd door Vastloper op 4 november 2008 14:25]

Wikipedia is niet fout, ik had het fout geïnterpreteerd

gek genoeg bestaat een DVI-VGA splitter wel:
http://www.elektronica-on...tent_details.php?id=10278
http://www.elektronica-on...tent_details.php?id=10277

En waar ik momenteel werk, hebben ze HP-thinclients, met maar 1 DVI uitgang, er hangt een monitorkabel aan die in 2 "splitst" en daar hangen dan 2 17" LCD's aan...

[Reactie gewijzigd door Cafe Del Mar op 4 november 2008 14:30]

Die DVI naar DVI+VGA kan ik enigzins begrijpen. Op een DVI-I stekker zitten immers analoge én digitale signalen. Doch zijn dat volgens mij dezelfde signalen...
Die DVI naar 2x VGA daarentegen gaat mijn petje te boven! Ofwel moeten dat gewoon twee dezelfde signalen zijn (clones).

Maar hetgeen jij beschrijft heb ik ook al meermaals gehoord. Misschien dat dit een feature is van die bepaalde HP modellen. Want zover ik de hele DVI troep begrijp is dit niet mogelijk (zeker niet om twee DVI-D signalen uit te sturen).
Het zijn 2 aparte schermen en dit is ondertussen mijn 3de thinclient en die hebben dat allemaal al gehad...
Het zal dan inderdaad een speciale feature zijn van de dvi connector op deze modellen, want twee schermen uitsturen uit een connector is echt niet in de spec van dvi te vinden.

DVI naar 2xVGA kan, voor zover ik kan googlen, alleen clonen (oftwel dvi > vga en dan vga> 2xvga splitter achter elkaar, in feite).

Die DVI > dvi+vga splitter hangt erg af van de videokaart -- normaal gesproken detecteert de videokaart bij startup of er een dvi of vga client aan de connector hangt en stuurt hem navenant aan. Wellicht dat sommige videokaarten ook alletwee tegelijk kunnen, en misschien dan zelfs wel met verschillende beelden, maar ik betwijfel het -- er zijn een aantal signalen die gedeeld zijn tussen DVI-D en het analoge gedeelte, zoals de DDC pinnen.
Je hebt idd een aantal kaarten die op 1x DVI met een splitter 2xVGA kunnen aansluiten. Windows ziet ze dan gewoon als twee monitoren, dus je kan een extended Desktop aanzetten. Wij hebben hier op het werk dat in 3 systemen zitten en het bevalt goed. je kan ook 2x DVI splitters kopen voor deze kaarten als ik me goed herinner.

Die DVI poort het geen dual Link, maar Dual Head.
Kun je dit niet op zijn beurt ook in CrossFire draaien, 2x2 ?
ik mag aannemen dat dat wel kan ja, het is namelijk ook mogelijk (mits je 4 PCI-E sloten hebt) om vier losse 4850's te combineren.
Je kunt de kaart combineren met elk model dat een RV770 chip gebruikt. Zolang het maar maximaal 4 gpu's is.
Zou geweldig zijn als je nu native 3d games in triple/quadro screen in kunt afbeelden.
dat kan nu ook al, gewoon een triplehead2go digital oid :)
Deze kaart is de Rage Fury Maxx 2.0?
ATi's antwoord op de 3dfx Voodoo5 5500 :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True