Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties

Videokaartfabrikant Sapphire gaat een HD 4890 uitbrengen met 2GB gddr5-geheugen. De videokaart is tevens uitgerust met Sapphire's speciale Vapor-X koeler, die de videokaart een stuk stiller en koeler zou moeten houden.

Normaliter is een HD 4890 uitgerust met 1GB gddr5-geheugen, maar Sapphire heeft er voor gekozen om ten minste één variant uit te rusten met dubbel zoveel geheugen. De kloksnelheid van het geheugen werd lichtjes verhoogd, van de standaard 3900MHz naar 4200MHz. De gpu kreeg een kloksnelheid mee van 870MHz, en is daarmee 20MHz sneller dan een reguliere RV790-gpu. Deze gpu wordt koel gehouden door Sapphire's Vapor-X-koeler, die niet alleen stiller is dan een normale koeler, maar de gpu ook een stuk koeler houdt. De vrm's en de geheugenchips worden door kleine heatsinks gekoeld.

Op de achterkant van de blauwe pcb zijn een vga-, een dvi-, een hdmi-uitgang en een displayport-uitgang te vinden. De HD 4890 Vapor-X 2GB moet 226 euro gaan kosten, maar wanneer deze ook daadwerkelijk te koop zal zijn is nog onduidelijk.

Sapphire HD 4890 Vapor-X 2GB
Moderatie-faq Wijzig weergave

Reacties (83)

Allemaal heel mooi, maar wanneer gaan ze nu eens een deftige kaart in low-profile maken ?
Wij hebben speciaal drie lage profiel computers gekocht omdat dit zeer weinig plaats neemt op onze bureaus en er erg netjes en opgeruimd uitziet.
Maar een fatsoenlijke gamekaart ??? niet echt.
Waar blijven ze ermee ?
Waarom zijn de kaarten tegenwoordig meer dan 26cm lang, puur omdat ze gewoon te weinig ruimte hebben om alle onderdelen op kwijt te kunnen. Een low profile kaart zou dus eigenlijk betekenen dat ze een dual pcb kaartje moeten gaan uitbrengen voor een hele kleine doelgroep. Extra ontwikkelingskosten om zo'n kaart te maken tegen een veel te kleine afzet.
Beetje minimale winst voor de prijs lijkt mij, behalve dan de verdubbeling van het geheugen.
Uit de meeste reviews met verschillende kaarten is al gebleken dat 1 of 2 GB geheugen in de meeste gevallen 0% verschil geeft in prestaties.
Behalve uiteraard bij überhoge resoluties. (Denk aan meerdere schermen...)
Ik denk dat het meer om data (textures en geometrie) gaat dan om scherm buffers. wil je 2GB vullen dan moet je 4x4 super-sampled sony 4K op 32bits per channel renderen oid; dat doet niemand --- behalve pixar en die gebruiken iha geen GPUs. Een normale HD resolutie display buffer neemt maar 8MB in.

Het is trouwens wel erg handig om grote kd-trees in op te slaan.

[Reactie gewijzigd door Zoijar op 4 juli 2009 17:05]

jij heb het over video, niet over 3d....
Ik ben benieuwd wat GTA IV hiermee doet
In GTA 4 heb je 1650mb video geheugen nodig wil je het op 1920x1080 met alles op zn hoogst spelen. Dus een welkome kaart. 4870 2gb is een goed alternatief voor €175. vraag me af of het kleine beetje prestatie winst het prijsverschil rechtvaardigt.
4870X2 is gewoon twee keer 1GB, en dat is wat anders dan een keer 2GB. Je kunt slechts 1GB gebruiken.
Maar dat beweerde The Reeferman niet ;) wel scherp blijven hè ;)
Behalve uiteraard bij überhoge resoluties. (Denk aan meerdere schermen...)
Ja by de Matrox TrippleHead2Go zou het perfect zijn 3x 22" 1680x1050x3 = 5040x1050

Probleem is alleen dat de driver van ATi het niet ondersteund alleen 3x 19" word ondersteund :(

[Reactie gewijzigd door player-x op 5 juli 2009 03:34]

En welke game dan precies? Voor zover ik weet is supcom het enige spel dat mijn 2e beeldscherm ondersteund (wat overigens niet eens zo erg nuttig is, omdat je je toch maar op 1 scherm focust).

[Reactie gewijzigd door poepkop op 5 juli 2009 15:50]

hoezo 19"
resolutie wordt toch ondersteund????
lijkt me vrij onlogisch dat het op een 19 inch (met zelfde reso) wel werkt en een 22"niet
sinds wanneer is 19" het zelfde als 22"?

1440 x900 vs 1680 x 1050?
Aantal inch hoeft niet alles te zeggen over de resolutie, je hebt ook kleinere schermen met full HD res. en grotere met bv. 1024 x 768 pixels. Ik heb geen zin om uit te zoeken of er 19" en 22" schermen zijn met exact dezelfde resolutie, maar dat er 22+ inch schermen zijn met een lagere resolutie dan sommige 19" schermen weet ik wel.

Misschien is het leuk om aan zo'n kaart via een Tripplehead2go drie grote LCD tv's te hangen met een res. van 1366 x 768? Die hoeven niet zo duur te zijn, en het zou denk ik wel leuk zijn voor bepaalde simulatie games. Dat zijn dan ook gelijk games die gebruik kunnen maken van enorme textures en veel geometrie (ivm de POV) en dan is de hoeveelheid geheugen ook meteen extra gerechtvaardigd :)

Edit; Ojah, @poepkop (no offence :P), een Tripplehead maakt drie beeldschermen voor je videokaart als één beeldscherm zichtbaar, dus het spel hoeft voor zover ik weet geen tweede beeldscherm te ondersteunen, zoals dat wel het geval is wanneer je 2 beeldschermen direct op je videokaart aansluit. Het spel zal natuurlijk wel de resolutie moeten ondersteunen die je vervolgens krijgt.

[Reactie gewijzigd door Qualian op 6 juli 2009 15:25]

Nieuwere spellen snoepen wel behoorlijk wat van het GPU geheugen. Heb je weleens GTA IV gezien? Om alles op maximaal te zetten heb je 1.5GB VRAM nodig op een resolutie van 1280*1024, en nog meer als je gaat gamen op een >full HD-scherm.
Tja, dan laat ik liever het spel liggen dan dat ik een nieuwe videokaart koop om een grafisch misbaksel te kunnen spelen.
Genoeg spellen die je gewoon goed kunt spelen op een hd4670 met 512mb, Gta4 is gewoon een slecht voorbeeld.

[Reactie gewijzigd door poepkop op 5 juli 2009 15:55]

Met DirectX 11 komt GPU processing voor developers beschikbaar (nu hebben nVidia en Ati/AMD hun eigen SDK). Dan wordt de Videokaart een soort 2e CPU. Die heeft wel nu bij extra RAM.

Dus als je nu (veel) bezig bent met GPU processing, kan je hiervan profijt hebben. ;)
Maar dan heb je er bij deze kaart nog weinig aan, aangezien het nog een dx 10.1 kaart is toch?
...nu.

remember de eerste 128MB kaarten?
Kan je niet vergelijken omdat het om een compleet andere kaart gaat dan. Momenteel kan de rest van de kaart gewoon die 2GB niet benutten.
Ik heb een 8800GTX met 768 MB geheugen. Ik dacht daar ben ik wel goed mee gesettled voor de komende tijd maar er zijn nu al spelletjes waarvoor dat te weinig is als je alles op high zet. Als je een topmodel koopt dan wil je gewoon een kaart die lang meegaat. En als je dan na een tijdje merkt dat hij niet meer goed mee kan puur omdat er een paar tientjes op het geheugen zijn bespaard dan baal je echt.
Als je bij spelletjes alles op high wil zetten heb je weinig aan meer videogeheugen. Dat is voornamelijk bedoeld om textures mee te laden, en die worden over het algemeen alleen groter bij hogere resoluties. dingen als AA, complexere schaduwen, HDR en andere dingen die je op 'high' kunt zetten hebben veel meer baat bij veel en snelle shaders en een snelle core.
Nee dan baal je niet, je bent juist slim om nooit een high end kaart te kopen, omdat op het moment dat er games uitkomen die meer nodig hebben, is jouw videokaart al minimaal 1 generatie oud en zijn er nieuwe midrange kaarten die je voor 100 Euro kan kopen en sneller dan jouw oude high end kaart. Ga dus zeker niet veel meer geldstoppen in een kaart die zich toch nooit waar kan maken.
Nu heeft het zeker geen zin meer sinds de relatief High end kaarten niet meer dan 250,- kosten. Maar toen ik mijn 7800GTX aanschafte (rond de 470,-) 4 jaar terug zet er echt een groot verschil tussen een 6800 GT (ultra) 7600GT etc etc. Ik heb de kaart gewoon maximaal kunnen benutten (icm processor upgrades) tot ik overstapte van een 17" naar 24". Zelfs toen draaide Call of Duty 4 gewoon op 125fps bij 1280x1024.

Dat is ook het voornamelijke punt, waar je vroeger speelde op 1024x768 en 1280x1024 is het nu 1650x1080, 1920x1200 en zelfs 2560x1600. Meer pixels op het scherm vragen gewoon enorm veel meer rekenkracht en daarom zal een kaart tegenwoordig sneller verouderd zijn.

Mijn huidige 8800GTS 512MB had alleen met Crysis moeite (tja welke kaart niet) maar alle andere spellen draaide ie soepel op 1920x1200, alleen nu na 16 maanden is eigenlijk alweer de rek eruit wat niet het geval was geweest als ik hem nog steeds op mijn 17" TFT had aangesloten.
1. 8800 GTX is 2 jaar geleden geintroduceerd , dus die komende tijd snap ik niet helemaal.

2. paar tientjes is misschien nu , maar 2 jaar geleden toch echt niet toen was het GDDR3 net nieuw en dus duur ;)

Grtz
1:maar 768 al niet meer genoeg, dan staat 1024 ook op het punt te weinig te worden.
2:8800GTX is nooit met minder gereleased en laten we eerlijk zijn; 384 meg had gewoon veel te weinig geweest voor zo'n ding.
nogs steeds is de 8800gtx met 1.5 gig aan geheugen
niet noemenswaardig sneller dan de 768 versie.
dus ja het is nutteloos.
1 gb is genoeg. en als hetr niet genoeg is is de kaart zelf ook te traag
jouw comment slaat op niets, meer nog: is gewoon fout :p

waarom zou de GPU die 2 GB die er op gesoldeerd zit niet kunnen benaderen?
Tuurlijk kan hij het benaderen. Benutten is eerder het juiste woord. Het is toch volslagen onzin om op dit moment 2GB op zo'n kaart te bakken? Dat is gewoon verkooptactiek. Hiermee houden ze de consument voor de gek die denkt:"Meer is beter!" Dat het geen hol uitmaakt, weet die consument niet.
Marketingpraatjes inderdaad waar de gemiddelde "tweaker" (ik wil ze niet eens meer zo noemen) erg gevoelig voor zijn.

Het zou kunnen dat voor zeer intensieve 3D tekeningen met veel textures je die 2GB gaat gebruiken, alleen is die kaart er niet voor ontwikkeld en dus ook veel te traag voor.
128MB... ik met 4MB en dat was al super. maar 2GB lijkt me inderdaad wat overdreven.
Soms is "de meeste" dan ook niet genoeg voor iemand :)
Zie ik nou 2 6-pins aansluitingen achterop of kijk ik niet goed?
Dat zie jij wel goed. Ik denk alleen dat er twee op zitten voor de zekerheid: "Better be safe then sorry" ;)

Wat mij trouwens wel opvalt, en wat ik nog niet eerder gezien heb, is de indeling van de backplate van de kaart. Ik vind dit wel slim bedacht. Je stuurt de lucht alsnog uit de case én je hebt native HDMI, waardoor je geen lompe verloopstukken nodig hebt. Deze indeling mag wat mij betreft vaker voorkomen.
Wat ik dan weer wel raar vind, is een analoge aansluiting. Zelfs op mijn 7600GS zaten twee DVI uitgangen. Maar aangezien je ook 2 HDMI uitgangen hebt, kun je daar ook een verloopstukje aanhangen.
Al met al een stap voorwaarts wat betreft backplates :Y)
@ Stevie_O: Om jouw link te laten werken moet je de link kopiëren en plakken in de adresbalk.
@ Bardirella: Die foto die daar staat linkte ik al, onder backplate ;)

[Reactie gewijzigd door Krentenbol op 4 juli 2009 20:37]

ja idderdaad: de layout achteraan is appart maar slim bedacht.

Hier zie je het nog beter:

http://www.gpuwatch.com/w...on_hd_4890_vapor-x_02.jpg
is in het verleden al vaker gedaan
zo heb ik het bijvoorbeeld ook net zo op mijn 4870 http://www.geeks3d.com/pu...4870-x2-golden-sample.jpg
Ja, zoals elke HD4890.
Nee niet elke HD4890.
De kaarten met een GPU op ongeveer 1GHz hebben een 6 en 8 pins aansluiting.
Zoals de Toxic en Atomic van Sapphire en de Black Edition van XFX. :)
Ik denk dat je gelijk hebt.

Hier nog meer info over de HD 4890 Vapor-X.
http://www.pcgameshardwar...Vapor-X-reviewed/Reviews/

Hier een foto overzicht:
http://www.pcgameshardwar...browser&article_id=685395

[Reactie gewijzigd door Stevie_O op 4 juli 2009 15:40]

Ik vind het ook nogal tegen vallen kwa prijs. Prestaties zullen er niet om liegen maar voor 250 euro heb je tegenwoordig ook 2 4870 in crossfire draaien, heb je ook 2 gig en heb je volgens mij nog wel behoorlijk wat meer prestatie winst dan deze. De 4890 presteerd maar marginaal beter dan de 4870 dus 2 daarvan zouden deze toch met gemak voorbij moeten kunnen kwa presaties maar misschien zit ik er naast.

2 van deze beestjes in crossfire zou helemaal aso zijn maar wordt weer erg duur. Toch interessante kaart denk ik mits de prijs nog 3 tientjes zakt.
Je 2x1GB = 2GB verhaal gaat niet op. In CF wordt alleen het geheugen van één kaart effectief aangesproken.

De 4890 is sterk over te clocken. Voor reviews e.d. heeft Sapphire daar ongetwijfeld gebruik van gemaakt door standaard hogere clocks te leveren zodat het 2GB sowieso sneller is dan het referentiemodel.
Beide hun geheugen wordt aangesproken, er bestaat gewoon een image.
Probleem bij Crossfire is dat je wel 1+1GB hebt, maar beide kaarten houden dan dezelfde texture data e.d. in het geheugen. Oftewel, je hebt effectief nog steeds maar 1GB.
Tja, maar dan zit je weer met de ondersteuning van crossfire... Koop ik toch liever 1 enkele, maar degelijke videokaart ipv 2 goedkopere versies die de helft van de tijd niet ondersteund worden.
Zie ik het nou goed of zitten de DVI aansluitingen ook aan linkerkant van de kaart op elkaar gestapeld zodat rechts een heel gat open blijft om de warme lucht af te voeren? :)

Voor de rest ziet het er goed uit, als is de vraag nog maar wat je hebt aan een dergelijke hoeveelheid bij de huidige games, en tegen de tijd dat je 2 GB nodig hebt zal de GPU alweer te langzaam zijn...
Als je dit plaatje bekijkt, zie je dat er twee HDMI aansluitingen zijn.
een van deze poorten is echter een displayport, dus alle verschillende poorten zijn aanwezig. VGA, DVI, HDMI en displayport
neen, 1 HDMI, 1 displayport, 1 VGA en 1 DVI. Je evrwart de Displayport voor HDMI: DP is echter iets groter dan HDMI.
Zo ziet het er wel naar uit op deze HD4890 foto.

Weinig geld idd voor 2gb op deze kaart :).
zo he, over die koeler is echt nagedacht. grote ventilator met hetzelfde fan-blade design als de hyper TX3 (zo te zien) en ik zie veel koper en veel alluminium. ook zal deze waarschijnlijk (aangezien het de Vapor versie is) die Vapor-X technologie hebben wat een soort van gigantische heatpipe als baseplate betekend.

edit:
als ze nou eens samen gaan werken met AMD en ASUS om de ultieme HD4890 te maken.
AMD cherry-picked de GPU's
ASUS zorgt voor hun elektriciteitscircuit met regelbare voltage; uiteraard verbeterd
Sapphire zorgt voor deze zieke koeler; uiteraard nog beter gemaakt
en dan redesignen ze het PCB en maken een beperkte oplage voor extreme overclockers die ze dan 4* met de TWKR CPU meeleveren samen met een mooi ASUS supercomputer bordje xD
helaas zal ik het geld er nooit voor hebben... maar het gaat erom dat in dat geval de extreme overclockers de beste resultaten neer kunnen zetten

[Reactie gewijzigd door appel437 op 4 juli 2009 14:52]

Alleen is het zo dat extreme overclockers niet zo'n aftreksel van een goede overclockers GPU-koeler zullen gebruiken.

Waarom ASUS en regelbare voltages? Dat terzijde, ASUS en Sapphire zijn concurrenten.

De "pro" overclockers zullen vast wel cherry-picked GPUs krijgen, maar plakken daar zelf een LN² buis op of iets dergelijks.

En als allerlaatste is de HD4890 niet echt meer de moeite waard om R&D in te investeren aangezien de nieuwe series videokaarten er over een maandje of wat alweer aankomen.
Heel erg netjes!

Ook erg goedkoop, weer een bang for the buck!

Vapor-X, 2GB, EN een HD4890, maakt een super combi,zeker in Crossfire!
Ben blij dat de fabrikanten van grafische kaarten beginnen in te zien dat de toekomst in Displayport ligt. De voordelen ervan tegen HDMI/DVI zijn niet te ontkennen. :)
Puur marketing en zonde van ddr5, voor deze generatie GPU 1 gb is meer dan voldoende en van een extra gig zou je heel weinig of helemaal niets merken, zelfs in cross
is Vista icm ATI drivers al in staat om die Display-Port aan te spreken ?

dan wil ik deze kaart wel.. kheb namelijk een Dell 30' met DP .. es kijken of dat voordeel heeft tegenover DVI

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True