Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties

PowerColor gaat in navolging van onder andere Sapphire en MSI ook een stevig overgeklokte ATI Radeon HD 4890 uitbrengen. De gpu heeft een kloksnelheid gekregen van 1010MHz, terwijl het geheugen op 4400MHz loopt.

Standaard loopt de gpu van een ATI Radeon HD 4890 op 850MHz, en heeft het geheugen een snelheid van 3900MHz. AMD verkoopt echter naast normale RV790-gpu's ook speciaal geteste uitvoeringen, die tot hogere kloksnelheden in staat zijn. PowerColor wist de kloksnelheid van de RV790-gpu op zijn PowerColor PCS++ HD4890 op te voeren naar 1010MHz. Het geheugen werd opgekrikt van 3900MHz naar 4400MHz. Of PowerColor ook gebruik maakt van een speciale RV790-gpu is evenwel niet bekend. Om oververhitting te voorkomen werd de koeler op de videokaart vervangen door een exemplaar van Zerotherm. De koeler heeft vier heatpipes die de warmte afvoeren langs 54 aluminium vernikkelde lamellen.

Verscheidene andere boardpartners van AMD zouden ook van plan zijn om een HD 4890 uit te brengen met een kloksnelheid van om en nabij de 1000MHz. Sapphire heeft al een aantal werkende exemplaren van de HD 4890 Atomic, waarvan de gpu en het geheugen respectievelijk op 1000MHz en 4200MHz lopen. MSI zit echer ook niet stil, en bovendien werd onlangs bekend dat XFX een op 1000MHz geklokte HD 4890 uit gaat brengen. Asus liet aan Tweakers.net weten dat hun 1000MHz HD 4890 eind mei officieel aangekondigd zal worden.

PowerColor HD4890 PCS++

Moderatie-faq Wijzig weergave

Reacties (43)

Voor de geïnteresseerden, zie het stukje op anandtech over het verhogen van de 4890 GPU van 850mhz naar 1ghz..

Link: http://www.anandtech.com/video/showdoc.aspx?i=3555&p=3

Ongeveer 10-13% meer perfermance dan een standaard 4890
Halleluja .. now we're getting somewhere _/-\o_

De 4870 is natuurlijk een fantastische kaart, maar uit alle benchmarks die ik bekeken heb (en dat waren me er een paar) bleek keer op keer dat Crysis nog steeds kwalijk goed speelbaar bleek. Laat dat nou nét de game zijn waarvoor ik een andere kaart zoek.

De komst van de 4890 voorspelde al veel goeds en heeft mij doen wachten met de aanschaf. Nu je deze GPU ook nog eens een keer op 1 GHz clocken kunt, heb je inderdaad voor $100 minder de performance van de GTX285 (stock) ge-evenaard/overtroffen. Dat is niet mis! En de framerate in Crysis is al met al zo'n 15 fps hoger dan de 4870 en dát is wél degelijk de moeite! Hulde :Y)

Ben stiekum nog vreselijk benieuwd wat voor moois hierna komt op 40nm ! O+
De exemplaren die 1GHz halen zijn wel speciaal geselecteerd he. Waarschijnlijk is dat bij dit ding van Powercolor ook het geval. Een reguliere 4890 zal zich denk ik minder laten overklokken. Daar zul je toch voor moeten betalen, misschien kost deze straks wel gewoon tegen de 300 euro... Net zo veel als een GTX285.
Alle RV790's die boven de 900 MHz geclockt worden gebruiken volgens mij wat AMD noemt de RV790XT core. Dit zijn gewoon de cherry picked RV790's die op stock voltages die 1000 MHz al halen.

Maar dit zijn erg rappe kaartjes. Ze kunnen op deze speeds met de GTX285 OC kaarten mee komen en ongeveer even veel game tests winnen.
De sapphire atomic HD 4890 zou op een spanning van 1,5V lopen, en van 1000MHz max naar 1020MHz verhoogt kunnen worden. Het is niet duidelijk of deze ook een cherrypicked RV790-gpu heeft.
Hoewel dit natuurlijk prachtige kaarten zijn, zeker als je ze ook nog eens in Crossfire gaat zetten, vraag ik me af, zeker met een beetje het milieubewuste in mijn achterhoofd, waar we mee bezig zijn?

Ik noem mezelf niet een treehuggin' hippy-type, sterker nog, ik vreet rundvlees alsof mijn leven er vanaf hangt, maar ik kan me niet helpen dan me een beetje schuldig voelen bij dit soort kaarten.

Als ik dan ook een artikel lees van Ome Tom dat 2x 4770 niet alleen vergelijkbaar is in snelheid dan een stock 4890, maar ook nog eens bijna de helft zuiniger in stress, dan vraag ik me al helemaal af waar we mee bezig zijn.

In CPU land heeft men al door dat de 3GHz barriëren zo'n beetje de limiet is (voorlopig), en plakken ze liever meer cores op elkaar, wat natuurlijk eigenlijk vrij logisch is (Windows taskmanager van AMD met hun 4-way 12-core systeem blijft in mijn hoofd spoken) --> nieuws: AMD demonstreert 48-core Opteron-server

Bij GPU's zouden ze dat eigenlijk ook meer moeten doen, vind ik. Hoewel dat natuurlijk al gedaan wordt met de shaders, kan het naar mijn mening beter óók gebeuren op een hoger niveau, waarom moet alles nou altijd Single zijn? Als ze nou eens één mooie basis GPU maken, en daar dan afhankelijk van low-mid-high-end vereisten meer op één kaart plakken, zal je meer krijgen.

Maar goed, dan heb je weer het kip-ei verhaal wat CPU-land lang plaagde, en nog steeds een rotte appel is, de helft van de ontwikkelaars bespaart door 'narrow minded' aan het uni-GPU/CPU concept vast te plakken.
Je punt is niet helemaal valide aangezien je CPU vergelijkt met GPU.

Er zijn weinig spellen die een CPU sneller dan 3GHz nodig heb, maar wel bijzonder profiteren van meerdere cores. Meerdere cores zorgt net zo goed voor meer energieverbruik.
Er zijn VEEL spellen die behoefte hebben aan een snellere GPU. De GPU is tot nu toe bijna altijd de bottleneck op hogere resoluties en elke MHz extra blijkt te helpen.

Helaas wordt het leeuwendeel van de geschreven programma's niet tot in de puntjes geoptimaliseerd voor meerdere cores. Dit geldt nog meer voor spellen, waar een CF setup misschien 80-90% betere prestaties geeft en een tri-CF setup 120% betere prestaties t.o.v. één core.

Dan is er nog een argument wat tegen een CF 4770 vs. een 4890 spreekt, namelijk dat er dan twee kaarten moeten worden geproduceerd ipv. één en natuurlijk is het procedé argument van SECURITEH (hieronder) ook nog van belang.
Ook is het zo dat een CF 4770 ongeacht hoe (enkel PCB. dual PCB, losse kaarten) (veel) meer ruimte innemen dan een enkele 4890, dus ongeacht het milieu, veel mensen kiezen voor zo'n setup.
De HD4770 is zoveel zuiniger omdat het een kleiner produce is... dus dat is niet helemaal een eerlijke vergelijking.
De 40nm high end kaarten zullen pas met de volgende generatie van ATI komen en die zullen zonder twijfel zuiniger en sneller zijn als de huidige reeks.
koop eerst een 80+ silver of gold PSU ;)

ten eerste de maximale frequentie van CPU heeft meer te maken met het architectuur
Pentium 4 was ontworpen om te functioneren bij zeer hoge frequentie (in latere stadium) en die CPU hebben dan ook de hoogste geklokte retail versies

ten tweede vergeet het GHz vergelijkingen
een CPU dat is ontworpen om per cyclus 200 berekeningen te maken tegen een CPU die is ontworpen om 100 berekeningen te maken per cyclus
wanneer de eerste CPU op 2 GHz loopt en de tweede CPU of 3 GHz is vergelijken totaal op puur alleen frequentie gewoon overbodig

[Reactie gewijzigd door AmazighQ op 13 mei 2009 20:04]

3 ghz barriere? qua ghz de snelse stock processoren zijn 3.6 ghz geweest, en er had makkelijk een c2d 4 ghz kunnen zijn, ware het dat die gewoon nooit uitgebracht zijn.. (een groot deel van de e8xxx serie c2d's haalt makkelijk 4 ghz, zonder extreem energieverbruik)

[Reactie gewijzigd door AlexanderB op 13 mei 2009 19:14]

Pentium 4 3,8GHz was de snelste stock clocked CPU van Intel.
Normaal ging er zelfs een 4GHz komen, maar deze is door komst van de C2D in der tijd afgelast
Vergis je daar niet in die is eerder afgelast omdat het energieverbruik van de NetBurst architectuur gewoon te veel werd. Het TDP van die dingen op 3,8 GHz was al hoog en de 4 GHz variant zal nog hoger liggen (om maar te zwijgen over het idee dat NetBurst eigenlijk bedoeld was om over de 10 GHz grens te gaan).

Intel had met NetBurst gewoon het verkeerde pad gekozen en daarom zijn ze er ook vanaf gestapt en verder gegaan met de volgende generatie processors op basis van de Pentium M (die nog ergens ver weg afstamt de Pentium Pro).
De P4 3.8GHz is ver voor de Core 2 Duo uitgekomen. Na de P4's kwamen eerst nog de Pentium D's op lagere kloksnelheden dan 3.8GHz.

Intel heeft de schaalbaarheid van de NetBurst overschat, maar dat is niet zozeer vanwege het verbruik. De P4 Prescott 3.6GHz werd zo warm, dat ie ging throttlen, hij kon in een normale kast niet op volle snelheid draaien met 100% cpu. Sterker nog, een of andere site (volgens mij Toms Hardware) heeft laten zien dat als je merkloze koelpasta gebruikte ipv Intels vrij goede pasta je zelfs niet eens meer in Windows kon komen. De enige reden waarom de P4 3.8GHz heeft kunnen bestaan is vanwege een nieuwe stepping, maar ook daarmee was de rek er wel uit. Uiteindelijk heeft Intel dual core processoren kunnen produceren die trager liepen, dus was er minder problemen met warmte
Geen x86 weliswaar, maar de Power6 van IBM doet standaard zelfs 5GHz.
350 ghz ?!?

[Reactie gewijzigd door i8086 op 14 mei 2009 04:05]

Ik denk dat jij je even moet inlezen in de volgende generatie Ati kaarten :P
je wordt namelijk op je wenken bedient.
Daarom is het mooi als je ze idle naar lage clocks kunt zetten maar wanneer je een stevig potje wilt gamen ze wel de máximale performance geven die je nodig bent! :)

Ati Tray Tools FTW :Y)
4770 niet alleen vergelijkbaar is in snelheid dan een stock 4890
Volledig foute interpretatie tenzij je zo'n kaarten gaat kopen om op 1024x768 zonder AA of AF te spelen. De 4770 in CF zetten is nogal weggesmeten geld tot er een 1024MB versie komt.
Jij hebt zeker de afgelopen twee jaar onder een steen gelegen ofzo?
En altijd moet er weer íemand zijn die weer over slechte drivers begint.
Ik snap dat eeuwige ge-emmer over die drivers niet .. :/

Heb al jaren ATI en de Catalyst drivers doen het super. En iedere update gaat er ook weer moeilteloos overheen zonder ge-emmer. Werk altijd met een aantal profielen voor lage clocks, medium clocks en hoge clocks, monitor settings en tv-settings en die doen keurig wat ik wil dat ze doen. En deze profielen neemt hij ook bij iedere update weer keurig mee naar de volgende build. Crashen gebeurt me vrijwel nooit.
Waarschijnlijk omdat het met name gebaseerd is op persoonlijke ervaringen en mensen nu eenmaal van klagen houden. ;)

Zelf heb ik nog geen ATI kaart gehad die echt stabiel wilde draaien. Daarintegen met NVIDIA nog nooit problemen gehad. Het enige nadeel is dat NVIDIA drivers custom settings voor spellen helaas niet onthouden tussen upgrades.

Misschien ligt het aan combinaties van hardware, ik weet het niet. Maar het is toch opvallend dat de één zweert bij ATI en de andere bij NVIDIA qua stabiliteit. :)
Van wat ik zelf zie zijn dit over het algemeen zeer specifieke gevallen. Ik heb zelf nog nooit problemen ondervonden behalve dat sommige oude games bijzonder brak draaien (Neverwinter Nights, OpenGL als ik me niet vergis).

1. Playstation 2 emulatie: Hier wordt standaard nVidia aangeraden tenzij je een deftige quadcore hebt om het offloading naar de CPU wat ATi doet op te vangen. Op een dual core schijnt dit de prestaties enorm te beïnvloeden omdat emulatie nu eenmaal grotendeels op de CPU loopt, en PCSX2 voor 2 cores is geoptimaliseerd en deze dus volledig wil benutten.

2. OpenGL: Enkele devvers in hetzelfde circuit heb ik regelmatig hun ongenoegen horen uiten over de ondersteuning hiervoor. Ik meen echter wel gelezen te hebben dat ATi niet stil heeft gezeten en dat ze continu de drivers hebben verbeterd.

Maar goed, afgezien van deze zeer specifieke problemen ben ik ook van mening dat het vaak zwaar overtrokken is. Zo heeft een vriend van mij meer dan een jaar moeten wachten totdat een probleem in Test Drive Unlimited was verholpen omdat de nVidia drivers voor gestotter zorgden, om maar te zwijgen over het Vista fiasco. nVidia is ook niet heilig, het hangt simpelweg van je gebruik af en hoe snel je de nieuwe games wilt spelen. Ik heb altijd de tijd te wachten op patches en nieuwe drivers van ATi, dus het TWIMTBP effect heeft voor mij ook minder waarde.

Kortom, sommige klachten over drivers zijn weldegelijk gefundeerd, maar daar staat tegenover dat er een hoop FUD in de wereld is, en veel mensen elkaar nablaten zonder eigenlijk verstand van zaken te hebben. (Okey, ik heb zelf ook geen links naar grafieken, dus je zou m'n woord mogen nemen voor wat het is :9 )
Wat is er mis met hun drivers? Enige argumenten zijn welkom. En weet je echt dat het aan hun ligt of doe jij misschien gewoon wat verkeerd? Ik zeg zeker niet dat die drivers feilloos zijn en heb hier en daar vroeger ook wel een bug gehad maar vaak is anders en fouten zijn menselijk.
Mooi om te zien dat bedrijven deze kaart al flink boven hun standaard clocks laten lopen! Er lijkt redelijk wat overclockpotentieel in te zitten.

Ook typisch dat de kaart korter oogt, als je de volgende foto's met elkaar vergelijkt.
PowerColor HD 4890
"Standaard" HD 4890
haha, wat een vergelijking

-twee verschillende fotos
-foto's uit verschillende hoeken gemaakt
-verschillende achtergronden
-verschillende afbeelding resolutie

alle bovengenoemde spelen een rol als je producten via foto's wilt vergelijken.

Als je deze twee wilt vergelijken moet je ze dan wel onder zelfde omstandigheden fotograferen of minstens naast elkaar (zie vaak in reviews).
Je kan ook simpel kijken hoe vaak de PCI-E aansluiting past in de rest van de kaart, die zijn sowieso even lang dus als hij net zo vaak in beide kaarten past weet je dat ze evenlang zijn en maakt de achtergrond, resolutie en verschillende foto's sowieso niet uit. De hoek ook niet heel veel bij deze foto's.
Simpel is wel erg kort door de bocht. Sterker nog jouw methode kan nooit nauwkeurig werken in perspectief (met diepte en horizon verhaal).

Als de kaart in perspectief gefotografeerd is werkt jouw methode zeker niet :X (loodrechte zij/boven foto kan nog wel) omdat de afmeting van de pci-e slot te groot is om deze in perspectief met horizon achterin te plaatsen en vanuit gaan dat de lengte klopt .Alles voorin de afbeelding is immers net iets groter dan achterin, afhankelijk van de perspectief hoek ( je kan het dus absoluut niet 1:1 opmeten)

Hoek maakt wel degelijk veel uit .

Kleine verschillen vang je niet op met jouw methode op schuin gefotografeerde kaarten, en dan kan het net 5 mm schelen waardoor je HD weer net in de weg ligt.

Dit kan je zelf testen met b.v. photoshop met bovenstaand plaatje en je zal zien wat ik bedoel.

Maar het is allemaal mierneukerij :+ ben wel kritisch als men iets vergelijk onder verschillende omstandigheden en vanuit gaat dat het maar zo goed zal zijn.

Of nog makkelijker je wacht op de eerste review waar dit kwestie ongetwijfeld ergens ter sprake zal komen. ;)

[Reactie gewijzigd door josipbroz op 14 mei 2009 11:32]

Maar ik had het ook over het perspectief (hoek) waarin deze specifieke foto's zijn genomen, eentje totaal van bovenaf en de ander redelijk en niet raar vervormd dus bij deze foto's kan het zeker wel.
hm, oogt, want volgens mij zijn ze even lang.. :)
Ik denk dat dat gezichtsbedrog is, de Powercolor kaart is wat 'hoger' omdat de koeler de kaart een wat meer kubusachtige vorm geeft. Zowel en de breedte als in de hoogte lijkt hij wat groter door die koeler, waardoor de lengte minder lijkt naast de standaard 4890. Volgens mij zijn ze gewoon even lang namelijk ;)
overduidelijk even groot. er is van uit een andere hoek een foto gemaakt, plus die powercolor's koeler is kleiner, waar door het geheel ook kleiner oogt

Edit: kijk maar onder bij de aansluiting, daar is het goed te zien, kaarten zijn even lang

[Reactie gewijzigd door AnarkhiA op 13 mei 2009 19:26]

En de backplate van de standaard ook iets groter is :)
de cooler lijkt een beetje op de Zalman GV1000, of lijkt die van zalman op die van Zerotherm?
de grens in doorbroken. 1000mhz voor de gpu woohooo.
weet nog goed dat de nvidia fx 5800 de eerste was die 1000mhz ram doorbrak. niet helemaal eerlijk gezien deze kaart niet oficeel gelaunchd is met 1ghz core speed.
Ach het gaat er niet om wat eerlijk is en hoe je het bereikt toch (oke oke er zijn natuurlijk grenzen een verbruik van 1 kW is natuurlijk niet leuk meer)?

Ik bedoel ook al brengt AMD een GPU uit die 1 THz klokt en Nvidia brengt er eentje op de markt die gewoon 1 GHz klokt maar even snel is en beide ongeveer hetzelfde energie verbruiken wat maakt het dan uit (niet dat dit natuurlijk realistisch maar even dat ter zijde).

Het punt dat ik probeer te maken dat die kloksnelheden weinig uitmaken, het zijn leuke getalletjes maar de uiteindelijke prestaties en verbruik zijn de dingen die er echt toe doen.
ER zijn ook overkloklijsten die gewoon puur op behaalde Hz afgaan. Daar doet het er niet toe of je nog performance hebt.
En waarom zou je op zo'n 'overkloklijst' willen staan als een andere kaart toch even snel is met minder Hz? :)
Omdat het niet over prestatie in de echte wereld draait maar wel de lijst waarop ze willen. Zoiets snap je of je snapt het niet.
best leuk om te zien dat men deze kaart zo ver op weet te voeren en op dit model zit een erg goede koeler zo te zien en betere kwaliteit condensatoren, maar imho een beetje lastig om het nut ervan goed te keuren afgezien van dat je kan pronken met een 1+ghz gpu in je gamebak.
misschien is het zelfs beter als je voor snelheid gaat om voor de meer prijs die je betaald voor een extra hoog overgeclockte 4890 een crossfire van bijv. de 4770 of de 4850 te overwegen. Er zijn al enkele 4850 modellen onder de ¤100 geprijst en daarmee blaast een crossfire de concurrentie van de kaart want met 2 maal een 4850 heb je meer snelheid dan met een extra snelle GTX285 van veruit een hoger prijs niveau. ja het idee van de 4850x2 vond ik dan erg goed op papier alleen het balen ervan is dat alleen sapphire de kaart uitgebracht en dat model een erg luide koeler heeft
het is me opgevallen dat overgeclockte versies en versies met premium koelers nauwlijks nog verschillen zodra er een sneller model geintroduceerd wordt zoals 4890 dat is voor 4870. zo zie je vaak een ASUS darkknight of een XFX model koeler op een 4870 voor ¤2 a 3 meer dan van het instap sapphire model bij veel webshops. Met een beetje geluk tref je ook zo iets voor de 4850 maar een 4770 crossfire is natuurlijk niet veel langzamer maar wel zuiniger.
Al deze OC versies... je kan dit toch ook zelf doen met de standaard referentie koelert erop volgens mij?
nu alleen nog eens een spel waarvoor je zo'n kaart nodig hebt cq ook echt kunt genieten van de meerwaarde. Of kickt iedereen alleen op benchmarks?
Meer dan genoeg games die zelfs monsterlijke setups nog steeds doen zweten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True