Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties

In Japan is een HD 5770 XXX van videokaartfabrikant XFX opgedoken. De videokaart lijkt erg veel op de standaard HD 5770 van XFX, maar is voorzien van een lichte overklok. In Japan moet de videokaart omgerekend 230 dollar opbrengen.

De HD 5770 XXX is voorzien van de originele standaardkoeler, die de hele videokaart bedekt en de warme lucht naar buiten blaast. Onderhuids sleutelde videokaartfabrikant XFX echter wel het een en ander. De kloksnelheid van de Juniper-gpu, die normaliter 850MHz bedraagt, werd door XFX iets opgekrikt naar 875MHz. De klok van het gddr5-geheugen kreeg een forsere boost en werd van 4800MHz naar 5200MHz opgetild.

De gpu heeft 800 streamprocessors en staat via een 128bit-geheugenbus in contact met het 1GB grote gddr5-geheugen. Zoals gebruikelijk is de videokaart voorzien van twee dvi-poorten, een hdmi-interface en een displayport. De overgeklokte HD 5770 zou in Japan omgerekend 232 dollar kosten, wat een grove prijsindicatie voor Nederland geeft van 162 euro.

XFX HD 5770 XXX XFX HD 5770 XXX XFX HD 5770 XXX XFX HD 5770 XXX
Moderatie-faq Wijzig weergave

Reacties (44)

Even Furmark gedraaid met een HD 4770 op 750/775 core 800/900 mem DDR5, resultaat is een boost van 17.35% van 2938 naar 3448 frames. (bench 1280*1024 windowed 60s bench)

Dat vind ik helemaal niet verkeerd, voor zo'n lichte OC en dan 17% winst. Ik ga er een beetje vanuit dat dit voor de HD 5770 vergelijkbaar zal zijn.

Core flinke boost geven, heeft nauwelijks resultaat, 3% met een OC van 100 MHz zonder geheugen aan te passen. (voor mijn 4770 dan)

How I wish, how I wish u were 256bit.
Ow geweldig, laten we Fumark gaan spelen!
Als je echte games gaat spelen maakt het vrijwel geen ruk uit, zie hier; met zwaardere overklok 950core, 5620mem; amper 2 a 3 fps meer. Het is aardig hoor, maar om nou te zeggen dat je spellen ervan gaan "vliegen"; nee.

http://www.guru3d.com/article/radeon-hd-5770-review-test/24

Ik zou er iig geen dubbeltje extra aan uitgeven, XXX edities.

[Reactie gewijzigd door Madrox op 22 december 2009 00:47]

Ha, +11% fps dus op 2560x1600 bij een 11% overclock. Leuk hť cijfertjes interpreteren!
Als jij het leuk vind om met een gemiddelde FPS van 18 te spelen O-)

Dat is nou precies wat ik bedoel, 11%'het is fantastisch!
(maar het spel draait nog steeds ruk, en je moet maar hopen dat die 11% overklok je GPU niet eerder om zeep helpt dan je zou hopen)

[Reactie gewijzigd door Madrox op 22 december 2009 20:59]

Ik moet zeggen dat ik het leuk vind, maar totaal niet aantrekkelijk ten opzichte van het origineel. Overigens kost die volgens mij bij een 'bekende computer winkel keten beginnend met een c' 150 euro. Het prijsverschil is dan ook niet heel groot (als we uit mogen gaan van de 165-70).

Goed een OC is wel niet gegarandeerd op een 'gewone' natuurlijk en het geheugen heeft een aardige OC (maar ook niks extreems). Mijn standaard XFX 5770 haalt vrij gemakkelijk 930 MHz en 1385MHz OC zonder voltmod oid (wat geloof ik wel al kan via software).

Ik meen dat hij nog wat verder kan, maar ik ben gewoon gestopt met OCen (en heb hem weer terug op stock staan, vond 9% performance gain *nu* niet echt zinvol). Scheelt wel een graad of 3-4 in temps maar toch nog steeds niks waar ik van schrik.

Verder blijft het reference design qua outputs toch aantrekkelijker dan de custom PCBs die er nu zijn geloof ik dus wat dat betreft snap ik XFX. Wel echt jammer met de reference koeler blijf ik vinden dat de mem chips op de onderkant van de plank niet eens (extra) koellichamen hebben (maakt me ietsjes huiverig om die lang geOCd te laten)... Overigens, zoals Darkcarlaza zegt bij zijn 4770, meen ik ook ergens gelezen te hebben dat de 5770 ook geheugen OC erg leuk vindt om te doen (maar weet zo helaas niet meer waar).

[Reactie gewijzigd door Scorpei op 21 december 2009 21:05]

Zo'n kaart heeft aan een 300Watt voeding meer dan genoeg

[Reactie gewijzigd door comrade op 21 december 2009 19:45]

In theorie wel ja, in de praktijk houd het vaak in dat het vermogen van de voeding niet goed verdeeld is om de videokaart van genoeg prik te voorzien, resultaat: spanningsschommelingen en een ontzettend instabiel systeem tot een videokaart die de pc laat rebooten op het moment dat hij aan het werk moet.
300watt is echt veel te krap, je zult toch echt minimaal een goede 450watt voeding moeten gebruiken (lees: 80%+ efficiŽntie)
Komt nog bij dat voedingen bij laag gebruik efficiŽnter zijn en het daardoor vaak loont een veel te zware voeding in een pc te hangen (dan wel een 80%+ efficiŽnte voeding uiteraard)
Komt nog bij dat voedingen bij laag gebruik efficiŽnter zijn en het daardoor vaak loont een veel te zware voeding in een pc te hangen (dan wel een 80%+ efficiŽnte voeding uiteraard)
Heb je daar een bron van? De meeste rapporten op http://www.80plus.org/ geven aan dat de voeding bij ongeveer 40-50% belasting de hoogste efficientie heeft.
40-50% procent is ook redelijk laag, als je dan 300 Watt trekt hebt heb je dus een voeding van 600-750 Watt nodig.
En hoeveel systemen trekken 300 Watt in idle-modus? Zelfs al heb je 2 HD5870's en een Phenom II X4 965, die samen goed zijn voor zo'n 500 Watt TDP, dan nog gebruik je misschien een keertje ~75 Watt in idle modus. (~27Watt per kaart en dan nog wat voor je processor in CnQ-stand). Het hele systeem zal niet boven de 100 Watt uitkomen, misschien 150 Watt als je geen CnQ gebruikt.

Wanneer je er dan 300 Watt bij gooit (voornamelijk voor de 2 videokaarten), dan kom je nog steeds op maar 450 Watt. Neem je dan de veiligheidsmarge erbij, dan heb je dus een 550-600 Watt voeding nodig. Belangrijkste is dan gewoonweg dat de 12V rails goed genoeg zijn.
ehmm, in idle is wat anders als Ųp de desktop". Laat ik je zeggen dat ik ruim 160watt idle meet met een HD4850 CF setup en een E8400 (+ de nodige overige hardware).

Op de desktop zit je iig zo boven de 100watt ;)
Belangrijk is ook dat je voldoende, ruim voldoende reserves hebt. Met een HD5870CF setup zit je onder gamen zo aan de 400watt load, met dik overklokken van je CPU ruim daarboven.
Kom je in de buurt van de 500watt, wel, dan is ene 750watt voeding niks teveel. heb je een load van 66% en "slechts", maar zeker voldoende reserves a 33%.

[Reactie gewijzigd door Madrox op 22 december 2009 21:05]

en laatst op tweakers.net een grote voedingen review(weliswaar zware voedingen) waarbij deze 80% wel behaald werd
Helemaal mis, helaas. Er heerst een fabeltje dat je altijd minstens drie keer zo veel vermogen moet hebben als wat je systeempje verbruikt maar dat is niet waar. Dit kaartje heeft een TDP van ongeveer 100W. Met een 300W-voeding heb je nog 200W over en dat is genoeg voor de meeste pc's.

Daarbij is het ook niet zo dat voedingen helemaal niet efficiŽnter zijn bij een laag verbruik, dan kakt de efficiŽntie juist in. Dit gebeurt echter pas onder de 20% en daarboven is de efficientie vrij constant. (scheelt hoogstens procenten)

Als laatste zegt 80%+ niet veel over hoeveel een voeding kan leveren, enkel over hoe efficiŽnt de voeding met de stroom omgaat. Een niet-80%+ voeding kan nog steeds gewoon netjes 300W leveren als dat erop staat.

Kortom: Die 450W is inderdaad een aanrader, maar alleen als je een brakke voeding hebt. Met een goede voeding is 300W echt wel genoeg.

[Reactie gewijzigd door bwerg op 21 december 2009 21:00]

Behalve als er een Qtec sticker opzit, dan kan ie maar de helft leveren van wat erop staat ;).
Dat is inderdaad wel apart, en waarom zou je eigenlijk zoveel willen richtenop een chippie, terwijl je gewoon beter kunt vestigen op stroomverbruik. Zo'n grote kaart laat je al snel een 600w+ voeding kopen, a 80-120 euro .
Wie heeft dat bedacht? Om daadwerkelijk aan de 600W te komen moet je echt high-end kaarten in crossfire gaan draaien. Deze kaart werkt nog met een 300W voeding.

Hoe wil je je trouwens richten op stroomverbruik en niet op een chippie? Het is juist je chippie (en geheugen) die stroom verbruiken dus als je stroomverbruik wilt terugdringen moet je je chippie juist doorontwikkelen. Dat is bij de HD5000-serie al prima gedaan. En als je de deze kaart nog te veel vind verbruiken dan ben je kennelijk niet zo ingesteld op games en neem je toch gewoon een IGP ;)
Op de foto's staat dat de Memorybus 128bit is, typo dus.
Deze lichte overklok vind ik niet echt het geld waard.
Hebben ze hem ook gevolt mod? meer transistors erop of ietsdergeliks?
Anders koop ik gewoon die andere 5770 versie met msaar 1 crossfirepoort met massieve transistoren.

:)

[Reactie gewijzigd door alaintje op 21 december 2009 19:58]

Eindelijk een kaart die vanuit de fabriek overgeclockt is.
Dit is een leuke kaart maar misschien toch wat te duur voor de extra's die je erbij krijgt. Aangezien er toch een standaard AMD koeler opzit.
25MHz verhoogd, ik lach me rot.

Beter zouden ze zich focussen op het beschikbaar stellen van meer reference dual-slot kaarten voor een lagere prijs. :*)
Maar het geheugen is wel 100 Mhz overgeclocked... (400 Mhz effectief)
Ze mogen niet hoger dan AMD, in ieder geval voorlopig nog niet.
Ik begrijp 1 ding niet. De 5770 heeft toch een 128bits geheugenbus? Als dit 256bit is dan is dit behoorlijk veel sneller dan een normale 5770 lijkt mij.
Op hoge resoluties met AA aan waarschijnlijk wel ja, maar de 128 bits bus is juist kenmerkend voor de 57xx serie. Als je hiervan een 256 bits bus maakt heb je in feite een 58xx kaart.

Het voordeel van een 128 bits bus is, is dat dit de kaart goedkoper maakt om te produceren

[Reactie gewijzigd door StefanvanGelder op 21 december 2009 19:40]

Je hebt pas een 58xx-kaart als je ook het aantal shaders verdubbelt.

Het is wel zo dat een 128-bit bus de prestaties van de HD5770 een beetje in de weg zit maar dat het heel veel sneller zal worden dan een 128bits zal niet zo zijn.
Neej hoor, het is pas een HD58xx kaart als AMD hem in die reeks positioneerd.

Er zijn geen minimale specs voor een HD58xx kaart, noch maximale specs.

AMD kan ook een lowbudget kaart als HD5890 positioneren, het zou verwarring met zich mee brengen, maar AMD is vrij om te doen wat hij wil met zijn kaarten.
Lijkt mij ook een typo
Op de doos (foto) staat ook 128 bits :)
Oops, idd een typo. Hoe die er in is geslopen nadat ik er al zo vaak over geschreven heb weet ik ook niet :P
Jezus wat heeft die gast een dunne arm :Y)
Anders is dat gewoon een vinger ofzo ;(

Ik snap niet waar dat XXX vandaan komt bij deze specificaties.
Op de Nvidia kaartjes betekende dat altijd een dikke OC op de kaart, vergelijkbaar met de ASUS TOP versies oid. Hier is het een lullige 25MHz op de core? Goed, het geheugen loopt wel een stukje harder, maar dit moet iedereen toch zelf er ook bijgeklokt krijgen. En dat was met eerdere XXX versies lang niet altijd volgens mij.

[Reactie gewijzigd door toimoi op 21 december 2009 20:22]

volgens mij is dat een verplichting van ATI, standaard pcb's mochten maximaal maar 25 Mhz core, overclockt worden...vraag me niet waarom, maar wellicht om diversiteit te promoten zodat fabrikanten eerder aan de slag gaan om hun eigen inventieve pcb's te ontwikkelen!
Haha, geweldig! Ik lag hier achter m'n bureaute hikken van t lachen op m'n werk, en ze kijken me aan alsof ik gek ben. :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True