Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 115 reacties
Bron: HEnthusiast

Met de Radeon HD 2600 XT zet ATi een videokaart uit de middenklasse op de markt die het moet opnemen tegen nVidia's GeForce 8600 GT. HEnthusiast kreeg een referentiemodel in handen, maar bemerkte al snel dat de kaart 'too little, too late' is.

De gpu van de HD 2600 XT is op basis van het 65nm-procedé gebakken, terwijl de duurdere Radeon HD 2900 XT een grafische chip op basis van een 80nm-architectuur bezit. Daardoor zou ATi in staat moeten zijn de kaart een compact ontwerp te geven, maar de reviewers noemden het testexemplaar met zijn lengte van bijna 23 centimeter aan de forse kant. Het referentiemodel voelde met zijn forse heatsink ook zwaar aan. De kaart kan door de fabrikant wel voorzien worden van features als CrossFire-ondersteuning, dual-link dvi- en hdmi-poorten.

De in Nederland ongeveer 135 euro kostende kaart kan zowel uitgerust worden met ddr3- als ddr4-videogeheugen. Het testexemplaar was uitgerust met ddr4 en werd in een pci-e-sleuf op een Gigabyte-moederbord geprikt. Als cpu werd een Intel Core Duo E6600 op 2,4GHz gebruikt en Windows Vista Ultimate x64 diende als testplatform. In de DirectX 9-titel The Elder Scrolls IV moest bij de 2600 XT de detailniveaus teruggeschroefd worden, terwijl de GeForce 8600 GT aanmerkelijk minder moeite had om de complexe 3d-omgeving te renderen. In World of Warcraft: The Burning Crusade weet de ATi-kaart hoge resoluties speelbaar aan te bieden, maar dan wel zonder anti-aliasing; opnieuw heeft de 8600 GT hier geen last van. De reviewers testten ook de DirectX 10-titel Lost Planet: Extreme Condition. In hogere resoluties blijkt de videokaart opnieuw over te weinig spierballen te beschikken om alle beloftes over mooiere beelden in te lossen. Opvallend is wel dat dit spel in DirectX 9-modus bijna twee maal sneller draait.

ATi Radeon HD 2600 XT

Behalve naar het testen van de kaart keken de reviewers ook naar het stroomverbruik. Ondanks het 65nm-ontwerp van de gpu en het feit dat de videokaart door het pci-e-slot gevoed kan worden, gebruikt de kaart onder full load toch nog een kleine zestig Watt. Aangezien de HD 2600 XT ook in 2d-modus zijn kloksnelheden niet dynamisch aanpast, zou de Radeon meer verbruiken dan het exemplaar met de nVidia-gpu. Door beperkingen in de driver kon de gpu, die standaard zijn werk doet op 800MHz, niet verder overgeklokt worden dan 857MHz. Het geheugen kwam niet verder dan 1179MHz, met 1100MHz als basissnelheid. De prestaties gingen door deze uiterst geringe marges slechts met maximaal een procent omhoog. Door de stringente beveiliging in de 64-bit editie van Vista, kregen de reviewers het ook niet voor elkaar om handmatig de klokfrequentie hoger te tillen, zonder dat het systeem instabiel werd. Over ATi's Unified Video Decoder, een hardwarematige oplossing voor het afspelen van hd-materiaal, blijkt het testteam wel te spreken te zijn. Het afhandelen van complexe vc1-videostreams gebeurt geheel door de gpu, terwijl de nVidia-kaart voor een deel leunt op de cpu. Momenteel kan de ATi-driver deze klus echter alleen klaren in 32-bit modus.

Wanneer de reviewers hun uitgebreide onderzoek naar de potentie van de Radeon HD 2600 XT beëindigen, laten de conclusies niets aan duidelijkheid te wensen over: 'too little, too late'. In de ogen van beide testers is de ATi-kaart een flinke teleurstelling, terwijl de prijs op een vrijwel gelijk niveau ligt met de beter presterende GeForce 8600 GT. Daarom zegt HEnthusiast de kaart niet aan gamers te kunnen aanraden.

Moderatie-faq Wijzig weergave

Reacties (115)

Was HardOCP ook niet die site waar de 2900XT over de hele lijn minder presteerde dan de 8800 GTS 320, waar zowat alle andere sites een ander plaatje lieten zien?

Ik neem het alvast met een korrel zout...

Er zijn overigens nog genoeg reviews die ook hier een totaal ander beeld laten zien.

http://www.insidehw.com/content/view/159/9/1/4/
http://www.custompc.co.uk...-2600xt-review/page2.html
http://www.thetechlounge....-11/ATI+HD+2600+XT+256MB/
http://www.tweaktown.com/...final_thoughts/index.html
http://www.trustedreviews...T-2600-Pro-and-2400-XT/p6
http://www.ocworkbench.com/2007/powercolor/HD2600XT/b9.htm

[Reactie gewijzigd door mieJas op 17 juli 2007 19:38]

Leuk leesvoer, maar totaal anders zou ik 't beeld niet willen noemen.

In XP scoort ie beter of gelijk. In Vista scoort ie gelijk of minder. Dat is zo'n beetje de rode draad die door al die reviews loopt.

De enige die in die reviews een voorsprongetje heeft is de Palit kaart, maar die is stock overgeklokt. Dus eigenlijk moet je die ffkes buiten beschouwing laten.

En, vooralsnog blijft natuurlijk alles nog koffiedik kijken, omdat zowel AMDTI als nVidia nog flink wat werk voor de boeg hebben willen ze fatsoenlijke drivers afleveren. :)

Sowieso: als er een significant verschil zit in de benchmark van de een versus die van een ander dan is dat verschil meestal te verklaren doordat ze andere drivers gebruikt hebben.
Dit bevestigt dat het in de Microsoft Vista software een driver probleem is met Ati kaarten. Was het niet een tijdje geleden nieuws van microsoft dat ze Direct X 10 gingen aanpassen om de driver voor Nvidea omdat er iets mis zat in hun ontwerp? Zou Nvidia misschien een hack gebruiken om beter te presteren in dx10 in vista denk ik dan.
Wat ook opvallend is dat het de bronnen blijkt dat deze kaart beter persteert dan zijn concurent in windows XP. Wijst weer in de richting van de driver. Kwestie van tijd allemaal.

[Reactie gewijzigd door Deem op 18 juli 2007 08:41]

Ach ATI drivers doen het tenminste volledig onder Vista, ik zou denken dat een 100% werkende ATI kaart dan nog een betere keuze is dan een 80% werkende Nvidia kaart.
Ehm wie zegt dat die videokaart al 100% werkt? Staat nota bene in het artikel dat uvd bijvoorbeeld alleen versneld wordt in de 32 bit versie.
liever een 80% kaart die beter is dan een 100% kaart. betekent dat die alleen nogmaar krachtiger wordt en hij is nou al beter!
Wat een klungelsmurfen .... als je nou weet dat Vista mindere grafische prestaties levert dan XP (en dat mag zo langzamerhand wel bekend zijn) dan kan je natuurlijk nog wel een vergelijkingstest doen, maar de vraag is dan hoe representatief dat is. Verder is dit ronduit dom: "Door de stringente beveiliging in de 64-bit editie van Vista, kregen de reviewers het ook niet voor elkaar om handmatig de klokfrequentie hoger te tillen, zonder dat het systeem instabiel werd."

Blijft toch lachen, die reviews .... maar ik ben wel heel blij met m'n 8600GT, dat dan weer wel .... :)
het verschil met XP is zo groot nou ook weer niet.
mischien 2% verschil ano nu.
Dan lees jij andere dingen dan ik ...
En inderdaad het is zo dat internetreviews steeds minder geloofwaardig zijn...

Je denkt toch zeker niet dat -als- ik voor zo'n HD2600XT kies, ik de referentiekaart neem?????? Tjemig.

Bekend probleem zijn de drivers, met welke versie hebben ze getest? Ook een beta uitgeprobeerd?

Dat veel mensen zo een statement "too little, too late" zo klakkeloos kan overnemen, blijkbaar genoeg onwetenden onder ons.
Heel slecht.
De markt wordt steeds onduidelijker, vraagt veel meer onderzoek door consumenten eer goede producten te kunnen kopen.

En bijna niemand (heb geen zin om de posts terug te lopen) die vernoemt dat dat ding volledige HDMI heeft. Dat is zeeeeer interessant voor home cinema (enthousiastelingen), daar is-ie voor gemaakt. En ja je kunt er ook spellen mee spelen. En ik wed dat dat ruim genoeg is om LOTRO met veel grafische opties aan te spelen.
Snap best dat een review als deze enige emoties oproept, met name bij "die hard" ati aanhangers (like me). en je kunt wel degelijk je vraagtekens zetten bij de manier van testen en uitslagen en conclusies. MAAR.....

veel te lang moeten wachten op een kaartje die hoe je het ook wendt of keert het niet waar maakt. voor mij was de teleurstelling groot aangezien ik van ati was gewend dat ze altijd wel met een kaartje kwamen die voor een gelijkwaardige prijs de concurentie in de pan hakte.

je kunt nog duizend punten/argumenten aanslepen maar bottomline is: Nvidia en Intel zijn op dit moment beter/sneller dan Ati en AMD . ...... DUS mijn nieuwe Pc zal worden voorzien van een Core2duo(of quad) en een Geforce8xxxx. (met pijn in me hart, maar ook ik wil een snelle pc). Gissen over evenetuele verbeterde drivers en te verwachten ontwikkelingen is koffie dik kijken. Ati en Amd hebben deze slag verloren en hoop voor hun dat het niet hun genadeklap wordt.
Kerel, er is nog altijd een gigantisch verschil tussen sneller en beter. Sneller is meer FPS, meer GHz, meer teraflops en meer van die zooi. Beter is de support, drivers, software, extra's als UVD (beat that nVidia) en het hangt maar net af van waar je je pc voor gebruikt. Sneller is lang niet altijd beter, ATI heb z'n zaakjes op de extra's en software IMO beter voor mekaar, met nVidia heb ik niks dan misère gehad. Dan maar iets trager maar een fatsoenlijk werkende kaart...
die uvd is wel mooi, maar zit dus niet in de 2900xt. (logica?)
het zou ook wel te erg voor woorden zijn als ATI een half jaar nadat de 8800 op de markt is met een kaart komt die op geen enkel front weet te winnen. maar hoezeer ze hun best ook hebben gedaan: helaas pindakaas. het feit dat veel pc-adviezen en systeemverkopers ook voor nvidia kiezen in hun systemen zegt mij meer dan genoeg. ik ben het volledig eens met ddbruijn, ati en amd vangen op dit moment rake klappen.
omdat 1 winkel.........????????????? :?

oke, zal effe bij nog 1 winkel kijken:

http://www.sallandautomatisering.nl/?pid=33803&ref=2
http://www.sallandautomatisering.nl/?pid=33803&ref=2

en zie daar, weer gelijk aan prijs...en geloof me ..nog heel wat meer winkels

zucht ....... |:( mijn punt is:

als ati 6 maanden nadat de 8600gt op de markt is met een kaartje komt dat geacht wordt de top van het midden segment te zijn en vervolgens op meerdere fronten door een 6 maanden ouder kaartje (met hetzeldeprijskaartje of zelfs goedkoper) wordt voorbijgestreefd kunnen er 2 dingen aan de hand zijn:
1 - 2600xt te duur
2 - 2xxxx serie is niet het succes dat ATI beloofde
Voor dezelfde prijs heb je ook de X1950 Pro die nog steeds gehakt maakt van de 8600GT :Y)
Klopt mijn probleem met deze review is dat er met geen woord wordt gerept wordt over de drivers. Als de auto of de box zijn dan kan de 2600 het zo ie zo schuden. De laaste drivers zorgen er voor dat de kaart met 10% toe neemt. ( volgens somige site's ) Ga het volgend maand proberen als ik zelf een 2600 haal.
is het niet al jaren zo dat nvidia snapt wat de consument wil ?
intel moest even wakker worden maar snapt het nu ook.
al hoewel, op naar de quadcore die nog door niets ondersteunt wordt.
Bwa, niet echt. De consument wil vrijheid op het kiezen van een chipset voor een twee-kaarten situatie. Doen ze niet. De consument wil support op nForce 3 voor Vista omdat die bordjes het best kunnen trekken. Doet nVidia ook niet. De consument wilde Vista drivers toen Vista net uit wat. Moet ik doorgaan?
SLI op intel zal er wel aankomen, Intel heeft recent een licentie bemachtigd. :)
Ow? Ik meende zoiets gehoord te hebben, anderhalf jaar terug of zo. Merk er niet veel van. Terwijl crossfire goed loopt op Intel 975X, P965en P35...
ajah, waar heb je dat dan gelezen?

//edit
intel-sli is er niet en gaat er niet komen, althans dat was het standpunt van de ceo van nvidia een jaar geleden

[Reactie gewijzigd door oeLangOetan op 17 juli 2007 20:20]

Dat zou knap stom zijn, want dan heeft niemand meer een gezonde reden om een moederbord met nvidia chip te kopen.
nVidia brengt wel meer passief gekoelde kaartjes uit naar mijn idee. Dat is iets wat wel menig consument wilt, een stille pc. Ze laten alleen de mogelijkheden van de videokaart op het gebied processor ondersteuning bij video's e.d. beetje liggen....

Edit: Weet niet hoe het zit maar bedoel je dat HIS standaard een artic cooler erop heeft zitten? Want de gemiddelde consument weet niet eens dat je de koeler kan vervangen.

[Reactie gewijzigd door SRI op 17 juli 2007 21:43]

Ooit een Arctic Cooler op je videokaart gehad? Die hoor ik niet hoor. En wie is daar bekend in? HIS...
Bla bla bla, iets is niet x aantal core, het is of multicore (multithreaded) of singlecore (singlethreaded) of je dan 2 of 4 cores hebt maakt echt niet uit.

Imho, en als de hardwarefabriekanten nooit overstappen naar meerdere cores dan is er ook geen nut om er software voor te gaan schrijven. Het initiatief moet toch van één kant komen, en dit geval loopt de hardwarefabriekant wat voorop.

Maar na een tijdje gaan heus wel meer programma's meerdere core's ondersteunen, en dan heb je alsnog baat bij je superdeluxe multicore processor. Of gaat jou processor maar heel kort mee, en is het dan tijd voor een nieuwe?

Daarnaast verdeelt windows je applicaties vanzelf over meerdere threads. Dus dan kan je game op één core draaien als die geen multithreading ondersteund en kan de andere core gebruikt worden voor je achtergrond applicaties. Bijvoorbeeld je downloadprogramma oid.

[Reactie gewijzigd door ZpAz op 17 juli 2007 20:02]

Dit vind ik een slechte test betreft dx9. Want namelijk, iedereen weet dat 1. Vista trager is en 2. onder Vista slechtere drivers aanwezig zijn. Een eerlijk gevecht was in XP gehouden.
Beide kaarten zijn toch met Vista getest, dus hoezo zou het dan oneerlijk zijn :?
En als dit nou een review is voor consumenten die nu een pc hebben met windows vista en willen weten wat nu de beste koop is?

En beide kaarten zijn getest onder Vista dus dat maakt het naar mijn mening niet slecht. (helaas blijft het feit dat windows vista toch de toekomst is (nouja is,.. wordt beter gezegt...).

Edit: Haan was me voor, waarom refreshed deze site zich echt niet meer als je een comment plaats. De nieuwe site heeft zo zijn leuke dingetjes maar vond de oude toch beter.

[Reactie gewijzigd door SRI op 17 juli 2007 19:50]

Zowel ATI's 2xxx als NVidia's 8xxx series bieden alleen in het high-end segment wellicht voldoende performance om nu en in de nabije toekomst DX10 games met redelijke framerates te kunnen draaien. Recentelijke reviews tonen aan dat alle midrange kaarten, zowel ATI's 2600 als NVidia's 8600 series over onvoldoende performance beschikken om DX10 games met acceptabele framerates te draaien.

Blijft dus DX9 over. Volgens mij maken in DX9 zowel ATI's Radeon 1950 pro, als NVidia's 7900 GS gehakt van ATI's 2600 en NVidia's 8600 series. Alleen de 8600 GTS kan nog enigszins meekomen zonder AA & AF, maar die is enkele tientjes duurder dan de 7900 en 1950.

Zolang het midrange segment niet kan worden voorzien van voldoende DX10 power, zullen gamestudios daar (zeker niet dedicated) hun vingers aan willen branden.

Conclusie: DX10 en daarmee NVidia's 8600 en ATI's 2600 kaarten zijn (voor games) niet interressant.
Volgens mij maken in DX9 zowel ATI's Radeon 1950 pro, als NVidia's 7900 GS gehakt van ATI's 2600 en NVidia's 8600 series.

DX10 en daarmee NVidia's 8600 en ATI's 2600 kaarten zijn (voor games) niet interressant.

Ik ben het totaal met je eens.

Dit soort kaartjes is straks wanneer er echte DX10 only games komen totaal nutteloos. DX10 kan wel flink efficiënter met hardware omgaan, maar tegen die tijd zijn de requirements van "games" ook alweer flink gestegen.

Dus? Koop je zo'n kaartje als dit om te gamen op DX9? Laat nou net de vorige generatie mid-range in DX9 beter of gelijk presteren. Een x1950pro of 7900GS koop je tegenwoordig ook al voor 120 euro. En die maken gehakt van dit kaartje.

In 'n mediacentre lijkt me dit ook een onzinig kaartje. Als je niet wilt gamen op je HTPC dan haal je een HD2400, die doet exact hetzelfde. Als je wél wilt gamen op je HTPC dan haal je deze ook niet, want voor ongeveer hetzelfde geld haal je iets beters.

Mijns inziens is deze HD2600 inderdaad too little too late. Op z'n minst had een kaartje dat zo lang op zich heeft laten wachten de concurrentie achter zich moeten laten, en op z'n minst had dit kaartje de mid-range van de vorige generatie ook achter zich moeten laten.
Nu is 't allemaal hetzelfde laken en pak, qua features kun je net zo goed de HD2400 halen.
Ik denk dat ze wel zeker interresant zijn. Niet iedereen speelt op 1600*1200 met alles op ultra high.

Dat van die game studios klopt natuurlijk wel maar dat komt omdat er gewoon heel veel gamers zijn die niet altijd het nieuwste van het nieuwste hebben/willen betalen. Denk dat je pas veel games die dx10 only zijn krijgt als vista echt mainstream is en de meerderheid een dx10 videokaart heeft.
En waarom testen ze dat ding niet gewoon op een standaard XP Pro die iedere zichzelf respecterende gamer heb? En waarom branden ze de hele kaart af op gamebenchmarks terwijl UVD wel perfect werkt? Veel reviewers snappen echt niet dat een videokaart MEER is dan enkel een FPS machine...

@iceheart, idd, foutje van mij. Al die afkortingen ook tegenwoordig...

[Reactie gewijzigd door Andros op 17 juli 2007 20:03]

En ook bedankt zeg. (Een zichzelf respecterend persoon dat ook van games houd voelt zich beetje op de teentjes getrapt omdat ik 'maar xp home heb en vista-home premium).

Kun jij mij vertellen hoeveel meerwaarde xp-pro heeft ten opzichte van de home editie (meerwaarde voor de gamer he!)

Edit: Doelde op de home edition van xp. Dat xp op het moment gewoon beter is en waarschijnlijk ook zal blijven met de oudere games staat voor mij wel vast omdat het gewoon zelf minder 'verbruikt' (omdat de nieuwe gewoon niet kunnen onder xp (in de loop der tijd)....)

[Reactie gewijzigd door SRI op 17 juli 2007 21:08]

Driver support, games support, FPS ligt in XP nog altijd hoger. Loop es rond op een lan, aantal gamers met Vista is op een hand te tellen, verschillende van me vrienden zijn al terug geswitched naar XP omdat gamen op Vista een hoop gedonder is...
Ik heb heel wat games gedraaid op het werk op Vista RC2, draaide prima hoor :P
Ik draai nu een hele tijd Vista (Gratis dankzij MSAA van school hehe ;) ). Maar geen enkelle problemen. Ja alleen met de drivers omdat Toshiba die niet wil geven voor mijn notebook (Alleen oud spul). Drivertjes patchen voor MObile en gaan met die banaan :).
maar voor UVD neem je toch een 2400? die wordt dan ook alom daarom geroemd, maar ¤135 met deze performance vind ik niet echt te rechtvaardigen, jij wel? :)\


edit UVD inderdaad, geen van beiden iets waar ik erg mee bezig was dus ging ik er maar van uit dat cubefanatic de afkorting goed had. niet dus ;)

[Reactie gewijzigd door iceheart op 17 juli 2007 19:37]

De UVD is niet speciaal, bij het afspelen van een video met de H.264 codec icm met een E6600 heb je nog maar 9% CPU load bij het bekijken van een film. De directe concurrent van deze kaart, de 8600 GT, heeft 12% nodig van de CPU. Met een beetje gokwerk kun je wel raden dat de 8600 GTS welke hoger geklokte shaders heeft ook in de buurt komt van dat.
Hou je voor multimedia nog het aspect beeldkwaliteit over, de HD 2600 XT komt helaas eerder in de buurt van de GeForce 7600 GT dan bij die van een GeForce 8600 GT in de bekende HQV test. 118/130 tegenover 128/130.
bron: HWI
ATI heeft wel een groot voordeel doordat ze geen aparte PCI-E voedingsdraadje nodig hebben.
Ze zijn allebei even goed, misschien de ATi een haartje beter, in HD-HQV (klik).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True