Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Bron: DigiTimes

AMD heeft bekendgemaakt dat het bedrijf begonnen is met het leveren van de Radeon HD 2400 en 2600-gpu’s in grote getale. Verwacht wordt dat de videokaartfabrikanten binnen enkele weken de eerste producten zullen introduceren die gebruik zullen maken van de nieuwe chips.

De introductie van de Radeon HD 2400 en 2600 was oorspronkelijk gepland voor één juni, maar deze datum heeft AMD niet gehaald. De ATi Radeon 2400- en 2600-gpu’s zijn bedoeld voor de entrylevel- en mainstreammarkt en zijn geproduceerd met een 65nm-procedé. Hiermee verschillen de kaarten van de high-end Radeon HD 2900 XT die gefabriceerd is met een 80nm-procedé. Daarnaast beschikken de Radeon HD 2400 en 2600 over de universal video decoder waarmee de videokaart met minimale inspanning high-definition films kan decoderen. De Radeon HD 2400 zal voor minder dan 99 dollar over de toonbank gaan terwijl de Radeon HD 2600 tussen de 99 en 199 dollar zal gaan kosten.

ATi Radeon HD 2600 XT met hdmi-aansluiting (400px)
Moderatie-faq Wijzig weergave

Reacties (50)

Deze kaarten zijn imo in 't zelfde bedje ziek als de 8600 reeks van nVidia. DX10 ondersteuning, een gigantische marketingopsteker, maar als je dieper gaat graven zullen de betere DX9 kaarten (X1950, 7900) een betere keus blijken.

De grote fout bij deze midrangers is de 128-bits bus die wordt aangehouden. Het mainstream worden van AA, HDR en de opkomst van hoge(re) resolutie schermen maken dat die een gigantische bottleneck wordt.
Ik denk dat er een grote markt is voor grafische kaarten (beter: oplossingen) voor mensen die vrijwel nooit gamen (onder wie ik) maar wel HD content willen kunnen afspelen zonder een top CPU te hoeven aanschaffen.

De echte die-hard gamers gaan toch wel voor een kaart uit het hogere midden segment/ top segment denk ik ;)

Dus laat die 2400/2600 kaartjes maar komen :)
...maar als je dieper gaat graven zullen de betere DX9 kaarten (X1950, 7900) een betere keus blijken.
Voor DirectX 9 wel ja, maar vergeet niet dat DirectX 10 héél wat efficiënter kan zijn. Dé grote DX10 spellen zijn er nog niet, maar het potentieel is er alvast.
De grote fout bij deze midrangers is de 128-bits bus die wordt aangehouden.
Dit was nooit een probleem voor de mid-range. Vergeet ook niet dat men ondertussen 2+ GHz geheugen gebruikt!
Wat ik me afvraag, ik zit hier momenteel met een X1600Pro en een AMD64 3200+ (met 32bit vista). Ik ben gek op trailers van games en films maar het gros komt tegenwoordig op HD kwaliteit uit (vooral die je via het programma vuze kunt downloaden. Mijn PC trekt het absoluut niet bij dit soort HD content en zelfs 720p is vaak al teveel van het goede voor mijn procesor.

Ik doe echter ook graag een leuke game van tijd tot tijd, en dan ben ik vooral iemand die zwicht voor top-notch graphics dus de kaart moet goed overweg kunnen met HDR/Anti-alias en hoge resoluties.

Zou ik nu beter af zijn met een HD2900XT/8800GTX(s) met een Core Duo 2 E6600, of kan ik dan toch beter een kaart kiezen met een HD chip er op (en daarnaast de Core Duo 2)? Ik wil namelijk niet een kaart kopen die nieuwe games niet aankan, maar het is absoluut belangrijk dat mijn PC de HD content zonder haperen kan afspelen (aangezien deze aan een HDTV hangt).
Een 8800GTX is de beste keuze dan. Veel sneller in games dan een HD2900XT, veel stiller en verbruikt minder stroom.
Bovendien accelereert de HD2900XT nog steeds geen HD materiaal.
ZIe ook: http://www.tomshardware.c..._purevideo_hd/page10.html
Volgens de link die je geeft doet hij het ongeveer evengoed in h264 als de 8800GTX ;)
HD 2900XT accepteer ik ook niet als een volwaardig tegenstander van de 8800GTX. HD 2900XT is niet de beloofde XTX met 1 Gb DDR4 RAM geheugen etcetera.

Dus de 8800GTX heeft op het super high end segment nog steeds geen concurrentie.
Vind het wel mooi dat AMD nu eindelijk met die kaarten komt... hebben ze toch nodig omdat in het entry en mainstream toch het meest valt te verdienen en ze het geld hard nodig hebben. Hoop dat ze beetje goed presteren zodat de prijzen van nVdia onderdruk komen te staan. Nu nog even de HD2900XTX die even goed is als nVdia's 8800 GTX maar dan voor een lagere prijs dan kunnen we allemaal weer blij zijn.
Tja het blijft een vreemde gewaarwording, een feature op de midden en laagsegment kaarten terwijl het topmodel zonder moet doen.

De redenatie van AMD vind ik hoewel logisch toch een beetje storend, tuurlijk worden de dure kaarten samen met een dure cpu gebruikt maar om daarom nu een dermate goedkope feature (want dat is het als de low end kaarten het hebben) weg te laten op je topmodellen is natuurlijk raar.

Of het is natuurlijk wat Anandtech al eerder schreef:
The reasoning for this is are certainly not attractive, and range from blatant deception (i.e. suggest there's at least one feature on HD 2900 that you couldn't get from 8800 GTS/GTX) to a last minute problem with UVD on R600 that kept them from enabling it.
AMD/ATI is heus niet de enige hoor. De 8600/8500 reeks van nVidia bijvoorbeeld, bezit volledig hardwarematige H.264-decodering. De GeForce 8800 heeft dit dan weer niet en laat het werk (gedeeltelijk) aan de CPU over.
De uitleg van AMD is uiteraard niet meer dan een smoes. Er is inderdaad een grote kans dat ze het niet volledig werkend hebben gekregen en het dan maar uitgeschakeld of niet geïmplementeerd hebben om toch maar de deadline te halen. En ook hier kan je weer de vergelijking maken met nVidia. Veel kans dat nVidia geen volledig hardwarematige H.264-decodering in de 8800 ingebouwd heeft om de kaart vele maanden vroeger te kunnen releasen dan AMD/ATI.
Het verschil is echter dat NVIDIA er altijd duidelijk over is geweest dat de 8800 geen (volledige) H.264-decodering ondersteunt. Daar werdt ook pas over gesproken bij de lancering van de 8600 en 8500, zodat niemand het gevoel had dat er iets weggelaten werd; het is gewoon een nieuwe feature.

AMD heeft proberen doen lijken alsof hun hele HD 2x00 reeks UVD ondersteund. De reviewers hebben zelf moeten uitvissen dat dit niet klopt. Voor een product dat met 'HD' aangeduid wordt schept dit niet echt vertrouwen...

Soit, de HD 2600 XT zou wel eens een succes kunnen worden. AMD heeft het hard nodig.
Mua, Media Center PC's hebben meer baat bij een hardwarematige videodecodering dan een high-end game PC. Dus in die zin is dat niet onlogisch. De 2400 kaartjes kunnen passief gekoeld worden, dus dat zijn bij uitstek interessante Media Center kaartjes.
Dus in die zin is dat niet onlogisch.
Wanneer men dit staaltje consumentenbedrog, nl iets adverteren wat je product niet kan of bezit, al niet onlogisch gevonden wordt, is het ver gekomen.
Nvidia had hetzelfde met de GF7 serie: Het topsegment (7800GTX, 7900GTX) had geen HDCP ondersteuning en de midrange segment (7300 - 7600 en zelfs ook de 7950GT) wel.
En daar ook weer het zelfde verhaal de 7800 serie was er veel eerder dan de 7600 serie. ;)
Slechte vergelijking, nvidia heeft nooit gezegd dat die kaarten HDCP hadden.
Is er eigenlijk al wat bekend over de prestaties van de 2600?
HD2600XT in een aantal benchmarks. Of de scores echt zijn weet ik niet.

3DM05 default (102x768): 10.802
3DM06 default (1280x1024): 5.027

FEAR: 50 FPS op 1024x768 en 40FPS op 1280x1024
CoH: 24 FPS op 1024x768 en 16 FPS op 1280x1024.

Bron: http://www.techpowerup.com/?32127

De game benchmarks vind ik vrij laag. Vooral CoH moet veel beter kunnen op deze kaart, aangezien ATi hier dmv. drivers een paar maand geleden de performance met een procent of 20 wist te verhogen. Mijn HD2900XT draait met de 7.5 drivers CoH tweemaal zo soepel als mijn X1900 crossfire opstelling met de 6.10 drivers (toen CoH nog niet deze boost had door drivers).

Over deze kaarten:
Ik denk dat AMD echt kan gaan knallen met deze HD2600 en HD2400 series.
  • Het 65nm proces maakt ze vrij goedkoop om te produceren (de core van de 8500 en 8600 van nVidia zijn veel groter).
  • De beperkte geheugenbus maakt de printplaat minder complex en dus goedkoper te produceren. Daar tegenover moet staan dat er snel geheugen op de videokaart moet, maar de gehuegenprijzen zijn momenteel erg laag.
  • Het 65nm productieproces heeft positieve invloed op de stroomconsumptie. Volgens mij verbruikt de HD2600 maar 45W en de HD2400 maar 25W. Dat is echt heel erg laag voor een goede midrange kaart.
  • Volledige implementatie van UVD maakt de videokaart uitermate geschikt voor de familiePC die vooral general purpose is en waar ook meer video op afgespeeld wordt. Ook niet te vergeten is de HTPC markt, waar deze kaart met zijn lage verbruik én HDMI + audio erg aantrekkelijk is.

[Reactie gewijzigd door frankknopers op 11 juni 2007 22:43]

Desondanks lijkt mij het hetzelfde verhaal als de 8600GT aan de kant van Nvidia.

Je kan veel beter de x1950pro kopen voor hetzelfde geld, terwijl deze beter presteerd.
En om met deze kaart directx 10 applicaties te draaien, dat zie ik er nou ook weer niet in.
absoluut niet!
het ligt eraan wat je speelt natuurlijk, maar in shaderintensieve games trekken de nieuwere generatie aardig bij. Plus dat ze veel minder stroom vragen, en goede HDTV versnelling hebben. De 8600GT komt in nieuwe spellen best dichtbij een 1950pro. Dus de nieuwe 2600 ws ook wel. Beter voor een HTPC waar je af en toe ook op speelt.

Ik zat eigenlijk met smart op deze kaarten te w88. Ik moet per direct een vervanging hebben en ik heb een 1950pro weer retour moeten sturen omdat ie teveel stroom vrat. Ik had nog een 8600GT overwogen maar niemand kan me zeggen wat welke videokaarten aan stroom verbruiken (A(benodigd) @12V). Ik ga echt niet 2x mijn hoofd stoten. Dus maar een 1650pro passive besteld. Jammer want ik had liever een DX10 kaart gehad.
Als je wilt weten wat het stroonverbruik van een videokaart is dan voer je simpel de searchwoorden "powerconsumption 8600GT" in bij google.

Zo ben ik momenteel ook aan het kijken naar een nwe videokaart, aangezien mijn pc bijna altijd aanstaat en ik de stroomrekening zelf moet betalen :Y)
@SniperFox: Desondanks lijkt mij het hetzelfde verhaal als de 8600GT aan de kant van Nvidia.
Niet als het gaat om HD films. De 2400 en 2600 laten beeld + geluid over de HDMI kabel gaan. Dat kunnen de 8500 en 8600 niet. Daar heb je nog een aparte audiolijn nodig via je geluidskaart.
Dus deze 2400/2600 zijn helemaal toegespitst op HTPC/mediacenter toepassingen.
De 2900XT is high-end? betekent dat dat de kwaliteit van de kaart ook echt beter is, of betekent high-end ook in AMD's ogen dat het de zwaarst opgefokte versie is?

Tweede (in mijn ogen nog steeds meeste grove) fout is dat ze weer afwijken van "hoger nummer == sneller" omdat 2400 een hoger nummer dan 1900 is, en de 2400 een stuk trager is dan de 1900, als ik zo naar de prijs kijk. Maar de 2600 is dan weer, wat, sneller of langzamer? Geen touw aan vast te knopen dus.

Ohja, en werken ze ook op XP? (Met DX9 dus)
nee (dat vind ik geen slimme opmerking van je). Bij elke nieuwe DX generatie gaat het 1e cijfer met 1 omhoog. Het 2e cijfer geeft de snelheid aan. Dus een 2600 is ook een middenmoter net als de 1600 maar dan DX10 ipv DX9.
Dus 2400 is budget DX10 (had ook 2300 kunnen zijn), 2600 is mainstream, 2900 is high-end DX10. (aangezien de 1xxx DX9 was). Best wel te volgen hoor.

Ja duh, natuurlijk is dat backwards compatible (met DX9). Dat is altijd al zo geweest.

[Reactie gewijzigd door ]eep op 12 juni 2007 02:18]

Dat met elke nieuwe DX versie het cijfer een omhoog gaat is natuurlijk ook weer beetje fout. De 9800pro had al DX9 ondersteuning en daarna kwam ook nog eerst de x8/5/3 series.

Verder het is wel een mooi idee om een cijfer te gebruiken voor de prestaties maar denk niet dat dat zo makkelijk gaat in het videokaart segment. Bij de processors ging dat nog wel omdat daar niet zovaak nieuwe ontwerpen uitkomen eerder gewoon snellere. Dat was gewoon een redelijk rechte lijn van budget tot top maar bij videokaarten veranderd telkens alles wat onderaan zit, in het midden en bovenop,.. als je dat eerlijk en goed wilt bijven nummeren raak je op den duur wel door je nummers heen denk ik. Om maar te zwijgen over de boze consumenten die een aanklacht indient omdat zijn nieuwe kaart die sneller bij naam zou moeten zijn langzamer is dan een voorganger.
Nou ja, volgens mij is het vrij duidelijk anders!

Lowbudget is 200, 300 of 400, midrage is 600 a 700 and high-end is 800. Zet daarvoor een generatienummer:
9, X(10), X1(11), X2(12) en je hebt het nummer.

Dus
9200, X300, X1300, X2400
9600, X600, X1600, X2600
9800, X800, X1800, X2900

Dat het uiteraard ook lijkt alsof X2400 sneller zou zijn dan X1800 is natuurlijk mooi meegenomen en vast geen 'toeval'. Maar op zich vind ik wel dat ze een duidelijke en eenduidige naamgeving gekozen hebben. Je kan generaties en low-, middle, en high uit elkaar houden.
euh... je vergeet wellicht dat de 9500 en 9500 pro ook al directx 9 ondersteuning hadden.
Dat met elke nieuwe DX versie het cijfer een omhoog gaat is natuurlijk ook weer beetje fout. De 9800pro had al DX9 ondersteuning en daarna kwam ook nog eerst de x8/5/3 series.
je kan het ook zo zien:

9
en het romeinse cijfer 10? inderdaad, X :D
X1

en nu komen ze met HD 2### |:(

KISS!
Ja duh, natuurlijk is dat backwards compatible (met DX9). Dat is altijd al zo geweest.
Zo "duh" vind ik dat niet. Het zijn DX10-kaarten en DX10 werkt niet op XP vanwege obscure redenen. Ik ga er dan vanuit dat DX10 zó radicaal vet moet zijn dat ze de hele mikmak omgegooid moeten hebben en dat daarom DX10 kaarten niet of niet goed met DX9 overweg kunnen. Omdat het zo ontzettend anders is. Anders zou het wel op XP werken. Toch?.. Of denk ik nou niet Microsofterig genoeg? :)
Die prijzen maken het wel interessant, zeker als ze nu ook die linuxdrivers gaan verbeteren :D
Als ik het goed had was AMD daar hard aan aan het werken... Geloof dat ze elke maand ofzo een nieuwe driver uit wouden brengen. Ze hadden in elk geval verbetering belooft (maja niet dat beloftes tegenwoordig nog veel waard zijn... :()
um ze releases al elke maand nieuwe drivers, tegelijk met de Windows drivers.
en dat was een proces wat ATI zelf al op gang had gebracht.
Jaja, al van 2004 beloven ze betere linux drivers.
nieuws: Interview met ATi-softwaredesigner Terry Makedon
Inderdaad, ik kijk re dan ook al naar uit om een x2600 in mijn media center te nemen..

Iemand een idee wanneer er dan een passief gekoelde uit zal komen?
Hopelijk komen ze terug in de markt. Een goede portie concurrentie kan nooit kwaad.

Op het eerste zicht zien deze kaartjes er vrij gelikt uit. Ik wil wel eerst een paar deftige benchmarks zien voor ik echt conclusies ga trekken.
komt de 2600 op agp? leuk ding voor mn ouders pc. :)
Nou misschien wel misschien niet. Dat AGP nog niet dood is, is wel duidelijk doordat er nog steeds AGP kaarten zo nu en dan uitkomen. En zoniet dan zou ik als ik jou was gewoon een x1950 kopen daarvan zijn er een paar met AGP te vinden en is een best wel goeie kaart.
Ik vindt ook dat er even 2x nagedacht moet worden (zoals al wel veel mensen doen :)) over waar deze kaarten voor geschikt zijn.

Een hoop gamers / performance mensen hebben met de 8600 / 2600 al gelijk "een 7900 of x1950 is sneller!!". Maar ik denk dat met de berg (nieuwe) features aan boord van bijvoorbeeld de 2600 deze kaart geweldig klinkt voor een hoop mensen ondanks dat ie langzamer is in spelletjes (of voorzichtig gezegd: langzamer kan zijn in spelletjes).

De HDMI support inclusief audio is redelijk bijzonder. Stroom verbruik is aan de goede kant, UVD is geweldig als je je HTPC'tje er gebruik van kan laten maken.

Een 2600XT in een mediacenter-PC zorgt voor HDMI output, met ondersteuning voor HD-DVD / BluRay drives, gelijk de digitale audio link erbij, en dat al dat HD H264 geweld kan worden afgespeeld ondanks dat je processortje niet zo snel is. Klinkt bij mij als muziek in de oren :).

Dus als je iets moet aanraden aan vrienden / familie, denk er dan even aan of ze voor (game)performance gaan of voor features, want qua laatste lijkt de 2600 me een geweldige zet!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True