Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: OCworkbench

Een Chinese website heeft een aantal foto's online geplaatst van de nieuwe ATi Radeon HD2600XT. De bron zegt tevens enkele hardwarespecificaties van ATi's nieuwe videokaart te weten en de eerste benchmarks te hebben gedraaid.

Volgens de website PCinLife is de kaart voorzien van 256MB gddr4-geheugen. Details van de RV630-gpu met 65nm-architectuur zijn al langer bekend. Opvallend is dat de videokaart geen externe voedingsconnector nodig heeft en maximaal 80 watt zou verstoken. Afgaande op de foto's is de HD2600XT voorzien van single-slot koeling en bevat de videokaart twee dvi-poorten. Ook de lengte van de pcb lijkt vrij normaal. In de eerste benchmarks zet de kaart goede scores neer. De HD2600XT zou samen met een geheel nieuwe lichting Radeons ergens in de komende maand op de markt moeten verschijnen.

ATi Radeon HD2600XT
Moderatie-faq Wijzig weergave

Reacties (59)

80 Watt zeg je...
Het PCIe slot kan er toch maar 75 leveren?
yup, daar heb je dan toch ook PCI-e power connectors voor?
Die niet op deze kaart aanwezig zijn...
Valt jou dus ook op.

Een PCI-e 1 kan inderdaad max 75W leveren.
Dus 80W? zal max 75W zijn.

Wel is het mooi dat ati eindelijk wat aan het energie verbruik is gaan doen.
Zoals eerder overstappen van procede zodat hij zuiniger wordt. En proberen het met deze midrange kaarten zonder extra stroomkabel te doen.

Is toch een stap in de goede richting.
bevat de videokaart twee dvi-poorten
in het vorige artikel (hierboven vermeld) heeft men het over voledige hdcp ondersteuning.daar heb je toch hdmi voor nodig :?
anyone
dvi is bijna hetzelfde als HDMI maar dan een andere stekker en zonder audiolijnen.


Genoeg DVI ---> HDMI kabels te koop.
met HDMI wordt toch nog andere info dan 'gewoon' video & audio verstuurd? die met DVI niet kan?
HDCP bedoel je? Erg nuttige informatie zullen we maar zeggen.
Een fiets is bijna hetzelfde als een auto.
Alleen 2 wielen minder en geen motor.

Als ze zeggen dat er hdmi zal zijn moeten ze er geen dvi opzetten.
Er staat HDCP, niet HDMI.
HDCP kan ook via DVI aangezien DVI dezelfde beveiligingstechniek als HDMI gebruikt, maar deze techniek werkt alleen op de digitale lijnen, het gaat dus niet werken als je er een D-Sub connector op aansluit.
idd HDCP ofwel
High bandwidth Digital Content Protection
is niet meer dan een beveiligings protocol
( handshake principe ) voor HDMI of DVI voor de bescherming van digitale audio- en videoinhoud.
Waar DVI zich beperkt tot enkel Beeld weergaven !
Kan HDMI zowel Audio als Beeld overbrengen.
Nou dat zijn erg mooie scores voor een kaart die 'maar' 80 watt verbruikt.... Vindt dat 256 mb wel beetje aan de lage kant is,... hoop dat er nog een 512 mb variant aankomt... vooral gezien het feit dat de nieuwste spelletjes met alle toeters en bellen toch zo nu en dan willen vragen om 512 mb geheugen...

Vrees wel beetje voor hoever je deze kan overclocke omdat ie geen aparte voedingslijn heeft,... denk dat als je hem iets harder laat clocke hij namelijk eerder tegen het maximum van pci-e aankomt dan het maximum van de core..
Denk niet dat die 256 een bottleneck gaat worden op een 2600... Tegen die tijd dat de nieuwste spellen zulke toeters en bellen gaan laten zien heb je toch een 3800 nodig om die te laten zien.

Desalniettemin, ook hiervoor zullen wel 512mb kaarten komen, en wie weet zelfs 1gb kaarten. :P
Denk niet dat die 256 een bottleneck gaat worden op een 2600... Tegen die tijd dat de nieuwste spellen zulke toeters en bellen gaan laten zien heb je toch een 3800 nodig om die te laten zien.
Ik denk dat dit zeker wel een bottleneck kan vormen, maar dat kan het nu ook al.
Een groot gedeelte van het videogeheugen word gevuld door de framebuffer. De grootte van de framebuffer word bepaald door de resolutie en de settings voor anti-aliasing. Deze kan je berekenen met de volgende formule:
size = xres * yres * 4 * (2n + 1)

n is hier het aantal keer antialiasing.

Bij een resolutie van 1680x1050 heb ik het volgende uitgerekent (1x AA is gewoon geen AA):
1x AA: 20.7 MB
2x AA: 34.5 MB
4x AA: 62.0 MB
8x AA: 117.1 MB
16x AA: 227.4 MB
24x AA: 337.6 MB

Met 16x AA past de framebuffer dus nog net in 256 MB maar met textures enzo erbij past dat niet meer. Als je een beetje fatsoenlijk wilt gamen met 16x AA heb je dus echt wel meer dan 256 MB nodig :Y).

(Formule heb ik trouwens afgeleid van t tabelletje in deze pdf: http://www.nvidia.com/attach/151, 1 MB = 1024000 B bij hun, dit heb ik ook maar doorgevoerd in mijn berekeningen)
De methodes voor Antialiasing-verwerking is bij nVidia anders dan bij ATi, dat is een hardwarematige zaak.

ATi is sinds de R300 (ATi Radeon 9500/9700) beter in datacompressie dan nVidia, check the benchmarks ;)
mooie berekening maar op een dergelijke hoge resolutie AA gebruiken is eigenlijk niet eens interesant.

AA komt het best tot zijn recht op een 'lage' hd scherm (plasma 480P op 40")
Dat is een document van de GeForce 3, we zitten nu aan generatie 8 hoor. ;)
Zo zou ook 640 KB genoeg moeten zijn voor iedereen... Ware het niet dat de R9600 ook al te krijgen was met 256MB dus waarom niet standaard meer op deze versies vraag ik me dan af? :)
Omdat die er ook wel komt? DIT is een 256MB versie, dat zegt niet dat de gehele HD 2600* reeks 256MB heeft. Een GeForce 7600 is ook met 512MB te krijgen.

Ohja, die Radeon 9600 met 256MB is een pure marketing truc. Het is datn ook een 9600Pro EZ die op 400/400 loopt ipv 400/600... En ik weet daar alles van, maarja, altijd beter als mn geforce 2 MX400 64MB, ook al zo'n leuke verkooptruc :+
Er zullen wek 512 mb kaartjes komen. Later dit jaar komt er ook nog een RV670 uit die een 256 Bit mem bus heeft met 48 shaders en die zal ook wel in 256 en 512 mb uitkomen.
Wauw ik ben onder de indruk, na de talloze geruchten over de r600 en het enorme uitstel begon ik enigszins te neigen naar een 1950xt of 8800gts, in plaats van te wachten zoals ik van plan was. Ben nu erg benieuwd naar de prestaties van de 2900xt, welke rond de 200 euro zou moeten gaan kosten. Dan toch maar die laatste 2/3 weken uitzitten..

Met name het energieverbruik, waar met name geruchten over waren, blijkt dus juist het tegenovergestelde te wezen..

@Xsuckx: True, maar een RV630 is een aftreksel van de r600.
En de X2900XT gaat volgens mijn geen 200 euro kosten. :D Was het maar waar.
Wedden van wel? Ligt er maar aan wanneer (inflatie is bijna nergens zo hoog als bij videokaarten). Daarom is de 2600 di wel een goede kaart om te kiezen; bij midrangekaarten is dat namelijk al een stuk minder erg.
in·fla·tie (de ~ (v.), ~s)
1 waardevermindering van het geld, met name door de zogenaamde loon-en-prijsspiraal => geldontwaarding, muntontwaarding; <=>
ik denk dat jij devaluatie bedoelt... ;)
HD 2600XT is geen R600 hè. 2600XT is de RV630 XT.
Hoe scoren andere kaarten op die benchmarks?
Want zonder vergelijking zeggen die scores natuurlijk niet veel.
Ik was daar ook wel benieuwd naar en ik heb ff gegoogled. om de "HDR/SM3.0" scores van 3dMark06 te vergelijken met de concurrenten.

De scores van de HD2600xt:
HDR/SM3.0: 2105

Dezelfde score van een 1950xtx:
HDR/SM3.0: 3137

en van een 8800 gts 320 mb:
HDR/SM3.0: 4313

7800 gt:
HDR/SM3.0: 1472/1603

7900 gt:
HDR/SM3.0: 2215

Noot:ik kon niet beoordelen of de kaarten geoc'ed waren.

Zo.. trek je conclusie ;)

*Gaat allen voor de 8800 gts 320 mb! * :P
Wie zei dat hier ook alweer? Lies, damn lies en statistics. :7 Ik heb het tegenwoordig niet meer zo op benchmarks en reviews, ten eerste zijn ze voor vrijwel alleen voor commerciële doeleinden en hoeveel reviews zouden nou daadwerkelijk onafhankelijk zijn?
waar ga je dan wel op af? het aantal componentjes? de kleuren die gebruikts worden? hoe mooi t doosje er uit ziet?
volgens mij zijn reviews en 3Dmark tests toch nog steeds het meest betrouwbaar... Al moet je er wel zeker van kunnen zijn dat de rest van het systeem gelijkwaardig is.
Ervaringen van mede tweakers, daarvoor hebben we toch een mooi forum hier op GoT. ;)

Er zwerf op het net zoveel fake benchmarks en speciaal uitgekozen software waar de hoop reviews uitbestaan.

Ik leen er wel eerst een bij mijn pcboer, test hem zelf wel. :)
3DMark is al lang geen betrouwbare benchmark meer.
Als synthetische benchmark is het aardig om meer over de interne werking van de kaart te analyseren, maar verder ook niet. Ze maken veel te vaak gebruik van propietaire technieken van één fabrikant.

Verder wijken hun uitkomsten de laatste jaren nogal sterk af van wat de uitkomsten die je gemiddeld in spellen tegen komt.

Het meest betrouwbaar zijn uitkomsten uit echte spellen, die NIET met de standaard benchmarks van die spellen gemaakt zijn. Dus benchmarks die de reviewer zelf heeft gemaakt waarin andere levels gebruikt worden etc.
En dan van zoveel mogelijke verschillende levels en spellen.

Als je betrouwbare informatie wilt krijgen dan moet je bovenstaande info toepassen en bovendien dan nog eens op zijn minst tien verschillende review sites bekijken, en dan heb je aardige betrouwbare informatie. (de subjectiviteit middelt zich dan aardig uit)
Mits die mede forum leden hun hardware niet gratis hebben gekregen van de fabrikant, om zo evangelist te spelen voor die fabrikant.
@ mjtdevries

En waarom in 3DMark niet betrouwbaar? Het werkt bij elke willekeurige kaart op dezelfde manier, dus om kaarten ten opzichte van elkaar te vergelijken werkt het goed genoeg.

Het is inderdaad niet helemaal geschikt om 3DMark te gebruiken als indicatie van de prestaties in een game die je wilt kopen, maar daar vind ik 3DMark persoonlijk niet voor bedoeld.

Als vergelijking van verschillende systemen is 3DMark heel goed te gebruiken hoor ;)
Het werkt bij elke willekeurige kaart op dezelfde manier, dus om kaarten ten opzichte van elkaar te vergelijken werkt het goed genoeg.
Nee, dat is niet het geval.
Zo worden in de meest recente versie Nvidia-only technieken gebruikt. Je kunt het dus niet gebruiken om een nvidia kaart te vergelijken met een willekeurige andere videokaart, omdat ze dan niet hetzelfde doen.
Zo worden in de meest recente versie Nvidia-only technieken gebruikt.
Je bedoelt de depth-textures?
Die zijn niet specifiek NV-only, andere fabrikanten hadden toegezegd deze te implementeren, maar tot dusverre is NV de enige die het ook daadwerkelijk gedaan heeft.
Is een beetje hetzelfde verhaal als destijds met PS1.4 en SM2.0 in 3DMark... ATi was de enige die het had, maar uiteindelijk kwam de rest er ook mee.
Afgezien daarvan was ATi destijds toch sneller dan NV in 3DMark05, ondanks de alternatieve manier van shadowmaps (wat weliswaar geen 1:1 vergelijking was, maar wel overeenkomt met hoe spellen zoals bv Far Cry omgaan met shadowmaps op beide merken, dus wel representatief).
real life experience..
de 8600 gt, een van zijn directe concurrenten:
* Total 3DMarks- 5357
* SM2.0- 2108
* HDR/SM3.0- 1857
* CPU- 3958
* Return to Proxycon- 16.262
* Firefly Forest- 18.869
* Canyon Flight- 16.300
* Deep Freeze- 20.639
* CPU1- 1.327
* CPU2- 1.888
en dit tov de HD2600
hdr/sm3.0 2105
En dit ding is zeker wel een stuk sneller dan de X1800XT?
Dat betwijfel ik...
als ik zie dat hij in 3Dmark ongeveer 2/3 scoort van een X1950XTX... dat klinkt ongeveer gelijk aan een X1800XTX.
Apart, want het is toch een nieuwere generatie en een hoger nummertje :?

Hij is toch wel geschikt om Alan Wake in volle glorie te spelen?
Tegen de tijd dat ie in Nederland op de markt is ben je beter uit met een 8800GTS. Zowel qua prijs als prestatie.
Weet je de prijs ervan dan? Nee. Qua prestatie is het logisch dat de 8800GTS beter is, maar de HD2900XT houdt de 8800GTX bij en die komt met de prijs tussen de 8800GTS en de GTX in. ATi gaat de prijzen waarschijnlijk lager maken dan nVidia. Kunnen ze onder andere omdat het 65nm process voordeliger is en de kaarten dus ook goedkoper verkocht kunnen worden. Hierdoor kunnen ze dus goed concurreren.

Als ik de scores van de 8600GT vergelijk met de HD2600XT scoort die net iets hoger, maar het is geen groot verschil. Mocht de 2600 goedkoper komen (wat waarschijnlijk wel zo zal zijn) dan is het zeker een aanrader. Vind het verhaal van HDMI alleen nog een beetje vaag.. Misschien dat die niet op die kaart zit omdat het een sample is, of ATi laat het aan de retailers over om die erop te plaatsen??
je bedoelt ZE MOETEN WEL want het is niet het monster dat verwacht werd
er zullen maar weinig mensen zijn die hun 8800GTX gaan verkopen (die ze trouwens al lang hebben)

ze komen net als bij de GF7 te laat: de markt is al half verzadigd voor hun kaarten in de winkel liggen...
Wacht tot DX10 voordat je oordeelt of het nou wel of geen monster is.. En tuurlijk gaan ze die niet verkopen. Ze verkopen hun 8800GTX heus ook niet voor een 8800Ultra..

Ze moeten dat heus niet hoor. Ze kunnen het ook gelijk plaatsen, want het heeft meerdere ondersteuningen dan alleen pixels op je scherm toveren.

Maar waar haal je het vandaan dat de markt halfverzadigd ligt? Bij de mid-range en low end verkoopt ATi het beste hoor.. Vooral de X1950 Pro.. En daar ligt de bakken met geld. En Dell heeft al veel voorraad van midrange en low-end van de HD2x00 serie gekocht. Dus zo slecht gaat het helemaal niet.
dell zal als grote afnemer ook wel kaartjes kunnen retourneren of prijscompensatie krijgen als ze niet verkocht raken
Psies, wie zegt ond dat deze foto niet gwoon een achterkant is van een X1650 PRO? met de eventuele externe power suply los gesoldeerd!

Neen ik ben zeer sceptisch over dit soort berichten.
Ik wacht wel met kopen tot de next update van de Twaekers review en de Best buy Guide
Als je de bron bekijkt, zie je ook een pic van de voorkant, en een X1650 is lang niet zo groot als deze kaart.
Je kunt niet alles hebben he,

Overklokken kost ook meer vermogen,
deze kaart zal niet de performance topper van Ati zijn,
vergelijk hem hier dan ook niet mee.

So be it dat hij wat langzamer is, hij verbruitk ook veel minder en 'alle toeters en bellen' heb je ook gewoon niet nodig
Ik hoop dat binnenkort die van de HD2900XTX komen.
Die zou ook in mei komen en nog sneller en goedkoper zijn dan de 8800gtx

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True