Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 94 reacties
Bron: DailyTech

AMD heeft de Radeon HD 2900 Pro vandaag officieel geďntroduceerd. De kaart moet het gat tussen de HD 2600 XT en de HD 2900 XT opvullen met een adviesprijs vanaf 249 dollar en komt met 512MB of 1GB gddr3-geheugen.

Volgens AMD is de HD 2900 Pro-kaart in feite een HD 2900 XT met een lagere klokfrequentie voor de gpu en het geheugen. De 2900 Pro komt met 320 streamprocessors en 512MB gddr3-geheugen of 1GB gddr4-geheugen dat via een 512 bits brede geheugenbus met de gpu communiceert. De gpu zou gelockt zijn op 600Mhz, maar Powercolor zou de 1GB-uitvoering hebben overgeklokt tot 742MHz.

De 512MB-uitvoering heeft een heatsink van 23 centimeter en twee dvi-i-uitgangen. AMD levert twee dvi-vga-adapters mee, alsmede een dvi-hdmi-verloopstukje en een componentadapter. De gpu tikt op een klokfrequentie van 600MHz en het gddr3-geheugen doet zijn werk op 800MHz.

De 1GB-versie is verkrijgbaar met twee formaten heatsinks: een 23cm lange en een met een lengte van 30cm. De kaart wordt geleverd met dezelfde accessoires als de 512MB-variant. Het is nog onduidelijk of de lange versie ook voor niet-oems beschikbaar komt; de verkoopprijs van de korte variant is 299 euro.

Powercolor Radeon HD 2900 Pro 512MB
Moderatie-faq Wijzig weergave

Reacties (94)

http://www.tweaktown.com/...1_introduction/index.htmlals je die link naar tweaktown bekijkt zie je de benchmarks.
voor een hoge 3Dmark score hoef je hem dus niet te halen. hij is vergelijkbaar met een 8800gts 320 versie, de 640versie is al zowieso sneller op de hogere resoluties, maar tis net waar je fan van bent en waarvoor je hem wilt hebben, (voor benchmarks zal ik hem niet halen als ik de scoren betreft 3d mark niet echt top vind in verhouding tot een 8800gts 320)
uhm deze is wel ff 100 euro goedkoper dan een 8800 GTS 640 he!
en hij haalt 10k in 3dmark06, meer dan de gts 320....en die gts 320 mb zal het afleggen in hogere resoluties etc. en heeft een veel kleinere geheugenbus...dus een 2900 Pro zal sowieso beter zijn dan een GTS 320 mb...misschien iets minder dan een GTS 640, maar daarom is ie ook 100 euro goedkoper. Ik haal denk ik liever deze als oplossing, ik heb geen zin om 330 euro te betalen terwijl volgend jaar zo'n GTS alweer te zwak zal zijn.
Ik begrijp niet waarom deze kaart zo gehyped werd. De HD2900Pro is alweer EOL gegaan. Er waren maar 4000stuks beschikbaar worldwide. Deze zijn door AMD gealloceerd naar een selectie retailers per continent. AMD zal weer klanten verliezen door deze actie. Een goedkopere kaart launchen die niet leverbaar zal zijn waardoor er weer mensen teleur gesteld worden.
even verder gezocht en de club 3d gaat zelfs op 1600 mhz voor het geheugen werken.

http://www.club3d.nl/index.php/products/graphics/item/291
Ehm deze van het artikel werkt ook op 1600 Mhz (2*800 omdat het ddr is). Lijkt mij nogal sterk dat je namelijk die 1600 van jou ook nog met twee moet vermenigvuldigen.
Kben benieuwd hoelang het duurt voordat de "lock" op de core eraf is :P
Zoals hun zeggen is ie alleen lager geclocked dus met overclocken zou je dat al in feite moeten kunnen. Nu is alleen de vraag of ze geselecteerd zijn omdat ze niet goed genoeg waren voor de 2900xt of dat ze een overschot hadden en ze daarom voor een lagere prijs met een lagere clock weg doen. Het laatste geval zal wel mooi zijn voor de overclockers onder ons ^^
Het zullen wel bad sample's zijn, vandaar dat de videokaarten in tal van verschillende modellen uitkomen. Ik begrijp nog steeds niet dat de techniek het niet toe laat om gewoon per wafer een 100% score te halen.
Het zullen wel bad sample's zijn, vandaar dat de videokaarten in tal van verschillende modellen uitkomen. Ik begrijp nog steeds niet dat de techniek het niet toe laat om gewoon per wafer een 100% score te halen.
Zwaartekracht is ook een grote boosdoener. Zo'n wafer lijkt een paraplu als je maar ver genoeg inzoomt. Alle andere factoren (trillingen, chemisch moeilijke process door alle lagen, stof, temperatuur en zelfs luchtdruk) maken het nog moeilijker op ook richting de rand (grote afgrond als je het op nano niveau bekijkt) ook nog 100% rendement te halen.

Men gaat niet voor niets graag over naar 300mm. Dat is minder afval van je wafer en in procenten meer 'beste' chips.
Zwaartekracht is ook een grote boosdoener. Zo'n wafer lijkt een paraplu als je maar ver genoeg inzoomt.
Je bedoeld natuurlijk uit zoomt, en dan klopt je verhaal natuurlijk niet meer, of wil je zeggen dat de aarde er als een bol uitziet als je er met een vergrootglas naar kijkt? Het is juist hoe verder je inzoomt hoe vlakker het lijkt en hoe verder je uitzoomt hoe meer de ronding te zien is....
Er zijn weinig producten zo complex als een moderne processor. In een Dual-Core Itanium 2 zitten bijvoorbeeld 1 700 000 000 transistoren. Als er tijdens de productie ook maar 1 transistor verkeerd gemaakt is kan het al voldoende zijn om de hele chip af te schrijven. Ik vind het juist wonderbaarlijk dat er zoveel goed gaat.
Dan zal ik maar eens gaan verdiepen in die techniek dan zul je het gauw snappen.
Het belichten is niet simpel 1 shotje op zo'n wafer. Daar zijn gewoon zoveel lagen van en tussen die lagen moet steeds ge-ets worden. En dan moeten ze steeds op de juiste manier gepositioneerd worden. etc. Alles luistert heel kritisch, een kleine trilling, stofje, tempratuur verschil veranderd het gedrag al.
Als je echt over je energierekening inzit, doe dan alle gloeilampen uit( of maak ze kapot, want de zuinigste gloeilamp is en blijft een kapotte)
Deze discussie over de energierekening, je moet hem uiteindelijk zelf betalen( of ouders natuurlijk), dus waarom val je er anderen mee lastig?
Klopt, maar meer energieverbruik betekent ook meer koeling, en dat is toch interessante info als je een stille HTPC wilt bouwen.
Meen je dat nu echt of begrijp je echt niet waarom energieverbruik belangrijk is?
Tip: het heeft iets met klimaat te maken.
Hangt er ook totaal vanaf wat je energiebron is. Als ik me dak vol gooi met zonnepanelen kan ik verbruiken wat ik wil, heb klimaat geen last van.

Daarbij vergeet iedereen 24/7 dat huishoudens nog geen 2,5% van het totale energieverbruik uitmaken. De bomenknuffelaars die het harst met spaarlampen lopen te zwaaien zijn dezelfde mensen die op hun werk hun PC gewoon aan laten staan als ze naar huis gaan, met scherm etc en al. Loop 's avonds maar eens wat kantoren af, je wilt niet weten wat daar aan energie wegvloeit voor Jan Lul. Als je echt dat klimaat wil aanpakken, begin dan bij de grote jongens van de industrie...
Grote jongens van de industrie ... zoals ATI/AMD? :)
Een beter milieu begint bij jezelf. Met zo'n asociale houding gaat niemand ooit wat doen.
De productie van zonnepanelen is vooralsnog bepaald niet milieuvriendelijk :+
Ik ben benieuwd wanneer ik eindelijk mijn radeon hd 2x000 kaart fatsoenlijk in ubuntu kan gebruiken met fatsoenlijke drivers :'( De drivers zijn er al, nu nog kunnen compilen zonder dat x-server ermee ophoud.
Dat is ook de reden dat ik niet gelijk naar de winkel sprint voor deze kaart.

Ik heb Ubuntu met Beryl (3D interface) op drie computers (proberen) laten draaien:

Een C2D E6300 @ 2ghz, met een GF6800U: Werkt perfect
Een P4 2.8ghz met een Intel 910 integrated graphics kaartje: Werkt perfect
Een P4 2.0ghz met een Ati Radeon 9800Pro: Huilen met de pet op


Ongetwijfeld zal in de toekomst de drivers van AMD/ATI verbeterd worden, maar zoals het nu is, sla ik die HD 2900Pro maar gewoon over. De nieuwe Geforce kaart laat ook niet lang meer op zich wachten.
Huh? Mijn Ati 9600 mobility werkt anders perfect met Beryl ....
Werkend gekregen met deze manual:
http://www.howtoforge.com/ubuntu_feisty_beryl_ati_radeon

Toegegeven, het is niet direct plug&play en niet geschikt voor beginnende gebruikers, maar het is mogelijk het werkend te krijgen. Ik heb meer miserie met mijn Broadcom 4306 (maar da's een andere discussie).

[Reactie gewijzigd door Spooik op 27 september 2007 11:02]

Als ik naar de manual kijk dan zie ik dat je gebruik maakt van aigxl. Dat is dus weer wat anders. Jij hebt als doel beryl werkend te krijgen, ik niet. Jij maakt gebruik van open source drivers omdat die dri & compiste tegelijkertijd ondersteund. fglrx kan dat nog niet/:(
Nee. Ik heb geprobeerd de 8.41.7 te compilen met zowel feisty fawn als gutsy gibbon, in beide gevallen precies hetzelfde probleem.
Jij weet duidelijk niet waar je over praat, 8.41.7 is een versie-nummer van de gesloten ATi-driver waarvan de broncode niet vrijgegeven is: hier valt dus helemaal niets voor jouw aan te compileren.
Kijk hier maar even naar, en vooral naar dit stukje:


http://wiki.cchtml.com/in...he_8.41.7_Driver_Manually

Compile the kernel module:

sudo module-assistant prepare
sudo module-assistant update
sudo module-assistant build fglrx
sudo module-assistant install fglrx
sudo depmod -a

edit: Misschien was mijn taalgebruik in mijn vorige post niet helemaal correct wat betreft het compilen.

[Reactie gewijzigd door hytash op 26 september 2007 22:56]

Vast wel, maar hoe.

Het VW Golf vs. Ferrari verhaal. ;(
Ik ben benieuwd wanneer ik eindelijk mijn radeon hd 2x000 kaart fatsoenlijk in ubuntu kan gebruiken met fatsoenlijke drivers :'( De drivers zijn er al, nu nog kunnen compilen zonder dat x-server ermee ophoud.
Wat heeft jouw probleem met dit nieuwsbericht te maken?
Het feit dat het heel leuk is dat AMD nieuwe grafische kaarten op de markt gooit, maar zolang de drivers voor Linux nog niet op punt staan mogen ze zoveel kaarten op de markt brengen als ze willen, maar dan koop ik ze niet. nVidia biedt op dat vlak veel betere ondersteuning, ook al is het dan met closed-source drivers.
Met de overclockbaarheid zit het volgens dit artikel ook wel goed.
http://www.fudzilla.com/i...sk=view&id=3265&Itemid=34
sneller dan de XT zelfs.

Raar dat bij alternate 3-5 werkdagen staat, terwijl ik op andere sites (OBCS) 17 oktober lees..
Wat is de prestatie ten opzichte van de 8800GTS? Want hij is net zo duur... En bij Toms Hardware zal hij er nog niet bij staan.
http://www.guru3d.com/article/Videocards/431/17/

ook gelijk in prestaties. xt vs. 640mb. de Pro tegen de 320 zal ook wel gelijk zijn.

[Reactie gewijzigd door j005t op 26 september 2007 19:47]

De 2900 pro is wel beter met zijn TDP(150W) ten opzichte van de 8800GTS(185W), of dit minder gunstig is in prestatie zou je er misschien uit kunnen concluderen. Maar de benchmarks zullen het bewijzen.
De 2900Pro verbruikt (stukken) meer dan de 8800GTS 320, te zien in Wolver1ne's linky.
12% meer noem ik toch niet echt "stukken" meer.

en aangezien daar vaak betere prestaties aan hangen, vooral op hoge resolutie ( alleen openGL blijft hij achter) is hij zeker het overwegen waard.

edit : vergeet ik niet, maar ik bekijk het anders, je systeem gebruikt 12% meer, en laat (even voor het gemak) 12% betere prestaties zien. tja klinkt prima als je het mij vraagt, en hij is zelfs voor 40 euro minder te krijgen is (om dat eruit te krijgen in stroom kosten moet je die gts flink wat jaartjes onder volle belasting laten draaien waarschijnlijk ;) .)

[Reactie gewijzigd door Countess op 27 september 2007 00:27]

30 Watt extra is inderdaad stukken meer ja.

Je vergeet even dat de rest van de componenten (Intel Core 2 Quad Q6600 @ 3GHz, Asus Blitz mobo) ook mee worden geteld, dus het zal eerder 30-50% verschil worden.
Eeeuh zet één 40W lamp uit .... of vervang die met een spaarlamp.
Pffff wat hebben mensen tegenwoordig met die kleine verschillen in W?
Over watt gesproken, je moet ook verder kijken dan je neus lang is; het mag dan "maar" 40watt schelen, dat is wel per pc; 1miljoen x 40watt is ineens veel groter verschil. Gek he? :+
edit : vergeet ik niet, maar ik bekijk het anders, je systeem gebruikt 12% meer, en laat (even voor het gemak) 12% betere prestaties zien
SirNobax zegt dat de kaart stukken meer verbruikt, waarop jij letterlijk zegt dat het maar over 12% meerverbruik gaat. Dat slaat op het systeem en niet op de kaart. Je vergeet het dus wel degelijk.
van zulke berichte nword ik heel blij :)

deze kaart combineert toch het beste uit twee werelden: goeie prestaties aan een treffelijke prijs.

Hopelijk valt het energie-verbruik mee... cfr. gert-janw
Ach, dat energieverbruik wordt zwaar overdreven. Van die paar watt ga je niet dood, kwestie van een pintje minder pakken op zaterdagavond...
Dat iemand wijst op het energieverbruik vind ik niet overdreven hoor.
Was het niet THardware die eerder aangaf dat de zwaarste amd/ati kaartd goed was voor een stroomnota van ruim e400 per jaar.

Ik word daar echt wel even stil van en het is ook een belangrijke reden geweest voor mij om toch maar voor die andere kaartenfabrikant te kiezen.

Daarnaast extra stroomverbruik = extra warmte = extra noodzaak tot koelen = extra fans = extra herrie ( + nog weer meer stroomverbruik)
Als je je kaart (HD 2900XT) 24h/24 100% belast, 365 dagen op een jaar, dan kom je ergens rond de 300¤ uit. In de realiteit zal je mss 5% van die tijd (= 1,3 u/dag oftewel 15¤/jaar) echt aan die belasting zitten, vaak nog veel minder dan dat. Ook de 8800 kaarten zijn niet bepaald zuinig hoor, de GTS verbruikt ongeveer 50W minder dan de 2900XT in volle belasting. Dus kom je aan een reëel verschilcijfer van zo'n 3,67¤/jaar. In idle modus verbruikt de HD 2900XT net zoveel als een GTS 640, dus daar zit 'm 't verschil niet. 3,67¤/jaar, da's dus inderdaad een biertje of twee :9

Het energieverbruik van een pc valt trouwens in 't niets bij dat van de rest van je huis. Gloeilampen verbruiken overdreven veel, huishoudapparaten (vooral magnetron, oven, fornuis, stofzuiger, televisie (zeker CRT), stereo, wasmachine en vaatwas) al evenzeer.

[Reactie gewijzigd door Pine Mangoes op 26 september 2007 22:19]

Ach, dat energieverbruik wordt zwaar overdreven. Van die paar watt ga je niet dood, kwestie van een pintje minder pakken op zaterdagavond...
Dat wordt niet overdreven. Gewoon omdat het voor ATi slecht uitpakt, negeer je het maar.
Eh, nee. Voor zover ik me nieuwsberichtjes bij houdt is nVidia nog altijd schadelijker in idle, de stand waar de videokaarten het grootste deel van de tijd in verkeren. Per saldo is het verschil dus praktisch nul. En gaan we naar chipsets kijken, eens zien wie er dan het meeste verstookt.

Maar dit soort high-end kaarten worden meestal toch gekocht door mensen die niet zo naar de stroomrekening kijken. Anders kochten ze wel een midrange kaart...
Is dit al een high end kaart? Voor ATI waarschijnlijk wel maar tov NVIDIA is dit maar midrange hoor.

Verbruik is belangrijk of je dat nu wil of niet. Er bestaat geen review meer zonder dit item. Het verbruik is meteen ook de reden waarom de R600XT niet hoger geklokt is. Dus het is voor AMD/ATI ook belangrijk. Zie ook de cpu ontwikkeling, performance per Watt is heel belangrijk.

[Reactie gewijzigd door aval0ne op 27 september 2007 15:26]

Check eens twee posts boven je. Het reële verbruiks- en dus prijsverschil komt amper op een 5-tal euro per jaar, en daar gaat 't tussen een HD 2900XT en een 8800GTS. De pro verbruikt al 20W minder dan de XT.

Deze kaart zit imo in het mid/high-segment, in 't zelfde segment als de 8800GTS 320. Mid-end is eerder X1950pro/7950GT/8600/2600XT.

[Reactie gewijzigd door Pine Mangoes op 28 september 2007 00:23]

en wanneer worden deze dingen dan leverbaar???!!! dat is de vraag. In de pricewatch staat alleen het model van Sapphire, van de anderen (Club3d, HIS) is nog nergens iets te bekennen....
5 Oktober worden ze verwacht... :)
Sapphire is ook meestal de 1e
De meeste kaarten zijn van Sapphire en er wordt gewoon een ander labeltje opgeplakt. Net als dat Foxconn het gros van de nVidia kaarten maakt en de andere merken dan hier hun eigen labeltje op plakken.
Sapphire is als het ware altijd al het huismerk geweest van ATi. Vandaar zijn/waren zij altijd een van de eersten met het uitbrengen van nieuwe modellen.
Check http://www.norsk-it.de daar zijn ze binnen 48 uur leverbaar :) voor ¤236,90

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True