Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 134 reacties
Bron: DailyTech, submitter: SergioG829

Terwijl AMD in Tunesië een select gezelschap journalisten tekst en uitleg geeft over de R600-architectuur, zijn de eerste benchmarkresultaten en de exacte specificaties van de ATi Radeon HD 2900XT al uitgelekt.

Na een aantal vertragingen heeft AMD nu eindelijk zijn zaakjes op orde, zodat nieuwe videokaarten rond de R600-architectuur in grote getale van de lopende band kunnen rollen. Naast de high-end Radeon 2900-serie, waarvan verschillende versies medio mei op de markt moeten komen, heeft ATi voor het middensegment en de budgetmarkt respectievelijk de 2600- en 2400-serie in de planning. De gelekte details geven inzicht in de mogelijkheden van de Radeon HD 2900XT, een kaart die het moet gaan opnemen tegen de GeForce 8800GTS van nVidia. Om het grafisch geweld van nVidia aan te kunnen, heeft AMD de 2900XT voorzien van 320 stream-processors voor het aansturen van de unified shaders. De 8800GTS heeft 96 stream-processors, maar door een andere architectuur van nVidia zijn niet direct conclusies te trekken over de prestaties. De R600-gpu is geklokt op 742MHz en communiceert middels een 512-bits brede geheugeninterface met 512MB gddr3-geheugen op 1,65GHz.

De 24,1 centimeter lange kaart wordt actief gekoeld en slokt twee sloten op. Verder ondersteunt de R600-gpu uitvoer van hdmi-audio en -video, maar het door DailyTech geteste exemplaar heeft twee dual-link dvi-aansluitingen. De benchmarks zijn uitgevoerd op een Intel D975XBX2, voorzien van een Intel Core 2 Extreme QX6700 cpu en 2GB ddr2-geheugen op 800MHz. De kaart werd onder Windows XP getest met een aantal populaire games en het onontkoombare 3DMark06. De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan. Het systeem haalde een 3DMark06-index van 11.447 punten, terwijl de 8800 GTS-configuratie het met 9.836 moest stellen. AMD belooft dat de HD 2900XT - adviesprijs 449 dollar - voldoende voorradig zal zijn. Het bedrijf komt ook nog met de HD 2900XTX op de markt, waarbij het geheugen is verdubbeld tot 1GB en geklokt op 2,2GHz.

ATi Radeon HD 2900XT

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (134)

1 2 3 ... 6
Tja de resolutie van deze test zegt genoeg namelijk: 1280x1024. En daar heb je gewoon een CPU bottelnek. Ze hadden iets van 1920x1200 moeten testen met AA en AF aan.
En toch is in beide gevallen de CPU gelijk, en toch is er een verschil :+ Blijkt dus dat de AMD kaart wel degelijk beter zijn best doet dan de Nvidia kaart.
Ja daarom en ik denk dus dat de HD2900 XT in hoge resoluties nog veel en veel sneller zal zijn.
@Astennu:
Helemaal met je eens, er zit niet voor niets een HDMI aansluiting op om deze kaart te testen op een dikke HD-TV. En ik lees ook niks over AA & AS, waar Ati kaarten altijd beter uit de verf mee komen... Of zouden ze bij dailytech nogsteeds met een 17" monitor zitten?

En hoezo: De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan? Staande houden? Ik zie verschillen van 20%+.

Al met al, een beetje een zwakke review met oude spellen (kom op, Cod2? Half life 2? ). En waar is de 8800GTX in deze vergelijking?
Jep ik denk dat op de hoge resoluties die 8800 GTS niet eens meer in de buurt kan komen van de HD 2900 XT
8800GTS is de concurrent van de 2900XT, er komt ook nog een 2900XTX met 1GB geheugen, dat is de concurrent van de 8800GTX.
De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan.
in enkele? in alle geteste spellen weet hij de nvidia te verslaan als ik naar de bron kijk.
of slaat het enkele alleen op het feit dat er maar een paar games getest zijn?
Je vraag wordt beantwoord in het stukje onder de link naar de bron. Van de 6 geteste games in deze korte review is de nVidia maar in 1 geval sneller ( 5% na een herinstallatie, want in eerste instantie kwam ie niet verder dan ongeveer 50% van de ATi ). De winst van de ATI zit bij games zo tussen enkele procenten tot ongeveer 25% op de geteste resolutie.

Bij SPECviewperf 9 zijn de verschillen nog wat groter en wint de ATi op alle fronten en is dan tot ruim 40% sneller.

Aangezien deze kaart gelijk geprijst is met de 8800 GTS denk ik dat ATi hier eindelijk weer es voor de dag kan komen en nVidia het vuur flink aan de schenen legt met deze kaart(en).
De XT is de high end kaart van AMD nu aangezien de XTX weer naar later uitgesteld is. Deze staat tegenover de snelste kaart van NVIDIA, zijnde de GTX. Het is duidelijk dat de GTX veel en veel sneller is dan de GTS en dus een betere concurrent van de XT zal zijn.

De prijs heeft hier niets mee te maken, het is net omdat de XT niet aan de GTX kan tippen dat AMD zijn kaart lager prijst dan de GTX. Het is altijd zo geweest, de snelste kaart is altijd duurder.
GTX prestaties voor een GTS prijs?
ik weet wel wat ik zou kopen iniedergeval.
prijs heeft hier dus alles mee te maken.

edit @ jejit
449 dollar....lezen is moeilijk he.

Dat wordt gewoon 450 euro ipv de 400 die op het forum wordt gespeculeerd.
ja voor mij soms wel ja want ik ben dyslectisch maar desondanks had ik dat toch al lang gelezen.

maar ik ben het gewoon niet eens met je door jouw uit je duim gezogen aannames.
zoals hierboven als met meerdere voorbeelden is aangetoond dollar prijs =! euro prijs.

edit 2 : OWNED
pricewatch: Sapphire Radeon HD2900 XT 512 MB DDR3 (PCI-e, 2x DVI, HDMI)
bedankt voor de tip devilsprophet :)
449 dollar....lezen is moeilijk he.

Dat wordt gewoon 450 euro ipv de 400 die op het forum wordt gespeculeerd.

Gewoon een stuk duurder dan 8800GTS en maar heel iets goedkoper dan de 8800GTX.

En als de 8800GTX alsnog beter presteert, dan neemt de gemiddelde highend gamer echt wel de 8800GTX hoor.
@bejit:

Zoals hier al eerder is aangetoond: de 2900XT wordt verkocht voor ¤380 - veel minder dan jouw ¤450. Dus het regeltje van prijs in dollar = lokale prijs in euro's gaat niet op, helaas.
Over die spec Viewperf 9 resultaten: uit de reacties onder het artikel blijkt dat deze kaart alle werkstation features kon gebruiken (dwz, hij functioneert in viewperf als FireGL, ipv Radeon). Deze features zijn normaal bij een Radeon uitgeschakeld

Dit schept een zeer scheef beeld, aangezien nu onterrecht de indruk wordt gewekt dat een consumer kaart de Quadro FX-5500 kan verslaan.
Half-life 2 score al eens bekeken? Verder valt het allemaal wat tegen , de kaart is te duur om een GTS concurrent te zijn en weet deze 6 maand oude kaart amper te verslaan.
Maar de test boeit niet echt, hogere resoluties met AA en AF en IQ vergelijkingen lijken me veel interessanter
uhm ja daar scoorde deze kaart zelfs 100% meer als de 8800GTS (omdat de 8800GTS iets verkeerd doet).
edit (ok nieuwe benchmark, verschil is minimaal en voor beide meer als hoog genoeg)

maar oblivion is hij bijna 20% sneller en bij call of duty zelfs richting de 40% sneller.

en hij is niet te duur, hij is maar 40-50 euro duurder omgerekend met btw erbij. het prestaties verschil meer dan waard.
Je moet wel weten dat de HD 2900 tegenover een 640 MB variant werd gezet, niet tegen die met 320 MB.
Euh is alles oke met de redactie? Men zegt hier in dit verslag:

De 2900XT houdt zich prima staande tegenover de 8800GTS en weet in enkele spellen de nVidia-kaart te verslaan.

Maar als je zelf de review leest zie je dat de Ati kaart de 8800GTS 640mb in elke benchmark verslaat!

http://www.dailytech.com/...enchmarks/article7043.htm

Daar komt nog bij dat de drivers van Ati momenteel niet het onderste uit de kan halen en nivida's drivers al een paar updates hebben gehad. En nog steeds verslaat de Ati kaart zelf de nvidia kaart in het teritorium van nvidia FEAR dus ;)
Maar als je zelf de review leest zie je dat de Ati kaart de 8800GTS 640mb in elke benchmark verslaat!
Kijk nog eens goed
Daar komt nog bij dat de drivers van Ati momenteel niet het onderste uit de kan halen en nivida's drivers al een paar updates hebben gehad.
Nu zijn de drivers van NVIDIA ineens goed en die van ATI slecht?
Ja, oke de nvidia kaart is sneller in HL2 maar toch de kaart verslaat nog steeds de nvidia kaart in de meerderheid van de benchmarks en de conclusie van de redactie op tweakers is nog steeds verkeerd.

En iedereen weet dat er bij de nieuwe kaarten altijd flinke prestatieswinsten bijkomen naar een paar driverupdates. Dus ik zeg niks over de kwaliteit van de drivers maar gewoon een algemeen bekent feit?

Daarnaast werd de ATI kaart gedraaid op een RC4 driver versie, waardoor de uiteindelijke resultaten kunnen verschillen (c) Hardware.info
Die van nVidia zijn ook niet goed maar die forceware 156.x zorgen wel voor een boost.

En het is belaggelijk dat ze na een half jaar nog steeds geen goede drivers hebben voor hun top kaart :r

Oudere producten krijgen niet eens meer nieuwe drivers :r :r :r :r :r :r

Mijn 7600 Go gaat dus vervangen worden voor een RV630 mobility.
Kijk eens naar de kleine lettertjes :7 Halflife 2 is opnieuw getest en daarin was NVIDIA wel sneller
passief gekoeld met een ventilator? :+
of zijn de midrange kaartjes passief gekoeld?
Wat mij opvalt aan deze kaart:
1. 3x zoveel stream-processors (lijkt mij duurder om zo een gpu-chip te maken),
2. hoger geklockte core-speed (lijkt mij dat er minder yields hiervan uit een pannekoek gaan), en
3. een 512-bits geheugenbus (uit de budget kaarten van nvidia weten we dat een 256-bits bus duurder is om te maken dan een 128-bits, dus dit zal ook gelden voor een 512-bits bus t.o.v. 256).
4. Alleen de 3dmark06 en workstation-score is 20% sneller dan de nvidia-kaart...voor de rest van de game-resultaten liggen deze kaarten heel dicht bij elkaar en winnen ze om de beurt.

En hij is dan misschien 20% sneller dan de kaart van nvidia, maar hij zal dus ook ongeveer 20% duurder worden...Daarbij beloven vooral de eerste 2 genoemde punten een minder goed overklockresultaat te geven dan de nvidia kaart. Dus of deze kaart een betere koop is, zal voornamelijk afhangen van zijn directx 10 prestaties en prestaties op hoge resoluties met AA en AF aan...(en daarin scoorde ati tot nu toe altijd beter dan nvidia, dus dat beloofd wat)
1. 3x zoveel stream-processors (lijkt mij duurder om zo een gpu-chip te maken),
Die SP's zijn een mooi marketingpraatje van ATI. In werkelijkheid heeft de R600 "maar" 64 unified shader pipelines, die ook nog eens op bijna de helft van de snelheid van de SP's in de 8600GTS draaien. Het enige voordeel dat de R600 dan weer heeft is dat je 1 vector operatie kan uitvoeren per clock per pipeline, terwijl de G80 daar 4 SP's voor nodig heeft.
Al zegt dat natuurlijk lang niet alles. De architecturen zijn zo verschillend dat je beter naar benchmarks kunt kijken om te zien welke de beste is.
nvidia gebruikt een 320bit bus niet 256bit (vandaar ook de vreemde hoeveelheden geheugen die ze gebruiken)
ze gebruiken het als een soort tussen oplossing omdat ze 512bit te hoog gegrepen vonden.
achteraf misschien niet eens zo gek gezien de vertraging die de r600 heeft opgelopen.

de 3 keer meer stream processoren maakt niet persee verschil omdat die van nvidia groter zijn omdat ze er min of meer een paar bij elkaar gevoegt hebben. qua hoeveelheid transistoren zullen ze elkaar niet zo veel ontlopen denk ik, in iniedergeval lang geen 300%. niet genoeg om echt uit te maken op de prijs iniedergeval

de hogere kloksnelheid is onder andere mogelijk gemaakt door het wat hogere verbruik(vcore vrij hoog maken), en de kleinere productie process, zonder dat de yields daar onder hoeven te leiden.

en de game resultaten van call of duty (richting de 40%) en oblivion (20+%) geven toch wel aan dat deze kaart veel potentie heeft. deze benchmarks zijn ook gedraaid met pre-beta drivers. ik verwacht dat het verschil de eerste paar driver releases nog wel vergroot word.
behalve dat de eerste paar driver releases van nieuwe kaarten altijd extra performance geven, en die "eerste paar" heeft nvidia al wel gehad nu.
daarbij waren deze van ATI pre-beta drivers en zijn die van nvidia release drivers.
zeker geen loos argument.

en over die vcore, daar had ik beter kunnen zeggen dat ze het gedaan zouden kunnen hebben.
ik gaf alleen wat voorbeelden van hoe je toch een hogere kloksnelheid zou kunnen krijgen zonder dat het slecht hoeft te zijn voor je yields.

en dat je het over budget GPU's had had ik al gezien maar daar hoeft deze gpu niet mee te concurreren en dus ook niet met de goedkopere prijs daarvan.
deze GPU moet conruren met de nvidia's met een 320bit bus, en die is wel wat goedkoper maar ook niet zo veel goedkoper, en zou je de zelfde bandbreedte willen krijgen met een 320bit interface worden je geheugen modules veel duurder.
dus wat is je punt nu?
Alleen bij de high-end kaarten draait de fan }>
Dat is geen fan, maar een windmolen, die door convectie wordt aangedreven!

De R600 is klimaat neutraal! B-)
ik zou het toch eerder een tornado met PCI-E interface noemen :+
Ik lees begin tweede alinea toch echt "De 24,1 centimeter lange kaart wordt actief gekoeld"
Als dat spel passief gekoeld kan worden, zal het stroomverbruik hoogstwaarschijnlijk een stuk lager liggen dan 240 Watt.
Sinds wanneer is het feit of iets passief gekoeld wordt een indicatie voor het stroomverbruik?
Sinds het stroomvervbruik recht evenredig is met de warmteproductie, Wet van behoud van Energie.
Ja en je punt is? Een passief gekoelde kaart die 90°C wordt is niet te verkiezen boven eenzelfde actief gekoelde kaart die daarmee maar 50°C warm wordt.

Actief of passief koelen zegt niets over stroomverbruik, wel iets over de koelcapaciteiten van het koelblok.
Het punt is dat een kaart als de X1900XT die actief gekoeld wordt niet passief te koelen is met een normaal koelblok.

Als jij 200W probeert af te voeren met gewoon koper moet je daar een gigantisch koeblok voor hebben, fabrikanten zullen dus kiezen voor de goedkopere actieve oplossing.
Sinds de koelblokken op een grafische kaart geen 1 meter breed kunnen zijn.

Maarre... die passieve koeling is zeer zeker een tikfout.
Lijkt me vrij logisch toch? Een kaart die enorm veel stroom vreet is onmogelijk passief te koelen (tenzij je een huge-ass koeler monteert, maar dat zal de klant wel niet zo waarderen)
na de overnamen door AMD zijn ze deze gpu op 65nm gaan maken, en dus kloppen die eerdere 240 watt cijfers niet meer.

edit : nee dat ook weer niet, maar 60-80 watt er af is goed mogenlijk.
dat pasief gekoeld zal idd wel een foutje zijn, of allen gelden als je niet 3d bezig bent ofzo.
Het is niet dat het verbruik plots naar 100 Watt is gegaan door enkel een die-shrink, toch?
kan wel als je bij die shrink ineens meer opties hebt om lekstroom te verminderen. Dan heb ik het over dingen zoals ISO en low K.

En je kunt niet zo maar een shrink doen van 80nm naar 65. Wel van 90nm naar 80nm. Maar dat is omdat 80nm een halfnode is. Bij 65nm zul je vaak toch wat dingen aan moeten passen.
De richtprijs voor de 8800GTS was ¤ 469,-
De richtprijs voor deze kaart is ¤ 450,-

Als je bedenkt dat de 880GTS 640mb nu al voor veel minder te krijgen is waarom zou de uiteindelijke prijs van deze kaart ook niet lager uitvallen ?

Een gefotoshopte 8800 kaart ?

Dacht het even niet... zoek maar eens 8800GTS en 8800GTX foto's op. De s-video aansluiting zit bij alle 8800 kaarten helemaal aan de zijkant. Bij deze kaart precies in het midden > typisch ATi. Ten tweede zit de aansluiting van de fan stekker op een heel andere plek. Ook zitten er bij de 8800 kaarten een rijtje condensators achterop de kaart bij deze kaart zijn die niet te vinden.

Coolermaster had de koeler voor de 8800 serie ontworpen. Mss heeft ATi Coolermaster ook wel in de armen genomen om een koeler te ontwikkelen vandaar veel overeenkomst op het gebied van de koeler.
Bedenk ook dat ATi een groot voordeel heeft, omdat deze kaarten op 65nm gefabriceerd worden. De 'die' van de R600-core is veel kleiner dan die van de G80, wat economisch voordeel oplevert voor ATi.
En welk groot voordeel levert dat ons als consument op? Voorlopig heb ik alleen maar vertragingen en een veel te hoog stroomverbruik gezien. Mooie voordelen zijn dat.
Anders moet je de officiële berichtgeving maar afwachten. Dat stroomverbruikverhaaltje is ondertussen al betrekkelijk oud en afgezaagd geworden.
De kaart staat al voor 380 euro in de pricewatch, dus jouw 450 euro klopt niet helemaal.
De s-video aansluiting zit bij alle 8800 kaarten helemaal aan de zijkant.
ctrl-c
ctrl-v
Al eens bij nagedacht dat NVIDIA ook niet stil zit en al ongeveer een half jaar de tijd heeft gehad om rustig aan de opvolger van de 8800 serie te werken ? ATI loopt nu zwaar achter de feiten aan, net zoals AMD dat doet op Intel. Het lijkt een beetje een verloren zaak te worden als je het objectief bekijkt.
Probleem is echter, hoeveel heeft Nvidia extra eruit kunnen krijgen in die 6 maanden? als dat gelijk is aan wat de Ati stock doet, dan zijn ze eigenlijk 0 opgeschoten met ook nog de XTX in aantocht.

Tevens zijn de geruchten niet te negeren dat de 8800 Ultra rond de 900 euro zou gaan liggen en maar zeer, zeer beperkt vergrijgbaar zal zijn bij de launch (nummers lopen uit van 100 tot 1000 stuks max)

Ten derde kun je je afvragen wat ATI/AMD achter de hand houd, of gooien ze gelijk al hun troefen op tafel wat mij sterk lijkt. Ook kan er met de 7.5 Drivers nog een extra boost gegeven worden.

Ik ga denk ik voor de 2900 XT vanwege het HDCPvoor HD tv inclusief audio, en ja HDCP gaat over DVI...

bron: wikipedia

HDCP is licensed by Digital Content Protection, a subsidiary of Intel. In addition to paying fees, licensees agree to limit the capabilities of their products. For example, high-definition digital video content must be restricted to DVD quality on non-HDCP compliant video outputs when requested by the source. DVD-Audio content is restricted to DAT quality on non-HDCP digital audio outputs (analog audio outputs have no quality limits). Licensees cannot allow their devices to make copies of content, and must design their products to "effectively frustrate attempts to defeat the content protection requirements."

HDCP's main target is to prevent transmission of non-encrypted high definition content. Three systems were developed to achieve that goal:

1. Authentication process disallows non-licensed devices to receive HD content.
2. Encryption of the actual data sent over DVI or HDMI interface prevents eavesdropping of information. It also prevents "man in the middle" attacks.
3. Key revocation procedures ensure that devices manufactured by any vendors who violate the license agreement could be relatively easily blocked from receiving HD data.

*edit, type foutjes
Tevens zijn de geruchten niet te negeren dat de 8800 Ultra rond de 900 euro zou gaan liggen en maar zeer, zeer beperkt vergrijgbaar zal zijn bij de launch (nummers lopen uit van 100 tot 1000 stuks max)
Tja, er zijn ook geruchten dat Elvis nog steeds zou leven. Waarom zou NVIDIA in hemelsnaam een kaart die ze niks meer kost om te fabriceren dan de GTX zo idioot veel duurder op de markt zetten? Denk je dat ze bij NVIDIA niet alles op alles zetten om ATI aan te pakken ofzo? Verwacht eerder dat ze de prijzen van de GTX omlaag halen naar het niveau van de 2900XT, om ATI lekker te pesten met een (iets) betere kaart voor hetzelfde geld.
Probleem is echter, hoeveel heeft Nvidia extra eruit kunnen krijgen in die 6 maanden? als dat gelijk is aan wat de Ati stock doet, dan zijn ze eigenlijk 0 opgeschoten met ook nog de XTX in aantocht.
En tja, als NVIDIA evenveel doet als ATI schieten ze niet op, maar denk je nou echt dat ze bij NVIDIA hun werknemers betalen om niks te doen? Ik verwacht zelf dat ze het launch feestje van ATI flink proberen te verpesten met een 8900 serie (althans, dat zou ik doen). Ze hebben er meer dan genoeg tijd voor gehad in ieder geval, en die zullen ze vast optimaal gebruikt hebben.
Ten derde kun je je afvragen wat ATI/AMD achter de hand houd, of gooien ze gelijk al hun troefen op tafel wat mij sterk lijkt.
Tja, ATI heeft misschien inderdaad nog wat achter de hand. Ze hebben in ieder geval nog niet veel vrijgegeven over de XTX versie, en die zou nog wel interessant kunnen worden. Het feit dat ze er nog niks over zeggen lijkt mij trouwens eerder een teken dat het niet goed gaat dan dat ze het met opzet achter de hand houden. Alsof ze er baat bij hebben dat nvidia nu al 6 maand hun (high end) klanten zit te verleiden.
Totaal niet mee eens zoals al eerder gezegd: ATi is juist gewoon precies op tijd. Ze lanceren straks een prachtige serie die kan concureren met de 8800 serie van nVidia. nVidia liep gewoon te hard. Staks zijn ze niet meer de snelste terwijl ze nog niet eens hun kaart hebben kunnen bewijzen in dx10.
Ben zelf een eh AMD/ATI gebruiker maar vrees dat je gelijk heb Erwin :P
da's een goede 20 % sneller in 3d'06. toch vind ik de prijs aan de hoge kant, of ligt dat nu aan mij? 8800GTs is toch al vanaf 270 euro te krijgen?
je hebt wel gelijkt dat hij duur is ja,. maar het gaat hier om een 640 mb variant inplaats van de 320 mb. En die is dan weer 350 (als nog is de 2900 XT redelijk duur daar niet van).
omgerekend naar euro's en met de BTW erbij kom ik anders op 392 euro uit, dus zo veel duurder is hij niet, zeker niet gezien de hogere prestaties.
ik denk zelfs dat hij een stuk hogere bang for buck ratio heeft.

edit @ aval0ne : dan weet iedereen dat fout want dat gaat al tijden niet meer op.

edit 2 ik zal het hier nog maar eens posten want dan ziet iedereen het misschien.
we nemen de q6600 als voorbeeld
voor april staat die bij intel op de prijslijst voor 530 dollar (en bij newegg kost hij zelfs 550 dollar).
als je dat omrekend naar euros en de BTW erbij doet kom je uit op 462 euro.
als je dan naar pricewatch gaat en kijkt wat hij zou moeten kosten zie ik prijzen rond en soms zelfs een stuk onder de 450 euro.

@ nieJas : op prijs watch staat die GTS 640mb zelfs voor 360 euro.
Iedereen weet nu al wel dat je geen dollar - euro omrekeningen mag doen en dat de prijs in dollar gewoon de prijs in euro wordt.
De prijs van een GTS met 640MB is in the US of A rond de $ 400 zonder BTW. Hier is hij al te krijgen vanaf ¤ 385 met BTW. Countess heeft gelijk, dus.
@countess & aval0ne:
Gaat idd niet meer op, alleen bij de budget artikelen.
hij staat al in de pricewatch voor 380 euro, de GTS 640 begint bij 350 idd.
Mooie scores, ware het niet dat de 2900XT tegenover de 8800GTX komt te staan en niet tegenover de GTS. De 2900XTX komt dan tegenover de 8800 ultra.
zou ook prima zijn voor ATI/AMD want de GTX kost bijna 500 EURO en deze kaart maar 450 dollar (wat op 330 euro neer komt... BTW erbij kom ik op 392 euro uit.)

100 euro goedkoper dus.

edit : OWNED :Y)
pricewatch: Sapphire Radeon HD2900 XT 512 MB DDR3 (PCI-e, 2x DVI, HDMI)
380 EURO.
120 euro goedkoper als een GTX en maar 20 euro meer als een GTS.

kan iedereen nu zijn gebeten hond (Europeaan) complex (de illusie dat we hier altijd te veel betalen) en de dollar = euro prijs mythe eindelijk voorgoed opbergen?
helaas is zoals al zovaak gemeld, het gebruiken van de Euro - Dollar koers geen indicatie voor de prijs in Euros bij een gegeven Dollar prijs. En is het meestal zo dat 1 Euro = 1 Dollar! Oftwel geen 330 Euro maar eerder 450 Euro!
maar de GTX rent wel rondjes om de GTS, dus ik denk dat de GTX sneller zal zijn dan de 2900XT
denk je? meestal is de dollar prijs ook de euro prijs. Ze rekenen het nooit om. Als een cpu in USA 1000 dollar gaat kosten zit hij meestal hier ook rond de 1000.
"meestal" ? je moet iets beter letten op de financiele markten de euro staat erg hoog en de dollar extreem laag. die 1 op 1 vergelijken gaat al maanden niet meer op.

de Q6600 bijvoorbeeld is hier te koop voor 450 euro de intel advies prijs in dollars ligt echt een stuk hoger
op 530 dollar om precies te zijn.

en als ik dat ga omrekene met BTW erbij kom ik op... 464 euro! komt toch aardig overeen of niet.

@nr12 : waar heb je het over? ik heb alleen wat toegevoegd, omdat ik even moest opzoeken wat de precies prijs van de q6600 was.

edit @ tweaklegend : nee geld ook voor GPU's
zie voorbeeld mie.jas hierboven.
GTS 640MB voor 400 dollar in de schappen in american
hier voor 360 euro te koop.
volgens mijn berekening met omzetten en dan BTW erbij tellen zou hij 349.86 moeten kosten.
komt dus weer aardig goed overeen.
al maanden? zijn ze ooit even veel waard geweest dan?
Meestal is bij een nieuw product als dit dat hij evenveel kost aan het begin als de dollar. Kijk maar naar de Playstation 3: PS3 599 dollar,. PS3 599 euro?

Die Q6600 is al weer redelijk oud en heeft al weer een prijsverlaging achter de rug.


EDIT:
(lekker fijn om al je posts te veranderen zodat mensen niet kunnen zien wat je hiervoor heb gezegt)
Zoals ik al zei gaat het er om de prijs bij de introductie even hoog is en niet na 3 maanden.
@ countess: louter financieel gaat het inderdaad niet op, maar in de realiteit wel nog. Door invoerrechten, taksen, btw, andere prijszetting in europa is $ = ¤

Wij europeanen worden op dat vlak uitgebuit!

(ja, ik weet dat de koers van de euro op dit moment 1.3647 $ is = hoogste peil ooit)
Dit is dan ook alleen het geval voor CPU's over het algemeen.
Laten we trouwens niet vergeten dat in de nederlandse consumentenprijzen standaard de btw is meegenomen. (verplicht)
In de VS is dat standaard niet het geval met electronica en geluidsdragers.

Dus reken er ook nog even 8% erbij...
Ik mis eigenlijk het meest belangrijke en dat zijn DirectX 10 benchmarks.
Van de 8800 is bekend dat deze onder DX10 zéér slecht performed. Als de 2900 hier wel goed performed zal dit de doorslag kunnen zijn. Je gaat nu namelijk geen 600 euro uitgeven aan een grafische kaart die DX10 niet goed ondersteund, helemaal niet als je kijkt wat je aan nieuwe DX10 games kan verwachten in de nabije toekomst.
Er is nog helemaal niks bekend over DX10 performance van de 8800, waar haal je dat vandaan? Er zijn nog helemaal geen DX10 spelen.
(Bovendien zie ik niet in waarom de G80 niet goed zou draaien bij DX10. Zoveel verschillen 9 en 10 ook weer niet hoor.)
Er zijn benchmarks gedraaid met een pre-productie versie van Crysis. Zie http://www.techpowerup.com/?24609

Het resultaat, voor zover dit representatief is met de uiteindelijke versie van het spel, is eigenlijk zéér dramatisch.

Aangezien véél gamers momenteel naar schermen groter dan 19" uitwijken en dus ook naar resoluties boven de 1280x1024 is er nog een lange weg te gaan naar een acceptabele performance voor DX10 games.
Even feiten opsommen hoor:
- Prerelease van Crysis, dus nog lang niet geoptimaliseerd
- Oude NVIDIA drivers (ik verwacht niet dat ze bij die eerste driver releases al naar DX10 performance hebben gekeken, maar juist naar DX9 performance)
- Enkel getest op een dubbele G80

Hoe kun je daar nou de conclusie uit trekken dat de G80 slecht overweg kan met DX10? Er staat nergens dat dit een DX10 versie van Crysis is, en als oudere kaarten beter zouden presteren dan de G80, dan zouden ze er toch gewoon die kaarten in zetten? Zeker omdat die drivers stukken volwassener zijn...
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True