Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 106 reacties

AMD heeft donderdag de Radeon HD 4890 geïntroduceerd en Nvidia heeft met de GeForce GTX275 geantwoord. De HD 4890 is AMD's snelste single-gpu-kaart en blijkt prima te overklokken, maar het referentiemodel wordt door de GTX275 verslagen.

De specificaties van de Radeon HD 4890 waren al bekend. De kaart is opgebouwd rond de RV790-gpu, maar wie dacht dat het hier om een compleet nieuwe gpu gaat komt bedrogen uit: in feite verschilt de chip niet veel van de RV770 uit de HD 4870. De 4890 krijgt wel standaard 1GB gddr5-geheugen mee en de kloksnelheid van de gpu is met 100MHz verhoogd naar 850MHz. Ook is de geheugenklok op 975MHz afgeregeld, waar de 4870 het nog met een kloksnelheid van 900MHz moest doen. De tdp van de HD 4890 ligt daardoor wel hoger: die bedraagt 190W tegenover 160W voor de 4870. Daar staat tegenover dat AMD het idle-verbruik tot 60W heeft weten terug te dringen, waar de 4870 in rust nog 90W verstookte.

De prestaties van de nieuwe Radeon liggen 10 tot 15 procent hoger dan die van de 4870 1GB, waarmee de 4890 op dit moment de snelste single-gpu-kaart van AMD is. Daar moet wel voor betaald worden: de prijs van de goedkoopste 4890 in de Pricewatch is op moment van schrijven 222 euro, terwijl de goedkoopste 4870 1GB voor 176 euro van de hand gaat. Guru3d tekent dan  weer aan dat de nieuwe kaart goed overklokbaar is en dat de 4890 beter presteert dan de GTX285 als de gpu-klok op 950MHz en de geheugensnelheid op 4400 tot 4600MHz gezet wordt.

AMD Radeon HD 4890

Tegelijkertijd met de Radeon 4890 bracht Nvidia zijn GTX275 uit. Deze kaart bezit dezelfde op 55nm gebakken gpu als de GeForce GTX285 en kan het volledige aantal van 240 shaders benutten. Nvidia heeft de GTX275 echter 896MB geheugen en een 448bits geheugeninterface gegeven, en dat is identiek aan de specs van de GTX260. De kloksnelheid van de gpu ligt op 632MHz en dat is een fractie langzamer dan de  op 648MHz geklokte GTX285.

Zoals op grond van de specificaties verwacht mag worden, valt de GTX275 tussen de GTX260 Core 216 en de GTX285 in. Nvidia zal zich met de nieuwe kaart vooral ten doel gesteld hebben om AMD's introductiefeestje van de Radeon HD 4890 te verstieren en in die opzet lijkt het bedrijf aardig te zijn geslaagd. De GTX275 komt bij het merendeel van de benchmarks als winnaar uit de bus en aangezien de prijs naar verwachting tussen de 230 en 280 euro komt te liggen, heeft Nvidia een prima alternatief voor de HD 4890 aan zijn assortiment toegevoegd. De GTX275 laat overigens nog wel even op zich wachten; de kaart ligt rond 14 april in de winkels.

Nvidia Geforce GTX275

* Reviews Radeon HD 4890:

* Reviews GeForce GTX275:

* Reviews beide kaarten:

Moderatie-faq Wijzig weergave

Reacties (106)

Had gehoopt dat de opvolger van de 4870 (single GPU mid-high end range) werd voorzien van een 512 bits bus ipv de 256 bits bus. Dit is puur de reden dat nvidia meer rek heeft. De alom oude bekendheid van ati de 2900XT had het ook dus waarom niet gewooon doorborduren op dat princiepe. Doorborduren op princiepes kan nvidia al jaren dus waarom doet ati het dan ook niet ? Een kaart neerzetten met betere clocks kan iedereen. Kom eens met iets echt vernieuwends. En als je dan weinig rek hebt in research maak dan je nieuwe kaarten op hetzelfde price niveau dan de oudere types en verlaag de oudere qua prijs. Dit model kost ati gun ruk meer maar er weer wel meer voor vragen.
Die 512-bit memory interface is niet de reden dat nVidia meer 'rek' heeft, zoals je dat stelt. De HD2900XT had een 512-bit bus, maar kon hier niet goed gebruik van maken door andere bottlenecks zoals inefficiente ROPs. De 384-bit bus van de 8800GTX was toen veel efficienter in combinatie met de krachtigere ROPs.

Door gebruik te maken van snel GDDR5 geheugen haalt AMD met een 256-bit memory interface inmiddels meer bandbreedte dan de HD2900XT ooit had met een 512-bit memory interface. Daar ligt het 'probleem' dus niet.

Waar nVidia op dit moment een groter voordeel uit haalt zijn het aantal ROPs. Hoe meer ROPs je hebt, des te sneller wordt het beeld gevuld. nVidia heeft er 32 van in de GTX285 en 28 in de GTX260/275 die op coresnelheid draaien. AMD heeft er slechts 16. Deze ROPs zijn stuk voor stuk wel sterker dan de ROPs van nVidia. Dit merk je vooral bij 8xAA, waar de Radeons vaak hun tegenhangers van nVidia voorbijstreven. Ook merk je dat de ROPs gevoeliger zijn voor grote overkloks. Zet de core van de RV790 op 950Mhz en de GTX285 met z'n 32 ROPs @ 648mhz komt in zicht.

De HD4890 is met name gericht op de mensen die nog geen DX10.1 kaart hebben en die een goed overklokbare kaart willen hebben met als sidenote dat dit overklokken volledig binnen de garantie valt. Overklokken is nog nooit zo simpel geweest voor de leek. En het is een zoethoudertje, want de meeste resources van AMD zijn de laatste tijd in de RV870 gaan zitten... en die komt waarschijnlijk eerder uit dan de meeste mensen hier verwachten (rond de zomer ;) ).
Allemaal leuk en aardig die exacte uiteenzettingen waarom het met de 2900 niet werkte. Ik geef alleen maar aan als je het huidige model laat werken in een 512 bits setup dan presteerd deze stukken beter dan de geheugens en de core omhoog te klokken. Als nvidia met DDR3 dit geweld tav DDR5 kan bijhouden dan word ATI de winnaar als zij DDR5 met 512 bits combineren linksom of rechtsom.
Urhm... ik geef nu net aan dat het absoluut geen zin heeft om het huidige model met een 512-bits memory interface te laten werken... 8)7

De RV770 wordt er echt niet veel sneller op... Je kan sowieso wat dat betreft de architecturen van nVidia en AMD niet vergelijken op dat gebied. De RV770 en RV790 GPUs zijn niet echt bandbreedte gelimiteerd. Kijk bijvoorbeeld naar de HD4850 en HD4870. Er zit een verschil tussen van 80% aan bandbreedte en 20% kloksnelheid verschil. En toch benadert het verschil in performance bij lange na niet die 80%... het ligt eerder rond de 20-25%.

Het heeft dus amper nut om een RV770 (of in dit geval) RV790 te koppelen aan een 512-bit memory interface. De boost in performance zou slechts marginaal zijn, maar wel veel meer transistors kosten (zo'n 200M) en het PCB zou daardoor onnodig complex worden (12 lagen vs 10 lagen PCB), waardoor de kosten dus hoger zouden liggen voor het uiteindelijke product, laat staan dat X2 varianten bij voorbaat uitgesloten zouden zijn vanwege enorm hoog stroomverbruik en de daarbij vrijkomende hitte.

Het koppelen van GDDR5 aan een 512-bits memory interface levert inderdaad wel veel meer bandbreedte op, maar het is dus absoluut geen garantie dat de ATI Radeon dan de winnaar wordt. Hoe een GPU met de beschikbare bandbreedte omgaat is veel belangrijker, alsmede hoe ook hoe overige elementen van GPUs in elkaar steken (zie bv de 32 ROPs van de GT200b vs de 16 van de RV770/RV790)

Overigens is het vanuit technisch standpunt niet eens mogelijk om de 512-bits memory interface van de HD2900XT (R600) te gebruiken in een HD4890 (RV790). De R600 werkte namelijk met een ringbus-interface, terwijl deze voor de RV7x0 generatie volledig is afgeschaft en men weer naar een crossbar interface met hub is gegaan. Dit was efficienter met GDDR5 dan een dure 512-bit interface.

[Reactie gewijzigd door CJ op 2 april 2009 14:42]

De reden dat nvidia ddr3 kan gebruiken is toch gewoon dat ze een bredere geheugenbus hebben ? Als dat zo is dan is bij gebruik te maken van DDR5 er toch nog veel meer bandbreedte ? Je gaat ervan uit dat ze de huidige techniek moeten aanpassen ringbus vs crossbar interface, Wat nu als ze 512 bits toepassen icm de crossbar interface ? Je kan toch niet in de lengte van dagen vast blijven zitten aan de 256 bits interface ? De extra kosten voor een 512 bits pcb en chip vallen in massa toch ook wel mee ? 50% meer performance bv daar hebben mensen best wel geld voor over.
Nog ÉÉN keer dan...er komt GEEN 50% meer performance als ATI een 512-bits geheugen interface gebruikt!! De kaart wordt echter WEL 50% duurder. ATI heeft bij het ontwerpen goed nagedacht of de kosten op zouden wegen tegenover de prestatiewinst en dat is NIET het geval. Daarom is er GEEN kaart met GDDR5 geheugen en een 512-bits geheugen interface.

Dit betekent natuurlijk niet dat het in de toekomst niet overwogen zal worden.
kom maar eens met iets echt vernieuwends? WAT?
alsof Nvidia met iets vernieuwends in gekomen?
een 512bit geheugenbus is ongeveer even innoverend als een 8 cilinder motor tegenover een 4 cilinder!

en is gddr5 niet vernieuwend dan? of een goedkope GPU die nvidia's zo dicht bij nvidia's dure chips in de beurt komt qua performance dat nvidia zich genoodzaakt zag zijn prijzen bijna te halveren?

gddr5 is de hele reden dat ATI geen 512bit nodig heeft.
en door de kleinere bus hebben ze juist minder chips nodig, kunnen ze toe met een simpelere BCP en neemt de geheugen controller minder ruimte in op de chip (dus een kleinere chip)
en gddr5 kan nog hoger geklokt worden in de toekomst waar gddr3 toch aardig op zijn max zit.

allemaal redenen waarom ATI juist MEER rek heeft.
de kleinere gpu kan vaak hoger geclokt worden
toekomstige modellen kunnen meer bandbreedte krijgen door hoger geclockte gddr5 chips(zoals deze hd4890 bijvoorbeeld)
en ze hebben meer rek in hun prijs want een kleinere chip is goedkoper te maken, een simpelere PCB is kleiner en/of goedkoper (kleiner of minder lagen)
en minder geheugen chips betekend minder kosten,
en gddr5 chips zullen uiteindelijk net zo duur worden als gddr3 chips.
2 keer de bandbreedte voor de zelfde prijs.

jij staart je blind op 256bit vs 512bit maar eigenlijk weet je totaal niet wat er achter zit en wat voor effect het heeft of waarom er voor gekozen is, of wat nu eigenlijk de uiteindelijke performance is.

[Reactie gewijzigd door Countess op 2 april 2009 20:18]

ik zag net op komplett http://www.komplett.nl/k/...E6-410C-9075-06518B1B62A5
op de doos van sapphire staat 800 en op wikipedia op de ATI comparison staat de 4890 nu http://en.wikipedia.org/w...graphics_processing_units

Dus op dat gebied is er niet zo veel veranderd. Maar er zijn wel duidelijk verbeteringen. Het stroom verbruik in idle is er een die wel fijn is. ook de +1GHZ clock mogelijkheden spreken mij wel aan. alleen ben ik zelf nooit echt een fan geweest van GPU overclocken met name door dat het de GPU zou kunnen beschadigen en van zich zelf al een heet hoofdt is met de mee geleverde koeling en een vervangende kaart vrij duur is. http://www.fudzilla.com/i...k=view&id=12887&Itemid=65

Maar de GTX275 is anders ook een zeer nice alternatief. met de volle bak aan shaders heeft deze aardig wat extra power under the hood. bovendien is het prijs verschil misschien een tientje of 2 dus ze liggen zeer dicht bij elkaar.
Ben benieuwd in hoeverre de technische verschillen in de verkoopcijfers terug te zien zullen zijn. Het gevecht illustreert wel mooi de kracht van goede concurrentie. De consument lijkt de grote winnaar.

[Reactie gewijzigd door SanneV op 2 april 2009 12:22]

Echter nVidia verpest wederom zijn reputatie weer.

AMD launch = je kan zien hoe snel hij is op de benchmark websites, en als hij je bevalt dan kan je hem NU kopen.

nVidia launch = je kan zien hoe snel hij is op de websites, maar je moet een maandje wachten voor je hem überhaupt kan kopen.

Dan kan AMD in 3-6 weken als de GTX275 daadwerkelijk dan in winkels te koop is wel met een paper-launch uitkomen van de R800 series videokaarten die over een paar maanden te koop zijn.

Het resultaat blijft echter dat de prijzen lekker onder druk staan. Zodra de nVidia kaarten daadwerkelijk op de markt zijn en AMD heeft de produktie opgeschroeft zodat er geen tekorten zijn, dan zullen zeer snel de MIR (Mail-In-Rebates) verschijnen om de prijzen te verlagen.

Ik persoonlijk adviseer om momenteel niet meer dan $150 voor een videokaart uit te geven (een HD4870 512MB kan dan nog net), omdat DirectX11 videokaarten over een korte tijd uitkomen. Nu bedoel ik niet te zeggen dat je dan in een 'vicious cycle' komt en dan blijft wachten tot je een ons weegt. Elke 12-18 maanden komt er namelijk een nieuwe platform versie uit, en zodra je daar ongeveer 3 maanden vanaf zit, dan is het gewoon slim om het af te wachten.

Als je echter toch elke 12-18 maanden een nieuwe kaart koopt, dan neem je gewoon de snelste die je budget kan kopen. Maar ik neem aan dat de meeste hier hopen het wat langer met hun videokaart uit te kunnen houden. Met een DirectX11 kaart zit je dan in ieder geval goed voor de komende 3 jaar (de normale tijd dat Microsoft een nieuw OS uitbrengt en/of een baanbrekende DirectX versie).
De laatste jaren waren de introductie van de AMD/ATI kaarten ook paper launches. NVidia heeft in dit geval een paper launch puur om ervoor te zorgen dan AMD/ATI niet alle aandacht krijgt vandaag. In die opzet zijn ze dan ook meer dan geslaagd, ook al is het "slechts" een paper launch.
Dat is waar, ATi was er niet vies van met paper launches, echter sinds het AMD/ATi is, is dat omgedraaid en zijn het allemaal hard launches.

Vanuit marketing technisch oogpunt verdient nVidia natuurlijk een schouderklopje. Deze zet zorgt er natuurlijk voor dat een groot gedeelte van de mensen die van plan waren om een nieuwe videokaart te kopen, twijfelen om voor een HD 4890 te gaan. En elke twijfel lijd eventueel tot uitstel, zodat nVidia dan ook daadwerkelijk met hun sneller/gelijkwaardig produkt kan uitkomen.

Echter ik bekijk het ook vanuit consument oogpunt en het is gewoon een slechte zaak dat nVidia nog steeds zichzelf verlaagt tot deze dubieuze praktijken.

De RV770 kwam als een zware verassing uit de hoek en nVidia heeft vele smerige truukjes uitgehaald om zichzelf te herstellen. Het onder druk zetten van Ubisoft om DirectX 10.1 ondersteuning uit Assassin Creed te halen bijvoorbeeld, omdat AMD kaarten er een zichtbaar voordeel mee konden halen.

Ik was vroeger een Intel+nVidia fanboy, maar nu ben ik gewoon neutraal en ga ik voor de beste prijs/prestatie verhouding.

Internet/Office/HTPC = AMD 4850e + AMD 780G
Game/HTPC = AMD Phenom II X3 720BE + AMD 790FX + AMD HD4870 1GB
Game/HTPC = Intel E5200 (op 3.3Ghz) + nVidia GeForce 9400 + AMD HD4870 1GB
HPC = Intel Core i7 + nVidia GTX295 (of HD4870 X2, hangt af of CUDA nodig is voor de applicatie)
Ik heb zelf toch liever Nvidia kaart , persoonlijk vind ik de kwaliteit beter en driver ondersteuningen stabieler
Zeg je dat nu als fanboy, of heb je daadwerkelijk Catalyst 9.3 uitgeprobeert op een HD4000 series videokaart op WinXP 32-bit, Vista 64-bit en Win7 64-bit?

Of het nu AMD of nVidia is maakt mij namelijk helemaal niks uit, ik ga namelijk voor de beste prijs/prestatie verhouding en op dit moment veegt AMD/ATi de vloer aan met nVidia op dat punt (of houden ze in ieder geval zwaar druk op de prijzen van nVidia).

Mijn eigen omschakel punt was enkele jaren terug, omdat Vista voor HTPCs ontzettend veel voordelen had, en ik maar niet kon begrijpen waarom ik zoveel BSODs en andere problemen had met de systemen die ik bouwde. Toen kreeg ik echter een opdracht van een vriend om een HTPC/Game-Console te bouwen voor $600 en ik kreeg het gewoon niet voor elkaar met een Intel+nVidia combinatie.

De AMD X2 4000+ CPU was ontzettend goedkoop in vergelijking met Intel en de onboard 690 chipset (x1250 Radeon IGP) was in staat om 1080p te decoderen. Voor Intel was er niks, en was je meteen verplicht om een PCI-Express videokaart te kopen, waardoor aankoopbedrag snel groeide. Er kwam toen nog wel een AMD x1250 chipset voor Intel, via een A-Bit Fatal1ty moederbord, maar die was een kort leven beschoren, en op dat moment kwam AMD uit met de 4050e 45Watt CPUs die zeer mooi waren voor HTPC systemen die de hele dag aanstaan.

Dus door budget druk was ik verplicht om een AMD systeem te bouwen, en het was toen nog Catalyst v7/v8, maar Vista draaide gigantisch stabiel. De 780G chipset maakte het helemaal mooi en op een gegeven moment was het meer dan 90% AMD CPU + AMD GPU systemen, tot nVidia met de GeForce 9300/9400 uitkwam. Op dit moment is het Gigabyte GeForce 9400 GA-E7AUM-DS2H moederbord met een E5200 overgeklokt van 2.5Ghz naar 3.3Ghz (QDR op 1066Mhz) mijn favoriet door de toegevoegde waarde, maar komt nog steeds een AMD videokaart in als er meer GPU geweld nodig is. De AMD Phenom II X3 720BE heeft ook een gigantische prijs/prestatie verhouding, zeker met de aankomende 880 chipset.

En tuurlijk zijn er specifieke situaties waarbij de nVidia een betere keuze is, er zijn "The Way It's Meant To Be Played" spelletjes die gewoon beter draaien op een nVidia videokaart en als je alleen dat spel speelt dan is de keuze vaak gemakkelijker. En nVidia heeft in de tussentijd de meeste Vista problemen opgelost, dus de stabiliteit is ook weer terug.

Ik heb daarom ook helemaal geen probleem om een GTX260+ of GTX285 systeem te bouwen, of zelfs een 9500GT ($37) voor de wat krappere beurs, echter zodra ik erachter kom dat ik met een vast budget zit, dan is de stap naar AMD snel gemaakt als meer prestatie verlangt wordt.

Je bent vrij om te kiezen wat je koopt, maar vergelijk het in ieder geval op een juiste manier en doe zelf onderzoek. Nu is dat voor mij een stuk gemakkelijker, ik kan namelijk testen wat ik persoonlijk het beste vindt op de kosten van iemand anders.
Prestaties zijn voor mij ondergeschikt aan de betrouwbaarheid van drivers en support. Ik heb een aantal systemen in mijn omgeving (mijn laptop, die van mijn broertje en 2 pc's van mijn pa) die allemaal gedonder hebben in meer of mindere mate met de videokaart drivers. Toevallig allemaal ati/amd, varieerend van een x1400 tot een 3870 en op XP en Vista. Met mijn nvidia kaart in mijn desktop heb ik werkelijk geen problemen (games en htpc usage). Mijn volgende kaart zal dan ook gewoon weer een nvidia zijn, daar weet ik tenminste zeker dat het kwa support goed is. Dan betaal ik daar graag een meerprijs voor.
Kent iemand het idle en max verbruik van de geforce kaart, dit vindt ik niet meteen weer en speelt voor mij toch een mogelijke factor bij mijn aankoop.
Een kleine vraag aan google had de volgende url opgeleverd.

Bij die vergelijking is het volgende te lezen:
In idle the GTX 275 reaches quiet 1.2 Sone. Due to the working 2D mode with noticeably lowered frequencies the power consumption is 34 watt. Although this result is comparatively low, it is just the level of the GTX 280 and not the one of the GTX 285 (27 watt).
en
Radeon HD 4890: The memory frequency is not lowered in 2D mode [Source: view picture gallery]
In idle mode the HD 4890 reaches 2.4 Sone. The power consumption is 60 watt (HD 4870/1G: 55 watt)

[Reactie gewijzigd door .je op 2 april 2009 12:35]

er staat in het artikel dat de kaart een TDP heeft van 190W en in Idle 60W verstookt

nvm: ben nog slaperig, dat was de ATI kaart

[Reactie gewijzigd door Sinester op 2 april 2009 12:33]

Jammer blijven de opmerkingen over CUDA/GPU playback, in driverheaven review. Gaan ze de CCCP gebruiken, die helemaal geen DXVA ondersteund.

En qua performance praten we nu over 5-10%? Waar de prijs tot zo'n 20-60 euro kan schelen, lijkt mij iets doorslaggevender dan die minimale winst. (of, als je GTA4 speelt, juist beter af bent met een ati).

Nu volg ik heel Nvidia niet echt meer, maar komen zijn ook nog steeds met OC versies uit? Meestal volgt er kort na introductie van nieuwe ati kaart ook de XXX en OC versies, die mogelijk 'standaard' weer beter presteren.
Van beide kaarten zullen oc varianten komen. ATI is hierin in dit geval wat sneller omdat de leveranciers de kaart al wat langer hebben, zo heeft XFX al een 4890 XXX die op 900Mhz loopt i.p.v. 850Mhz.
De GTX275 die nu in de reviews verschijnt is gewoon puur door Nvidia verstuurd (sample modellen wat wellicht ook verklaard dat er geen s-video op zit) en komen niet van toeleveranciers zoals Asus/XFX. We hebben dan ook nog niet één fabrikant gezien met een GTX275 voorzien van een print.

En trouwens, waarom bij GTA4 een ATI kaart:
- http://www.pcgameshardwar...-GTX-275/Reviews/?page=11
- http://www.driverheaven.n...php?reviewid=745&pageid=8
;)

Trouwens, Dunnet schijnt al wel een GTX275 op voorraad te hebben -> http://www.dunnet.nl/ProductDetails.aspx?en=NS00670151 (!?)
Vreemd dat ze er al één hebben waar zelfs al een andere koeler op zit...
Ik vind het jammer dat van de GTX275 geen stroomverbruik in het artikel staat. Dat zou voor mij een belangrijke overweging zijn.

Edit: Hier een vergelijking met de GTX260, GTX280 en de Radeon 4890 plus nog een paar kaarten, gemeten op het verbruik van het complete systeem.

http://www.tomshardware.c...orce-gtx-275,2266-14.html

Conclusie: under load is de GTX275 een stuk zuiniger. Idle zie ik de 60W uit het artikel verder nergens terug.

[Reactie gewijzigd door Luuk1983 op 2 april 2009 12:37]

Guru3D geeft cijfers waarbij op te merken valt dat de GTX275 zuiniger is in Idle, maar minder zuinig in Load: GTX275 en HD4890
HD4890:
System in IDLE = 223 Watt
System with GPU in FULL Stress = 370 Watt
GTX275:
System in IDLE = ~210 Watts
System with GPU in FULL Stress = ~396 Watts

[Reactie gewijzigd door IveGotARuddyGun op 2 april 2009 12:43]

Let wel dat de review van Guru3D spreekt over een compleet systeem met daarbij de grafische kaart.

De review van pcgameshardware.com geeft alleen het verbruik van de kaarten aan!
Tuurlijk, maar ze gebruiken voor beide systemen dezelfde hardware, dus we mogen er van uit gaan dat de verschillen volledig te danken zijn aan de geteste grafische kaarten.
Ook op deze site wordt een vergelijking gedaan.

Deze vergelijking is trouwens alleen tussen beide kaarten uit het nieuwsbericht, waarbij per kaart wel afzonderlijk het gebruik tijdens idle wordt aangegeven.
Ik vind niet dat Nvidia het feestje verpest, aangezien er nog een behoorlijk gat zit qua prijs tussen de twee...
maar waarom dan toch een paper launch 2 weken van te voren?

met een kaart waarvan ik gehoord heb dat er maar iets van 5000 beschikbaar zullen zijn in totaal.

[Reactie gewijzigd door Countess op 2 april 2009 12:44]

Heel simpel;

Nu krijgt nVidia enorm veel publiciteit voor hun nieuwe GTX275 kaart wanneer ze die 2 weken later uitbrachten deze veel minder in de picture ging staan;

Ten tweede en meest waarschijnlijk de hoofdreden om de 4890 de wind uit de zeilen te halen waarin ze heel goed geslaagd zijn. In enorm veel 4890 reviews wordt direct de vergelijking gemaakt met een ietsje betere nVidia kaart wat de nVidia merk naam geen kwaad doet, en de 4890 kaart toch minder gaat doen verkopen dan een hele reeks aan lovende reviews over een kaart waar nVidia geen waardig alternatief voor klaar staan heeft.

Door deze vergelijkende revieuws ga je zeker een aantal kopers hebben die overtuigd zijn geraakt dat ze toch de "betere" van de twee wille hebben.
Deze zullen dan idd nog twee weken smartelijk moeten wachten voor eventueel 1 van de 5000 kaarten te kunnen kopen of wanneer ze deze niet meer gaan kunnen vinden of niet meer willen/kunnen wachten, heb je nog kans ook dat deze dan de gtx285 gaan kopen omdat die dan in hun ogen "nog veel beter zal zijn , kijk maar naar de prijs.." Hoewel de GTX 285 eigenlijk maar marginaal beter is en zeker atm niet het prijsverschil waard is behalve als je echt voor de snelste kaart wil gaan.
je hebt gelijk over de strategie.
ATI positioneert zich netjes in het gaatje tussen 260 en 285, strategisch goed doordacht.
Maar het antwoord van Nvidia is echt voor het snapshotmoment: weinig toegevoegde waarde, (ze maken er dan ook maar een handje vol) maar wel meerijden op de media-golf.

Als je de vergelijkende reviews bekijkt kun je zeggen dat de gtx260 eigenlijk net zo'n goed alternatief is. De nieuwe Ati zit zowel qua prijs als prestatie nog steeds in het strategische (nu iets kleinere) gat.

die 275 is dan wel 8% sneller (als 260), maar ook zo'n 100 euro duurder.
Als ik een nieuw systeem bouw kan ik die 100 euro beter bij de cpu schuiven, dat levert aanmerkelijk meer op. (En als ik niet zo strikt naar het budget hoefde te kijken ging ik natuurlijk meteen naar de 285)
Om gelijk met de HD4890 gebenched te worden. Zo komen ze vaak beter uit de bus en geen er mensen wachten met hun aankoop zodat Ati de eerste weken minder verkoopt.

Als de GTX275 dan niet beschikbaar is hebben ze toch mooi Ati een schop kunnen geven...
dat zowel nvidia als ATI dat vroeger beide hebben gedaan praat nog niet goed dat Nvidia het nu nogmaals doet.
ze waren allebei namelijk erg goed bezig de laatste tijd op dit gebied...
ronduit jammer.

[Reactie gewijzigd door Countess op 3 april 2009 00:00]

Tussen de 230 en 270EU, dus dat weet je nog niet voordat het daadwerkelijk bij de webshops ligt ;) .
Tussen de 230 en 270EU, dus dat weet je nog niet voordat het daadwerkelijk bij de webshops ligt ;) .
De prijs staat op het moment op ¤249 en ze zijn al gearriveerd in europa.
Kwestie van afwachten op de officiele launch van Nvidia.
Maar aangezien er ook al drivers zijn opgedoken voor de gtx275 denk ik niet dat ze nog 2 weken gaan wachten.
Wel vreemd dat er bij de GTX275 geen s-video-uitgang meer is...

Op zich niet zo erg maar wel vreemd dat daarvoor dan geen endere uitgang voor in de plaats gekomen is zoals bv. HDMI... Kostenbesparing bij nVidia?

Vind de prestatieverschillen in eerste instantie wel meevallen, zeker omdat beide kaarten onderling toch belangrijk verschillen. Denk maar bv. aan de geheugenbandbreedte...

Uiteindelijk zal de prijs bepalend zijn en wellicht kunnen bij de volgende driver-updates de prestatiesverschillen nog wellicht wijzigingen!

[Reactie gewijzigd door Bardirella op 2 april 2009 12:53]

Hardware.info heeft ook een review van de 4890 en in het nederlands :+
Gek genoeg verliest de 4890 het daar in de meeste benchmarks van de 275, zelfs van de 260c216...
De GTX275 is niet eens in die test meegenomen, dus hoe kan die 'm verslaan? ;)
Ach ja en NVidia is alweer bezig met de volgende stap:
http://www.tweaktown.com/...on_single_card/index.html

ATI zegt dan wel dat ze geen 2 GPU's meer op een kaart te zetten, maar ik wil wel eens zien wat ze doen als deze uitkomt.
Psst... dat was een 1 april grap... En AMD/ATI heeft nooit gezegd dat ze geen 2 GPUs meer op een kaart gaan zetten... Ze hebben alleen gezegd dat het met de RV790 weinig zinvol is om een X2 te lanceren als partners hier geen brood in zien vanwege het hoge stroomverbruik en dure productiekosten. Mochten partners hier wel interesse in hebben, dan komt er gewoon een HD4890X2...

En medio zomer (!) staat de opvolger van de RV790 al weer gepland in de vorm van de HD5000 serie... en daar komt ook gewoon een X2 variant van uit....

[Reactie gewijzigd door CJ op 2 april 2009 15:20]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True