Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 92 reacties
Submitter: Martijn13

Website Techpowerup heeft een Geforce GTX280 in handen gekregen en heeft de videokaart aan verschillende benchmarks onderworpen. De GTX280 blijkt slechts in een enkele gamebenchmark nog een dual-gpu-kaart voor zich te moeten dulden.

De mensen van Techpowerup hebben de GTX280 en een aantal andere videokaarten in diverse games gebenchmarkt. De resultaten zijn door de site offline gehaald, maar oplettende gebruikers van het forum van Xtreme Systems hebben de resultaten opgeslagen en online geplaatst. De videokaarten werden in een systeem gezet dat was uitgerust met een op 3,6GHz geklokte Intel Core 2 Duo E8400, een Gigabyte P35C-DS3R en 2GB ddr2-1066. Als drivers voor de videokaarten zijn ATI Catalyst 8.5 en Nvidia Geforce 175.16 gebruikt, en dit alles draaide op Windows XP met Service Pack 2. Als benchmarks voor de kaarten werden onder meer Crysis, Unreal Tournament 3, Call of Duty 4 en Supreme Commander gebruikt.

De GTX280 wist in Crysis op een resolutie van 1600 bij 1200 pixels met 4xAA een framerate van 49,6fps neer te zetten. De Geforce 9800GX2 wist in dezelfde omstandigheden 41,5fps te behalen. Op een resolutie van 2048 bij 1536 pixels behaalden de kaarten in het spel een score van respectievelijk 33,7 en 10,3fps. In Call of Duty 4 moet de GTX280 zijn meerdere erkennen in de 9800GX2: bij resoluties van 1600x1200 en 2048x1536, steeds met 4xAA en 16xAF, behaalde de GTX280 respectievelijk 95,4 en 66,1fps, terwijl de 9800GX2 achtereenvolgens 99,4 en 74,3fps wist te produceren.

Jammer genoeg heeft Techpowerup de Geforce GTX280 niet in 3dMark06 getest. Hierdoor kan de videokaart niet direct naast de Radeon HD 4850 gelegd worden. Afgelopen donderdag verschenen de eerste benchmarks van de nieuwe high-end videokaart van ATI.

Update: Benchmarkscores van Crysis aangepast naar aanleiding van een fout in de benchmarkprocedure van de Techpowerup.

Benchmark Geforce GTX280 in Crysis
Moderatie-faq Wijzig weergave

Reacties (92)

Ik vind al die gekte sterk overdreven. Hiervoor heb ik mijn redenen.

Ten eerste zie je op alle sites elk uur nieuws verschijnen over de nieuwe benchmarks en screenshots van de GTX280,GTX260 en de HD4850,4870.... ook zie je overal prijzen verschijnen, maar het ergste is dat de verschillende sites elkaar tegenspreken. Op sommige sites (zoals deze) staat dat de GTX280 ver de dual-gpu kaarten verslaat, op andere sites zie je dat het nauwelijks beter is dan de 9800GTX. Dus ik weet niet hoe betrouwbaar het is om zich op deze benchmarks te baseren.

Trouwens, de drivers zijn nog eens niet klaar, dus de benchmarks die nu komen zullen verre van goed zijn, dus als er betrouwbare benchmarks komen, doe er maar een beetje bij, de drivers zullen veranderen en de ondersteuning ook, waardoor het beter zou werken.

Ten tweede zie je ook de prijzen, je ziet het altijd,... in die winkel is de GTX280,260 of HD4850,4870 opgedoken met specificaties, en de prijs. Maar vaak zag ik ook dat deze zeer sterk uit elkaar gaan. Bv. de GTX280 krijgt een adviesprijs van 399$ mee en je ziet overal dat het in pre-order staat met een prijs van 600§ tot 1000$. Dit is dus ook niet betrouwbaar, ik vind dat als de fabrikant een richtprijs meegegeven heeft, dat de mensen er niet om moeten speculeren, het is zo en laat het ook zo!

Ten derde zijn er veel roddels over specificaties. Overal zie je nieuws over hoeveel shaders, geheugen,... er is op die kaart, maar niks is onderbouwd. Er zijn gewoon eens geruchten en iedereen gaat erop af. Het beste voorbeeld is de HD4870, eergisteren was er bekend geworden dat er 420 Stream Processors waren, vandaag komt er nieuws dat er 800 zijn. Dit is geen klein verschilletje.

Conclusie: Ik snap dat de mensen zo nieuwsgierig zijn, maar daarom hebben ze ook zo'n release-datum, ze willen dat mensen nieuwsgierig zijn, maar ga gewoon niet op in elke roddel, je weet niet of het wel klopt. Al deze media-gekte zou eindelijk bijna gedaan zijn en dan zien we wel hoe het uitkomt. Controleer eens de plausibiliteit, ik persoonlijk vind dat bij deze benchmarks het verre van juiste gegevens zijn, aangezien zoals in de vorige reacties te lezen valt dat de resultaten voor andere kaarten nog eens niet kloppen!

[Reactie gewijzigd door Dima_2005 op 14 juni 2008 18:45]

Als die gekte je niets zegt, doe er dan niet aan mee.

Iedereen weet dat dit geruchten zijn maar veel tweakers wachten gespannen op geruchten van hun volgende 3d kaart daarom krijgt dit veel aandacht.

Je post is nogal zinloos, geruchten zijn geruchten, misschien moet je je direct naar de tweakers.net redactie richten en hen vragen om geruchten niet meer te posten. Aan de andere kant, niemand verplicht je om dit nieuws te lezen. Als het je niets zegt kan je het misschien beter links laten liggen dat een hoop semi-intelligente opmerkingen te maken die geheel offtopic zijn.

//edit:
Als het echt stoort, meld dat hier: Geachte Redactie

[Reactie gewijzigd door oeLangOetan op 15 juni 2008 00:11]

Oh, dus we mogen volgens jou geen kritiek leveren over mis-informatie als we het tegenkomen? Lekker is dat.

Ik had (misschien gek genoeg?) altijd nog het idee dat wat op Tweakers stond, redelijk aanneembaar te vertrouwen was. Natuurlijk houd je altijd een slag om de arm - zeker als het niet in-house getest is - maar toch..
Als je het echter zo stelt, kunnen we net zo goed met z''n allen naar The Inquirer overstappen en de tent sluiten, want daar weten we toch wel van dat ze er een handje van hebben om geruchten als waarheid te vertonen. "Want iedereen weet toch wel dat het geruchten zijn".
Nee, niet iedereen 'weet' dat en zo zou je ook niet moeten denken.

Het is, lijkt mij, aan de redactie om zelf goed uit te kijken of iets te vertrouwen is, en als het blijkt dat er toch fouten zijn gemaakt, op z'n minst even een "Update: .." te geven (wat hier vaak genoeg gedaan is).

Als er werkelijk zulke hooggespannen verwachtingen waren over de kaart, had ik persoonlijk eigenlijk wel verwacht dat ook de redactie hier meer over zou weten en dan had gezien dat er dingen niet klopten. Nu krijg je alleen maar het ideedat er klakkeloos nieuws wordt overgenomen, wat niemand ten goede komt.
Die post is alles behalve zinloos. Vooral het gedeelte waarin de betrouwbaarheid wordt aangehaald aangezien de drivers beta zijn is zeer terecht. Schudde mij even goed wakker zo rond 6 ;) Dat iemand er misschien voor kiest niets uit zijn reactie hieruit te halen is diens keuze. Ik in dit geval wel. Verder hou ik dan ook niet van non informatie ;)
Nou zo vreemd vind ik die gekte anders helemaal niet, het is een heel normaal verschijnsel dat dit soort dingen gebeuren. Men is gewoon enthousiast en wil graag meer weten. Wie houd ze tegen? En omdat elke site het liefst zo snel mogelijk ZELF met nieuws naar buiten komt is de kans ook groot dat er onzin bij zit. In den beginne moet je alles even met een korrel zout nemen. Maar je kunt ook alles tegen elkaar afwegen en je hebt een redelijke indicatie van wat het gaat worden. Je moet niet alles gelijk zo zwaar laten wegen. Laat het aan je voorbij gaan. Jou reactie komt duidelijk voort uit een vorm van irritatie. Van waar komt dat gevoel denk je? Laat iedereen toch gewoon onzinnig doen, tis net als de roddelpers. Smakelijk nieuws, maar er valt niet over de discusseren want de waarheid weten we simpelweg niet. Ik heb daar niet zoveel moeite mee omdat het een duidelijk onvoorkomelijk verschijnsel is. Doe er mee wat je er zelf mee wil doen, maar dwing andere mensen niet om net zo te doen als jou, of iedereen maar stom te vinden omdat ze er anders mee omgaan. Jouw persoonlijkheid wordt toch niet geschaad? Ieder persoon met een beetje logisch verstand vertrouwt niet 100% op nieuws als dit. Dat het misschien irritant is om veel onzorgvuldige nieuwsitems te lezen waar je niet veel aan lijkt te hebben kan ik best begrijpen, maar er is ook niets ergs aan. Het enige wat erg kan zijn is dat je nu nog niet zeker weet hoe de vork in de steel zit en dat er nog langer gewacht moet worden op juiste informatie. Een persoonlijke kwelling die helemaal niets van doen heeft met dit nieuws. Ga dus vooral bij jezelf te rade. Het zijn niet dit soort nieuwsitems die je dwarszitten, maar jezelf.

Overigens zou ik het ontzettend idioot vinden als deze kaart de GX2 niet kan verslaan in COD4. Dat betekent eigenlijk dat mijn 8800GT SLI OOK sneller is en er dus eigenlijk totaal geen reden is om de nieuwe telg aan te schaffen. Dit kan simpelweg niet waar zijn. Ik verwacht dat de GTX280 elke mogelijk dual setup moet kunnen verslaan, en met ruim 50% het liefst. Iets waar de 8xxx serie zich wel redelijk aan hield ten opzichte van de 7xxx serie. De verschillen tussen deze generatie zijn gigantisch. Wat op een 7 serie kaart al nauwelijks meer te spelen was op lage reso en medium details veranderde in hoogste resoluties met hoogste instellingen + AA om vervolgens nogsteeds beter te presteren dan de 7 serie op lage reso en med settings! In kracht uitgedrukt is de 8 serie minstens 3x tot 5x zo snel. Ik hou er niet zo van als een kaart maar 110% presteert t.o.v zijn voorganger. Ik wil verschillen zien oplopen tot boven de 200%.

Crysis is overigens echt ene ruk benchmark. Ik heb nog nooit zoveel verschillende scores en shit gehoord. Volgens mij zit men overal vreemde truuks uit te halen om het spel beter te laten presteren met als gevolg een dwaze mengeling van scores waar geen touw aan vast te knopen valt. No way dat je met 4X AA en die resoluties zulke scores kan halen. Maar dit mag ook wel duidelijk zijn, want iedereen staat al gelijk op zijn achterste poten na het zien van deze benchmark resultaten ;)

imho blijf ik dit wel smakelijk nieuws vinden, of het nou waar is of niet. Ik ga de discussie ook niet aan. Ik laat het gewoon allemaal op me inwerken en zie de uiteindelijke "betrouwbare" benchmarks wel verschijnen. Voor duidelijkheid hoef je alleen maar te wachten. Zolang de kaart hier toch nog niet te krijgen valt kan je je ook niet een miskoop begaan. Het enige wat rest is wachten. Maar dat laatste is voor sommige mensen wel heel erg moeilijk.

[Reactie gewijzigd door BruT@LysT op 15 juni 2008 14:19]

vooralsnog is het gewoon afwachten op echte benchmarks van onafhankelijke bronnen. die pre release benches vind ik persoonlijk vaak niet echt overeenkomen met de werkelijkheid.
en voor mensen die nu een 3870 in cf hebben, zijn al een heel eind naar top prestaties, hoewel dat natuurlijk relatief is. Deze lat wordt steeds hoger gelegd en het ligt maar puur aan wat je wil doen met je pc dat de keuze van je kaart bepaald.
Wil je relext een filmpje kijken, simpele (internet) games spelen, en verder niet veel visueel zware programma's dan kan je dit met een 8500gt al prima doen.
wil je goed kunnen gamen voor de meeste games, dan is een kaart vergelijkbaar met de 8800gt/3870 prima en kan je bijna alles op high draaien.
Wil je top of the line en het beste van het beste dan kijk je naar de high end kaarten of CF/SLI oplossingen. (persoonlijk ben ik geen voorstander van de laatste, gezien de kosten en vaak de gedateerde kaarten waar het enigzins mee uitkan.)
Het is dus je moment kiezen, heb ik persť een goede kaart nodig of kan ik ook prima aan met degene die er nu in zit.
Ik heb een lijstje gevonden met test resultaten maar of deze echt zijn is nog de vraag!?!
Hoe dan ook de rsultaten mogen er zijn. Dan loont het om mijn xfx8800 ultra xxx in sli te vervangen want dan stelt dat ook niet veel meer voor. Alhoewel, de spellen van vandaag zijn nog steeds goed te spelen met de 8800GTXen en Ultra's...

http://forums.gametrailers.com/showthread.php?p=11366112
Inmiddels zijn op XS ook de benchmarks verwijderd, op verzoek van W1zzard van techpowerup. De link in het artikel is dus dood, meer hier.
Gelukkig had ik alle plaatjes opgeslagen, en zijn ze hier op GoT nog steeds te zien. :)

http://gathering.tweakers...message/30244213#30244213
hmm ziet ernaar uit dat de ati kaarten weer een directe concurrent hebben zoniet een kaart die ze wederom de baas is :( wel jammer ik had het gevoel dat eindeijk de 4xxx serie ati weer in het zadel zou helpen.
Maar goed, beta drivers, prerelease benchmarks, het is nog even afwachten wat ze precies aankunnen.
Het beloofd iig wel een krachtpatser te worden.
NV heeft meer te vrezen dan jij denkt. De markt voor 400 tot 550 euro videokaarten is gewoon aanzienlijk kleiner dan de markt voor 100 tot 250 euro videokaarten. De GTX 280 mag dan wel de beste prestaties neerzetten, maar daar betalen ze ook een prijs voor. De productiekosten van de gigantische GT200 chip en de 512-bits geheugenbus (duur PCB) zijn dusdanig hoog dat NV de prijzen niet zo heel ver kan gaan verlagen.

De HD4850 haalt al best goede scores (P6000 in 3DM vantage) en doet dat voor een bedrag van 170 euro. Als je dus ietsje meer geld uitgeeft voor een goed crossfire bord zoals de P45/X38/X48 of de 790FX van AMD, dan kun je met twee HD4850's veel betere prestaties halen dan met een enkele GTX 280. Je bent dan ook nog eens een dikke 150 euro goedkoper uit en het stroomverbruik onder full load zal ongeveer gelijk zijn.

De HD4850 maakt gehakt van alle G92 kaarten van NV, dus in het middensegment kan AMD de komende tijd gaan domineren met goedkope kaarten die structureel hoger scoren dan de 9800GTX en lager. De G92 zal naar het lagere segment gedrukt worden, waardoor NV ook niet veel aan die kaarten zal verdienen. Dan komt er nog wel een 55nm G92, maar die zal echt niet opeens 30% sneller zijn zodat ze de RV770 bij kunnen houden.

NV heeft zichzelf op het eiland van de high-end markt geplaatst, en ik vraag me af of daar wel het meeste te verdienen valt zo.

[Reactie gewijzigd door frankknopers op 14 juni 2008 15:39]

Een high-end kaart nu is een medium end kaart morgen en low-end kaart overmorgen. Heb je geen high-end kaart vandaag, heb je dus geen low-end kaart overmorgen en kun je wel inpakken. NV is dus strategisch bezig, of ik zou moeten zeggen: AMD is suicidal bezig als ze geen high-end kaarten zeerzetten.
High end van ATi is de HD 4870X2, gepland voor augustus. Deze zou als 't goed is sneller worden dan de GTX 280.

En hoezo suicidal? Het merendeel van de winst zit echt niet in het 400+§ segment. Dat viel goed te zien met de HD 3870 en vooral 8800GT. High-end prestaties voor minder dan 200§, en plots had iedereen zo'n kaart zitten.

Een high-end kaart kopen voor toekomstgerichtheid (zoals ik denk dat je bedoelt?) is trouwens zowat 't slechtste idee mogelijk. Met uitzondering van de 8800GTX is iedere topkaart in de geschiedenis al na een half jaar voorbijgestreefd door een nieuw model. De waarde van de topkaarten gaat relatief veel sneller achteruit dan goedkopere varianten.
De 8800GTX is na 6 maanden voorbijgestreefd door de 8800Ultra, maar dat was een marginaal verschil, voor een..redelijk prijsverschil ( dus qua Prijs/Performance..won de 8800GTX)
Zei ik toch? Met uitzondering van de 8800GTX ;)
Het merendeel van de winst zit echt niet in het 400+§ segment.
Hoe weet je dat .. ? Er zijn genoeg gamefreaks op dit aardbol die zulke dure kaarten halen hoor. Laten we het relatief bekijken dmv een voorbeeld;

Als er 100 mensen zijn die een kaart van 150,- kopen, kom je uit op 15000,-
Als er 50 mensen zijn die een kaart van 450,- kopen, kom je uit op 22500,-

Genoeg winst voor Nvidia wederom. Als zulke dure kaarten niet goed zouden verkopen en hun alleen maar verlies zouden lijden, denk je nou echt dat ze dan niet allang waren gestopt ?!
dat is omzet, geen winst, dat is toch wel een groot verschil.

Als je 10§ winst maakt op de 150 kaart en 10§ winst op de 450 kaart

heb je 1000§ vs 500§

Je moet toch iets verder nadenken dan je neus lang is...
een high-end kaart nu is geen mid range kaart morgen want daar ze ze veel te duur voor om te maken. daar zijn de chips gewoon te groot voor. het enige wat er gebeurt is dat winkels tegen die tijd snel van hun oude voorraad oude-high-end kaarten af willen omdat ze heel snel veel minder waard gaan worden.
daar gaat nvidia echt niet veel aan verdienen.
de nieuwe midrange kaarten zijn kaarten met vergelijkbare specs in vergelijking met de oude high-end maar met een die-shrink en een geupdate architectuur (gelijk aan de nieuwe high end)
gewoon een hele nieuwe chip dus.
Ik als ATI Fanboy zeg eerlijk, Nvidia is beter. Maar om nou een kaart die waarschijnlijk 450+ euro gaat kosten te vergelijken met eentje die 200+/- gaat kosten...

Het blijft gewoon zoals het al een tijdje is. Prestatie? Nvidia is je vriend. Prijs/prestatie verhouding? Dan is ATI je vriend.
Het blijft gewoon zoals het al een tijdje is. Prestatie? Nvidia is je vriend. Prijs/prestatie verhouding? Dan is ATI je vriend.
Dat vind ik echt iets te kort door de bocht hoor. Ja, ATI heeft zeker goede prijs/prestatie verhoudingen, maar NVIDIA heeft daar weer een aantal topkaarten tegenover staan in het mid-range segment. De 9600GT en 8800GT bieden heel veel waar voor hun geld.

Overigens kunnen de 4850 en 4870, mits goed geprijsd, hier wel eens heel wat verandering in kunnen brengen...
De 4850 en de 4870 zijn ook sub high-end. die meer de G92B en de GT260 op de korrel nemen maar eerder ergen tussen in vallen kwa Prijs performance.
ATI zet de R700 (dual RV670) tegen GT200( B ) GT280 reeks.

Als aTI iets innovatiefs heeft gedaan.
Waardoor R700 als single chip gedraag.
De cF nukken wegvallen.
Shared memory over beide GPU cores

IS dat ook iets anders en niet direct evrgelijkbaar met even twee HD4870 in CF te zetten.

Cod4MW is een van de weinig games die goed met CF en sLI schaal tot quad GPU's.

R700 zou dit probleem mogelijk niet hebben

En mogelijk komt de weg vrij om vier R700 in quad SLI te proppen.

Ik ben zeer benieuwed.

[Reactie gewijzigd door SG op 14 juni 2008 17:15]

het schijnt wel dat de x2 op een andere manier zijn 2 cores aanstuurt waardoor ze veel beter schalen dan de oude x2's
dus richting de 70 - 80% meer performance..
echter hoeveel daarvan waar is en hoeveel die kaart gaat kosten is natuurlijk de vraag
Volledig mee eens ;)
Dan kunnen Nvidia fanboys zeggen dat het niet zo is maar het is echt zo, daar is echt geen speld tussen te krijgen.

de 3850 was niet voor niets de beste koop van 2007 ;)
waarschijnlijk zal de 4850 dit gaan overnemen.
voor ATI's antwoord op deze kaart moet je even wachten tot ergens augustus als de hd4870x2 uit komt.
of je neemt gewoon 2 hd4870's in crossfire. prijs is vergelijkbaar met de gtx280. prestaties zal afhangen van het spel maar zou gemiddeld sneller moeten zijn.

[Reactie gewijzigd door Countess op 14 juni 2008 16:37]

Vergis je daar niet in, de interne CF-bridge voor de 4870X2 word helemaal overhoop gegooit. ATI was er met de 3870X2 niet tevreden mee. Maar ze doen dit alleen met de interne bridge, de externe bridge blijft hetzelfde. Met dus de zelfde ontevredenheden als de interne 3870X2 bridge.
Waarom presteren de 9600GT en 8800GT steeds beter dan de HD3870X2 in dat lijstje?
Omdat het Crysis is. Daar is ATi gewoon (veel) langzamer mee dan nvidia, Crysis is vanaf het begin een TWIMTBP titel, op nVidia kaarten ontwikkeld.
http://www.hardocp.com/article.html?art=MTQ4MCwzLCwyMA==

toch echt niet zo veel sneller als hier word beweert.

lagere settings (meeste medium) en geen AA en FA en de zelfde zelfde resoluties als hier haalt de 8800GTX nog geen 30FPS terwijl hier met AA en FA en alles op max (onder xp) 37FPS beweerd word.
en de 3870x2 scoorde ongeveer gelijk met gelijke settings in dx9 en niet ineens 30% langzamer zoals hier staat.

als ze hier niet eens hun referentie benchmarks goed kunnen doen heb ik ook niet echt veel vertrouwen in de resultaten van de gtx280 eigenlijk. of in het bestand van een bijna 20% hoger geclocked versie van zo'n grote chip nog voor de launch (die ook maar 10% meer verbruikt)!

edit : lees het artikel, het begin staat uitgelegd wat ze hebben gebruikt :
c2d 2.9ghz 2gb ddr2-1142mhz 5-5-5 geheugen.
niet echt een bottlenek dus. zeker niet omdat crysis niet erg cpu afhankelijk is.
en als dat de reden voor het verschil zou zijn dan had je (bijna) geen verschil hoeven zien tussen de gebruikte settings op verschillende resoluties.
het enige wat ik zie is dat ze vista 64bit gebruikt hebben. maar crytek zelf zegt dat dat 10 tot 15% sneller zou zijn.(en er zijn benchmarks te vinden die die claim onderstuenen)

en blijkbaar heeft die maker van bovenstaande benchmarks nu gezegt dat crysis op 1280x1024 is getest. maar dan klopt het nog steeds niet. zeker niet voor de 8800GTX.

[Reactie gewijzigd door Countess op 15 juni 2008 12:10]

Is er dan geen andere bottleneck zoals de processor of het geheugen of iets dergelijks?
Volgens mij komt het meer doordat SLI en crossfire maar minimle verbetering leveren bij Crysis. De GX2 lijkt hierop echter een uitzondering te vormen.

[Reactie gewijzigd door knirfie244 op 15 juni 2008 11:24]

Waarom presteren de 9600GT en 8800GT steeds beter dan de HD3870X2 in dat lijstje?
Omdat het gaat om een test met 4xAA en 16xAF AAN
Nou dat denk ik niet. COD4 is een van de tests waat de X2 het heel goed doet. Echter is hij hier net iets sneller dan een Single HD3870. Ik denk dat er hiet iets anders aan de hand is. Maar de HD3x serie is niet geweldig met AA. Hopelijk is dit bij de nieuwe HD4x serie een stuk beter.

De Hd3x serie heeft wel snellere 8x + aa maar dat gebruiken niet veel mensen.
Jammer genoeg heeft Techpowerup de Geforce GTX280 niet in 3dMark06 getest. Hierdoor kan de videokaart niet direct naast de Radeon HD 4850 gelegd worden. Afgelopen donderdag verschenen de eerste benchmarks van de nieuwe high-end videokaart van ATI.
jah laten we een kaart van §600 gaan vergelijken met een kaart die §170 zal kosten
Prijs zegt niks over de prestaties van de kaart, laat staan voor welk segment ATI en NVidia de kaarten gemaakt hebben. De 4870 is de high-end van ATI, terwijl de GTX280 de high-end is van NVidia. Niet zo vreem dat ze dan tegenover elkaar worden gezet.
Ok, maar als je dan toch 500 euro te besteden hebt neem dan meteen drie HD4850's mee in Crossfire. Ben benieuwd of die even dure GTX 280 dan nog steeds wint :P
de 4850 is geen high end kaart hoor van de 4870 zijn nog geen benchmarks ;)
de 4870 wordt niet in het artikel genoemd, maar de 4850, en dat is een midrange kaart van ati, zeker geen high-end, dat zal de 4870x2 worden....het is dus zeer zeker een vreemde vergelijking
Maar het is atm wel de beste ATI
ja maar je kan voor het geld van de gtx280 makkelijk 2 hd4870's halen.
of 2 hd4850's en een nieuwe moederbord als je dat nodig hebt.
correctie de 4870X2 is het high end model van ATi en zal tegen de GTX 280 worden gezet
Er is met nog geen woord gesproken over een 4870X2.
Alleen geruchten.
Momenteel is er alleen gesproken over de hd4850, dus momenteel is de 4850 de high end van ATI.

[Reactie gewijzigd door kaluro2 op 16 juni 2008 09:11]

dat is wel een erge droog redenatie kaluro2.
AMD zet deze kaarten helemaal niet in de markt als nieuwe high-end, en daar is de prijs ook naar. en aangezien het verbruik het makkelijk toe laat is een 4850x2 dan wel 4870x2 bijna een zekerheid.
en er zijn al foto's van de hf4870x2's koeler te vinden.

[Reactie gewijzigd door Countess op 16 juni 2008 11:58]

Misschien er ook bij vermelden dat de test is uitgevoerd met xp sp2 dus kan je concluderen dat crysis in dx9 mode draaide. Wat de hoge scores kan verklaren.
Nogal een gekleurd verhaal Amigawolf, bijna geen informatie over de rest van het systeem etc. kortom het zegt niks.

Ik heb een 3870 HD, core2 duo 1.8 gig met 2gig intern geheugen en bij mij draaien spellen ook soepeler dan op de pc van een maat met een duo op 3 gig, evenveel geheugen en een 8800gtx. Gebaseerd op die resultaten zou je zeggen dat ik dus de betere hardware heb. Niks van waar natuurlijk, hij heeft gewoon zoveel crap op zijn pc dat het ding van ellende bijna vastloopt, een keer herinstaleren en opgelost.

Je emperische bewering is dus weinig waard, tenzij je het ondersteund met feiten, argumenten of een verklaring.
OK nog duidelijker voor jou.

Heb Vista voor het laats 5 maanden trug geinstaleert.

Mijn Spects: Asus P5N-D, Core 2 Quad Q6600 3.0GHz, 2 Geforce 8800GT in SLI niet OC, G.Skill 4096MB Ram 800MHz DDR2, Vista X64.

ForceWare 175.16 WHQL.

Crysis 1.2 Alles op VeryHigh, 1600x1200, X64, DX10, geen aa of af.

Min:14
Ave:28
Max:32

Nu mijn neef zijn nieuwe Computer net 1 maand trug windows geinstaleert.

Spects: Asus Maximus Formula, Core 2 Quad Q6600 3.2GHz, Ati 3870X2, 4096MB Ram 1066MHz DDR2, Vista X64.

ATI Catalyst 8.4

Crysis 1.2 Alles op VeryHigh, 1600x1200, X64, DX10, geen aa of af.

Min:2
Ave:17
Max:24


Zo duidelijk.

En anders stuur ik je tog de bewijsen op als je het niet gelooft, via e-mail of zo.

[Reactie gewijzigd door AmigaWolf op 16 juni 2008 00:01]

Ben je zeker dat de omstandigheden voor beide setups optimaal was? Want een minimum aan ftps van 2 lijkt mij nogal stug tegenover jouw minimum van 14.
Ik kan er niks aan doen hij heeft het wel 10x getest.

Tus ja het klopt.
sorry maar bijna 10% verschil tussen 2 gtx280's lijkt me heel sterk.
tenzij ze de core naar 680mhz hebben kunnen krijgen zie ik het nog niet gebeuren.

edit : dat vind ik wel een erg grote overclock, zo snel, en voor zo'n grote chip. ik neem het met een flinke korrel zout iniedergeval.
edit 2 : 20% hogere clock nog voor launch, en maar 10% hoger verbruik dus. denk het ook...

[Reactie gewijzigd door Countess op 14 juni 2008 17:09]

de Zotac kaart draait op 715/1150/1430 tegenover 600/1100/1300(Point of View)
Volgens het forum :)

Verder scoort de 3870 echt knap beroerd ivm de 8800gt. Ik dacht dat die aan elkaar gewaagd waren? Hier scoort ie telkens wel 10-100% slechter!

[Reactie gewijzigd door DaOverclocker op 14 juni 2008 15:42]

Ik vind het anders nog knap apart dat iedereen de 3870 omhoog prijst, ik heb twee 3870's en twee 8800GT's uitvoerig getest. En het verschil met de nVidia is inderdaad vrij groot. Maar misschien niet als er alleen naar 3dmark gekeken wordt. Ik vond de ATi's ronduit waardeloos eigenlijk. Samen (in crossfire) zijn ze no een redelijk paar omdat het goed schaalt, maar een enkele kaart is echt wel veel trager dan een 8800GT. Maar twee 3870's zitten dichter in de buurt van twee 8800GT's omdat de ATi's net iets beter schalen dan de 8800GT's, maar ook dat maakt ze niet gelijk beter, want alsnog is in allround games die ik getest heb goed te merken dat de nVidia kaartjes net even wat beter presteren. Met name minder last van rare framedrops etc. Dingen die in een benchmark niet eens naar voren hoeven komen maar alleen goed te merken zijn als je er echt mee gaat gamen. En dat is toch wel het meest belangrijke van allemaal nietwaar? Ik denk dat er tegenwoordig teveel mensen zijn die van synthetische scores uitgaan, zelfs een hogere score wil niet altijd gelijk zeggen dat de kaart overal goed in is, en in de praktijk kunnen er nog wel meer dingen tegenvallen. Persoonlijk vond ik de 3870's behoorlijke rommel en ben blij dat ik er vanaf ben.
Klopt wel volgens mij. De Zotac AMP! versie heeft een coreclock van 700 MHz heb ik gelezen.
AMP is toch de naam van overgeclockte kaarten..bij Zotac?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True