Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 224 reacties

Er zijn een drietal benchmarks opgedoken waarin de GTX 360 en de GTX 380 worden vergeleken met ATI's huidige kaarten en Nvidia's oude videokaarten. De slides zouden afkomstig zijn van Nvidia, maar de echtheid ervan is niet te verifiŽren.

Nvidia gaat in 2010 een reeks nieuwe videokaarten uitbrengen die gestoeld zijn op de Fermi-architectuur. De eerste twee videokaarten zouden de naam GTX 360 en GTX 380 dragen en moeten het opnemen tegen de high-end videokaarten van ATI. De benchmarks die op het forum van Guru3D geplaatst werden, laten een beeld zien waarbij de GTX 380 sneller is dan ATI's dual-gpu videokaart, de HD 5970. De GTX 360 zou iets langzamer zijn de HD 5970, maar ten opzichte van de HD 5870 is de GTX 360 weer een stuk sneller.

Gezien de stijl van de grafieken zouden de benchmarks afkomstig kunnen zijn van Nvidia, maar het is evengoed mogelijk dat de benchmarks niet authentiek zijn. Nvidia wil uiteraard geen commentaar op de screenshots geven, maar de indrukwekkende cijfers komen, zo vlak voor de kerst, Nvidia niet slecht uit. Waarschijnlijk zal de gpu-fabrikant pas tijdens de CES, die begin januari plaatsvindt, de eerste officiële testresultaten vrijgeven.

-Update:  Verschillende leden van Nvidia's 'focus-group' hebben aangegeven dat de slides niet van Nvidia afkomstig zijn.

GTX 380 & GTX 360 benchmarks GTX 380 & GTX 360 benchmarks GTX 380 & GTX 360 benchmarks
Moderatie-faq Wijzig weergave

Reacties (224)

1 2 3 ... 8
Misschien is het handig om voor de volledigheid even de juiste Guru3D nieuwspost te laten zien:

http://www.guru3d.com/new...x-360-and-380-benchmarks/
hmmm... op een of andere manier geloof ik er niet zoveel van. Drivers zullen niet final zijn. De kaarten zouden pas net weer van de TSMC persen moeten komen.
Maar nVidia heeft er erg veel baat bij als mensen met de feestdagen toch even wachten met het kopen van een nieuwe kaart. Maar gaat toch nog wel even dure voor we nVidia weer in de winkel zien met een nieuw product.

Daarnaast zouden ze zich heeeeeel diep moeten schamen als het niet sneller is dan AMD. Ze hebben nu weer ruim 6 maanden meer ontwikkelingstijd gehad. Geloof maar dat AMD intussen ook weer niet stil heeft gezeten.

Dan is er nog het feit dat Fermi gespecialiseerd is voor GPcomputing. Er zit in de core dus een hoop onzin die voor gamers totaal oninterressant is. Dat zou de prijs wel eens onnodig op kunnen drijven, of het energieverbruik (en dus warmteopbrengst) omhoog brengen.

Ik zeg, concurrentie is altijd goed, maar breng eerst de kaart maar eens uit. Dan zullen we hem beoordelen :).


Ik moet mezelf hier even aanvullen...
Misschien dat mensen dit meegekregen hebben. Op DX10 in Resident Evil 5 is de performance van ATI kaarten drastisch lager dan op DX9. Het is onbekend waarom dit is. Maar een mooi voorbeeld: http://www.tomshardware.c...ctx_10_performance&xtcr=2.
Even goed lezen, vooral de updates.

Alleen al om dit kleine feitje durf ik te beweren dat de benchmarks compleet nep zijn!!

(edit: ik bedacht me opeens het probleem met Resident Evil 5)

[Reactie gewijzigd door DizzyMan25 op 14 december 2009 14:50]

Als dit waar is, en ze niet de hoofdprijs vragen voor een GTX380 dan weet ik welke kaart ik ga kopen. Toch denk ik dat het hoofdprijs gedeelte een probleem gaat worden. ALS dit al waar is.
Zoals reeds gezegd heeft ATi tegen die tijd ook weer nieuwe kaarten klaar liggen waar deze Nvidia kaarten tegen moet concurreren.

Wat ik persoonlijk blangrijk vindt: Heeft Nvidia hun produktieproces nu eens op orde of blijven we kaarten/GPU's houden die vroeg tijdig het loodje leggen? Zoals het G84, G86 en G92 debakel, maar ook de 8800 serie vallen op het moment bij bosjes neer.

Nvidia mag eerst weer gaan bewijzen dat zij ook een kwalitatief goed produkt op de markt kunnen zetten voordat ik persoonlijk of zakelijk mij weer met hun grafische kaarten in zee laat. Gelukkig bied AMD/ATi heel goede alternatieven, ook op het gebiedvan Linux gaat het in het rode kamp steeds beter, nog even en daar heb je Nvidia ook niet meer voor nodig.
Zoals reeds gezegd heeft ATi tegen die tijd ook weer nieuwe kaarten klaar liggen waar deze Nvidia kaarten tegen moet concurreren.
Oh ja, welke kaarten dan? Of bedoel je de Northern Islands serie die eind 2010 begin 2011 uitkomt? :+
[...]

Oh ja, welke kaarten dan? Of bedoel je de Northern Islands serie die eind 2010 begin 2011 uitkomt? :+
Nee de refresh van de 5870 lieve schat :z
En waar precies is die officieel aangekondigd? Want het is zooooooo logisch dat er een refresh komt want? ;)
Want dat gebeurt altijd.

G80 -> G92
RV770 -> RV790
GT200 -> GT200b

De R&D van AMD zit nu echt niet een half jaar lang feest te vieren. :D

[Reactie gewijzigd door bwerg op 15 december 2009 01:17]

G80 -> G92
G92 kwam meer dan een jaar na G80 en was een nieuw ontwerp, geen simpele refresh van G80. Er zitten veel te veel architecturele veranderingen in.
Als je dit als voorbeeld geeft duurt het nog minstens een jaar voor de refresh uit komt.
RV770 -> RV790
Toevallig mogelijk omdat RV770 qua clocks niet goed hoger kon vanwege een aantal bottlenecks in het ontwerp. Het was toevallig erg makkelijk om met wat optimalisaties 100mhz extra uit de chip te halen.
Het is maar zeer de vraag of het zelfde met RV870 mogelijk is. Vergeet niet dat er al geruchten waren over RV790 toen RV770 op de markt kwam. We zijn nu al bijna 3 maand na RV870 en ik heb in ieder geval nog niks over RV890 gelezen.
GT200 -> GT200b
Simpele die-shrink van 65 naar 55nm, was snel te doen omdat 55nm een half-node is van 65nm.
Dit is de meest traditionele vorm van refreshes. In het verleden kregen veel chips na een aantal maanden inderdaad een refresh, maar dat kwam omdat er een makkelijk pad was, namelijk die van een die-shrink, van full-node naar half-node bijvoorbeeld. Dit keer is er echter geen optie om dat te doen. We hebben 40nm, waar RV870 al op gebakken is, en TSMC heeft hun 32nm procedee al geannuleerd. De volgende stap is 28nm, en dat duurt op z'n allervroegst tot H2 2010, maar reken maar op Q4 of zelfs H1 2011 zoals het er nu naar uit ziet. De enige optie is dus een optimalisatie van RV870, maar zoals ik al zei is het maar de vraag of dat mogelijk is.
De R&D van AMD zit nu echt niet een half jaar lang feest te vieren.
Dat klopt, ze hebben hun tijd hard nodig voor de volgende generatie kaarten. Bovendien begint de huidige architectuur tekenen van zwakte te vertonen op GPGPU gebied, en daarvoor zullen ze toch een behoorlijk radicaal nieuw ontwerp nodig hebben, wat op zich al meer dan genoeg tijd gaat kosten. Ik ga er inderdaad niet van uit dat ze een half jaar feest vieren, ik reken er zelf op dat ze al een half jaar hard aan het werk zijn met belangrijker werk ;)

[Reactie gewijzigd door Snoitkever op 15 december 2009 11:03]

snap dat de gegevens zo worden over genomen!!

overal staat er dat het fake is!!!

http://www.pcgameshardwar...e-Runde/Grafikkarte/News/
Inderdaad.

Zo maar even een paar puntjes:

De titel en opmaak van de achtergrond van de slide is precies hetzelfde is als die voor de GTX200 serie ("Gaming Beyond", zou nVidia echt dezelfde slogan gebruiken?)

De letters zijn niet anti-aliased en zijn een standaard Windows-font, wat normaliter niet door nVida gebruikt wordt,

De letters op de verticale balk zijn niet correct uitgelijnd,

nVidia gebruikt normaal gesproken een andere manier van presenteren: daarbij wordt de score van de competitie op 100 gezet en worden de resultaten van hun eigen kaarten als percentage daarvan weergegeven,

Als laatste, de slides zijn oorspronkelijk gepost door iemand met de nickname 'succesfull troll' o.i.d.

EDIT:

Oh, en ondertussen schijnt nVidia bevestigd te hebben dat de slides fake zijn:
http://www.techreport.com...viewtopic.php?f=3&t=69653
De poster is lid van de nVidia focus group en heeft het nagevraagd.

Ondertussen ook fake volgens Nordichardware:
http://www.nordichardware.se/nyhet,17011.html

Nieuwbericht aanpassen dus? ;)

[Reactie gewijzigd door Da_DvD op 14 december 2009 19:40]

Op die site staat:
Geforce GTX 380 und GTX 360 - das sollen Nvidias Fermi-Grafikkarten sein, von denen nun erste Benchmarks die Runde machen. Bei diesen handelt es sich vermutlich aber um Fakes.
vermutlich = Waarschijnlijk!
Dus je hebt ook kans dat ze niet fake zijn
Tsjah, als het waar is, dikke plus kudo's , weet ik meteen wat me volgende kaartje is.
Of het is gemaakt door een nvidia fanboy, en kan het zomaar helemaal nergens op slaan.
ik ben benieuwd!
Voor mij blijft toch de factor price-performance de hoofdzaak. En laat AMD daar nu net het laatste jaar steeds koning zijn geweest op dat gebied, zelfs toen ze de harde performance niet konden leveren had je daar nog steeds het meeste pixels :) voor je geld.
Toch vergeet je een groot nadeel voor de gamer die er snel bij is; bij ati wil een spel nog wel eens niet werken de eerste paar maanden na de launch (battlefield 2, grid, far cry2, the saboteur enz). Vermoedelijk heeft het "the way it's meant to be played" positief bijgedragen aan het vrijwel geheel ontbreken van deze problemen bij de nvidia tegenhanger (om maar een voorbeeld te noemen, bij bf2 zaten de benodigde drivers op de install cd). Persoonlijk in al die jaren (gf2mx, gf ti4400, gf 5900xt, gf 6800gt, gf 8800gts 640, gf gtx260) alleen het spel hitman (beginlevel met de haven, 5 ofzo:P) gehad dat niet goed werkte na de release.

Scheelt per persoon hoe belangrijk je dit vind. Zelf hecht ik veel belang aan dat alles gewoon werkt (meer dan 20 euro besparen).
ik weet niet wat voor driver je dan hebt gehad, maar ik heb nooit ergenst last mee gehad met ATI drivers, alleen de laatste tijd worden ze wat instabieler, maar nog zeker niet slecht.
Ati heeft vroeger gigantische problemen gehad.
EVE online was bijvoorbeeld een kleine 3 maanden gewoon niet te spelen voor een ieder die een ATI kaart had.

Zal nu ongetwijfeld opgelost zijn, maar het zal voor aan aantal mensen (mijzelf inbegrepen) reden zijn geweest om te roepen : Nooit een ATI meer.

Voor dit soort mensen is de release van de 300 serie natuurlijk prachtig nieuws.
Dat kan natuurlijk ook liggen aan de ontwikkelaars van het spel die weinig genoeg rekening houden met ATi kaarten.
Natuurlijk! maar maakt dat wat uit voor de eindgebruiker?

Het rekensommetje vanuit de consumenten stoel lijkt mij simpel :
ATI = werkt niet, NVIDIA = Werkt wel.

Overigens lag het in dit geval wel aan de Cataclyst driver hoor, daar niet van. Maar zoals gezegd, dat maakt eigenlijk niet uit. Het moet gewoon werken, werkt het bij jou niet en bij je concurrent wel dan gaan de mensen naar de concurrent, en als die nu ook nog eens een goede prestatie/service levert (want laten we eerlijk zijn, NVIDIA is niet slecht) dan is de kans dat ze daar blijven vrij groot.
ik ben dus benieuwd naar wat intel met larrabee gaat scoren, goed dat zijn we allemaal maar toch. als het nieuw design zo spectaculair is en de prijs is mooi wellicht dat we nog een 3e speler in de gaming markt krijgen
Intel gaat niet scoren met Larrabee. De chip wordt niet uitgebracht voor consumenten in 2010 wat betekent dat er een opvolger nodig is om mee te kunnen komen in de prestatie race.
Wanneer was dit dan? Ik speel sinds begin 2006 EvE Online op een Ati bak maar nooit ergens problemen mee gehad. Heb overigens sinds begin 2005 al een aantal trials versleten en ook toen nooit problemen gehad.
Het rekensommetje vanuit de consumenten stoel lijkt mij simpel :

EVE = werkt niet, andere spellen = Werkt wel.
HUH???

Ik denk niet dat ontwikkelaars ATI kaarten zouden overslaan bij testen. Dat zou brand in het pand moeten betekenen. Je argument is nogal... vreemd en ongeldig.

Ik ben ook iemand die roept nooit een ATI meer. Heb 2 wat oudere shitsets van ATI gehad. 1 op het moederbord die hielp mij aan BSOD's precies wanneer mijn computer echt moest rekenen. Maar ook mijn laptop heeft een ATI videokaartje erin. Erg jammer want bij fullscreen youtube etc vliegt ie eruit. Nog steeds.

Dat zijn mijn redenen om 20 euro meer te betalen voor een NVidia.

Wel moet ik zeggen dat die High end kaarten van ATI wel erg goed klinken. Ik vertrouw het merk gewoon niet meer. Net zoals je niet schoenen gaat kopen bij een schoenenzaak waarvan de schoenen vorige aankoop na een maand versleten waren. Dat hoeft niet nog een keer te gebeuren en hoeft niet aan hun te liggen maar het is wel stuk na een maand.
Vanaf de radeon 9700pro ben ik ATI kaartjes gaan kopen. tussendoor is er nog een geforce 8600gs (AGP) van nvidia gekomen, maar op dit moment werk ik weer op een Radeon HD 4850.

Ik heb met geen enkele game ooit maar problemen gehad. grootste problemen die ik tegengekomen ben met games waren op te lossen met een driver update.
Mijn redenen om voor nVidia te gaan is ten eerste dat ik weer SLI wil draaien zoals ik nu ook doe met mijn 8800GTS 512 kaarten.
En Crossfire gaat niet op mijn ASUS Striker II Extreme met nVidia chipset.
Heb er sinds kort een Q9650 in dus een ander bord komt er voorlopig niet.
Ten tweede heb ik dan niet voor niets 2 jaar gewacht om nVidia DX11 (want draai Windows 7 Ultimate ) kaarten te halen.
Ten derde vind ik de driver support van nVidia beter dan die van ATI.
Je kan met 3D bril spelen met nVidia drivers (3D Vision) en niet met ATI.

De resultaten (indien waar) zijn echt prima.
Maar daar ging ik ook wel een beetje vanuit.
Nu de 300 serie nog niet te koop is kunnen ze mooi nog even naar ATI kijken om te zien hoe die presteren om vervolgens hun eigen kaarten net weer even sneller te maken.
Maar wel jammer dat ze het niet voor de kerst gehaald hebben.
Dat is altijd een prima periode voor dat soort aankopen en dat weet ieder zich zelf respecterend bedrijf. ;)
Dus dan maar even een lekker makend bericht posten om de moed er in te houden :)

Nu nog wachten op DX11 games (het zijn er momenteel 3)en dan smullen van de mooie graphics! :9

[Reactie gewijzigd door Sunbeam-tech op 15 december 2009 19:00]

NVIdia heeft vroeger ook zware problemen gehad met drivers. De laatste jaren gaat het echter zeer goed. Ati weet ik niet van de laatste jaren.
Als je Linux gebruikt wil je sowieso geen Ati want daar hebben ze bij mijn weten nog nooit een fatsoenlijke driver voor gehad.
Redelijk achterhaalde stelling. Ik heb zelf vanwege de ondesteuning onder Linux al jaren nVidia maar ga het nu toch met een ATI 5770 proberen. De drivers schijnen nu goed te zijn.
Inmiddels hebben ze daar een aardige inhaalslag gemaakt.
Moet zeggen dat de Linux Catalyst nog steeds niet is wat het moet zijn, want met de meest recente Xorg wil het afaik nog niet lekker.
Maar omdat ze een aardig gedeelte open hebben gemaakt werkt inmiddels wel KMS op R600/700 vanaf 2.6.32 kernels, en ook is de opensource ati driver (xf86-video-ati) in algemene zin bruikbaar. Video decoding is onderweg ook.
Als je open source drivers wilt gebruiken kun je beter voor ATi gaan dan nvidia, want de nv driver is outdated en de nouveau driver is nog lang niet wat de open ati driver is.
PropriŽtairy driver van nVidia is wel nog steeds een stuk beter dan de Catalyst.
Ruimte voor verbetering is er dan ook zeker.
http://www.gamert.nl/nieu...rsie_the_saboteur_we.html

Even googlen en de andere games die ik noemde vond je ook zo. Gewoon de nieuwste driver die bij de release beschikbaar was.... Dan kun je ong 2 maanden w8en op een fix... (far cry had wel hotfix).
Ati heeft gewoon duidelijke release notes, waar ook problemen in staan, in 99% van de gevallen werkt alles gewoon. Misschien niet optimaal qua snelheid, maar het werkt wel. Bij nvidia is het net zo erg gesteld.

sinds 2004 zij de drivers van ATI qua niveau omhoog geschoten (na de release van de radeon 8500) en ze zijn al een paar jaar net zo goed als die van nvidia.

Soms wordt x of y nog niet 100% ondersteund, maar dat wil niet zeggen dat zoiets niet werkt.

vaak zijn dat ook onbelangrijke dingen voor de pure werking als power consumption control.
Nou ik vindt het anders behoorlijk storend dat h.264 L5.1 niet af te spelen is op mn Sony VAIO FW11M, terwijl een oudere laptop met nvidea kaartje zon file moeiteloos afspeeld.
ik vindt dat toch een behoorlijk probleem |:(
Misschien ook eens een andere codec proberen? Het is nu eenmaal zo dat bij verschillende soorten codecs verschillende onderdelen van de CPU gebruikt worden en niet de GPU. En de ene codec is vriendelijker voor de CPU dan de andere.

Om maar wat te noemen de CCP (Community Codec Pack), heeft een hele goede; doch hele zware matroska codec. Daar zijn echter andere versies voor; want toen ik deze verving op mijn EEE pc, deden de 720p files het toch echt prima. Ondanks dat daar toch echt geen videokaart van waarde inzit.

Trouwens, zover ik weet, is er pas sinds de ati 5xxx serie gpu-ondersteuning (hardware-matig) voor het decoderen van video tijdens afspelen.

=ONTOPIC=

Ik vind het een goede ontwikkeling. Ik ben altijd een ATI/AMD aanhanger geweest, ook in mindere tijden. Los daarvan ben ik blij dat ATI momenteel de kroon heeft. Als nVidia daar overheen gaat, wat ik hoop, zal ATI weer snel met een antwoord komen.

Zo blijft het spelletje natuurlijk doorgaan. Al met al is het een goede ontwikkeling en gun ik iedere liefhebber zijn favoriete videokaart. Voor mij ATI in ieder geval en wacht met smacht op mijn 5850 :D

[Reactie gewijzigd door Sjnuffelke op 15 december 2009 08:05]

Nou heb ik een Radeon AIW 8500 Vivo gehad, zo een met DVI, Firewire en tulp in- en uitgangen, de hele mikmak. Gekocht omdat ik TV wilde kijken op de PC (had toen nog geen TV en als alleenstaande zet je die dingen toch niet tegelijk aan), en in verband met een vooruitziende blik (later wilde mijn vrouw een video-camera).

Het kreng heeft echter nooit 100% gewerkt. Tunerbeeld was vergeleken met de normale TV enorm slecht (veel ruis, vond niet alle zenders), Remote Wonder werd met drivers van de CD niet gedetecteerd. Nieuwere drivers waren geen verbetering, en toen men nog nieuwere drivers de Remote Wonder eindelijk gedetecteerd werd, werkte de graka niet meer stabiel.

Na de verhuizing naar de PIII 1Ghz gaf de monitor steeds melding "out-of-range", kortom, stuurfrequenties of resolutie stonden op zulke absurde waarden dat het scherm er niet mee overweg kon. RIP graka.

De Radeon 9800 XXL in mijn huidige medion werkt tot nu toe wel prima onder W2K, alleen snap ik niet waarom met XP het beeld na installeren zwart bleef, alleen als de screensaver geactiveerd wordt is er beeld, daarom maar de betere voorganger er op gezet.

[Reactie gewijzigd door BeosBeing op 14 december 2009 16:57]

Niet mee eens ik spreek genoeg mensen op xfire en fora waar het gewoon niet werkt, dat heeft niks met lage fps te maken maar met crashende games, gekke shadows, zwarte vlakken, enz enz.

Bij nvidia vind je in de release note ook honderd-en-1 known issues, het gaat inderdaad om wat je er in de praktijk van merkt, maar dat is dus regelmatig negatief bij ati. Zie andere posts met wat voorbeelden voor software die niet werkt (dirt2, the saboteur beide games van deze maand).
Vreemd,

Ik lees wel vaker dat mensen heel hard roepen dat spel x, y enz niet op ati werken.

Rare is in vele jaren nooit zo'n game tegengekomen,een vriend die zo ongeveer alles wat op internet binnen haalt en op zijn pc uitprobeerd of het de moeite waard is om te kopen heb ik ook nog NOOIT horen klagen over dat een game het niet doet op zijn ati videokaarten. Het lijstje wat hier staat heb ik zelf drie van in bezit of de demo uitgeprobeerd en alle drie werken uitstekend.

Ik kan daarom niet anders dan zulke reacties als faimebaits te beschouwen :X
Ach joh, mensen blaten maar wat. Als persoon A zegt dat product X niet werkt met game Y dan gelooft persoon B het meteen en begint het meteen te schreeuwen. Vervolgens hoort persoon C dat en doet net zo vrolijk mee. Voila, een kudde volk.

Ik ben sinds de 4000 serie over op ATi en daarvoor altijd Nvidia gehad, en nooit geen problemen gehad. Leuk dat er vroeger problemen waren, maar vroeger is vroeger en niet nu. Ik snap ook niet waarom dat punt ook elke keer weer aangehaald wordt. Vroeger was Windows ME ook instabiel, lomp en gewoon niet af, maar is daarom Windows 7 dat nogsteeds? Zelfde ding.

Kortom, mensen moet zelf eens wat onderzoek doen en niet maar kakkeloos gaan dingen gaan roepen omdat een ander dat ook zegt.
Het mooie is ook dat hier tot nu toe nog geen enkele reactie op is gekomen en dat mensen dus ook wel weten dat je gelijk hebt. Ik ben het iig roerend met je eens, vooral je opmerking over kuddevolk.

Prima post!
Vroeger heel misschien maar daar hebben we nu weinig last meer van.

Vorige week had iemand problemen met spelen van een spel omdat hij de nieuwste drivers van ati had maar zelf win 7 RC had...

Maar we gaan het allemaal meemaken hoe dit voor nvidia uitpakt
Onzin, zo is bij de nieuwste ati kaart dirt2 meegeleverd die NIET werkt met de huidige driver...

zie Het ATi HD5XXX serie ervaringen topic - Deel 2

Let ook even op de games die ik noemde, dat zijn recente games... the saboteur is ook dit kwartaal gereleased http://www.gamert.nl/nieu...rsie_the_saboteur_we.html .

[Reactie gewijzigd door sdk1985 op 15 december 2009 16:16]

Toch vergeet je een groot nadeel voor de gamer die er snel bij is; bij ati wil een spel nog wel eens niet werken de eerste paar maanden na de launch
In het geval van de HD5000 series, laat AMD deze serie eerst maar eens op grote schaal leveren 'in de eerste paar maanden', kunnen we het daarna hebben over de prestaties. ;)
In het geval van nVidia, nu nog een kaart WERKEND laten zien (bij nVidia wil een kaart nog weleens niet werken ;-)). Grote kans dat deze cijfers gewoonweg berekend zijn bij gebrek aan werkende exemplaren. Daarnaast als nVidia pas in januari wat gaat laten zien, hoelang duurt het dan nog voordat we de kaarten in huis kunnen hebben?

Ben benieuwd wat nVidia te bieden heeft met de 300 serie behalve wat oude chips met nieuwe namen, en de cuda technologie waar ik persoonlijk wel een voorstander van ben.
Toch raar dat bijvoorbeeld bij de release van Entropia Universe 10, wat op de CryEngine 2 is gebaseerd, vooral problemen bij Nvidia gebruikers waren. Dat terwijl de CE2 engine ook meant to be played by Nvidia was.
Als je zelf alleen maar NVidias hebt gehad waar baseer je je uitspraken dan op? Tot aan de 6800 heb ik alleen Nvidia gehad. Met de 1950GT en nu mijn 4870 heb ik nooit problemen gehad.
Op de mensen waar ik de pc's altijd moet "fixen" en de groep gamers op mijn xfire... en het nieuws natuurlijk verder ben ik ook actief op diverse fora als vrijwilliger voor het oplossen van problemen.
Voor mij is de price performance ook het belangrijkst, maar AMD kon (en kan nog steeds) door 1 GPU te hebben de hele markt bedienen. Ik vraag af of NVidia dat nu ook met fermi kan (danwel gaat doen) en dus op ontwikkelkosten besparen. Kan (/gaat) NVidia nu SM's uitschakelen en clocks aanpassen zoals ati dit doet met de streamprocessors (en clocks) voor de 5850, 5770 etc....
Of simpeler gezegd: Is de 360 dat van de 380, wat de 5850 van de 5870 is?

edit:
Wat duidelijker/logischer gemaakt

edit 2:
Even nagerekend, telkens is de GTX 380 zo'n 1.19 (1.20, 1.19 en 1.18)keer sneller dan de GTX360, lijkt mij dat ze 1/2 van de 16 SM's van 380 uitschakelen en de klok iets lager zetten (bijv 360: 15 SM's en 750 MHz en de 380: 16 SM's en 840MHz, gokje mbv ATI verhouding)

[Reactie gewijzigd door Zartok op 14 december 2009 14:13]

Als de GTX360 echt zo presteert dan is dit een knaller.. Als deze voor 300 euro de toonbank over gaat heb je een prijs/prestatie die echt goed te noemen is. Een stuk beter als die van de HD5870..

[Reactie gewijzigd door Xenomorphh op 14 december 2009 14:11]

Jouw redenatie kun je natuurlijk net zo makkelijk doortrekken naar de 5870, je weet niet wat het ding over een half jaar kost....

Als hij dezelfde prijsontwikkeling als de 4870 meemaakt kost hij over een half jaar ook nog maar een 200 euro, en dan is het prijs/kwaliteitverhaal ineens weer heel anders.
MAAR, en nou komt het:

Het Ūs en blijft nVidia, die staan nu eenmaal niet bekend om hun mooie (intro) prijzen. De GTX295 (ik weet, dual gpu) is nu nog steeds minimaal 400 euro, en de HD5800 serie is daar al voorbij. Nou weet ik even geen intro prijzen van de GT200 serie te noemen, maar ik denk dat je rond dde 500 euro kan denken voor de GTX380 ;)
Is dat erg dan? De HD5970, die mindere prestaties levert volgens deze benchmarks, kost al snel 550 euro. Een HD5870 kost al gauw meer dan 350 euro, dus qua prijs/prestatie heeft NVIDIA nog heel wat speelruimte.

Ja, AMD had afgelopen generaties een uitstekende prijs/kwaliteit verhouding, maar met de 5000 serie is daar (zeker aan de high-end kant) nog weinig van te merken.
Nvidia heeft helemaal geen speelruimte, ze hebben niet eens een werkende kaart op de markt die het kan opnemen tegen eender welke kaarft uit de ati-5xxx reeks.

Met andere woorden, Ati kan vragen wat het wil voor haar kaarten, de die-hard gamer koopt ze toch wel, en tegen de tijd dat nvidia de ouwe diesel eindelijk eens op gang heeft, kan ati, doordat ze de kaarten nu wellicht veel te duur verkopen, de prijzen zo drastisch verlagen, dat ook de 3-reeks van nvidia het in de prijs-prestatieverhouding het nakijken heeft..

Een prima marketing-strategie lijkt me; daar kan een andere fabrikant die gebakken lucht verkoopt nog een puntje aan zuigen; me dunkt.

[Reactie gewijzigd door Hammer op 14 december 2009 22:29]

Met andere woorden, Ati kan vragen wat het wil voor haar kaarten, de die-hard gamer koopt ze toch wel,
AMD kan vragen wat ze willen maar de gamer koopt ze toch niet want ze zijn niet leverbaar. Zoek maar eens op internet naar forumthreads over leverbaarheid van de 5870.
en tegen de tijd dat nvidia de ouwe diesel eindelijk eens op gang heeft, kan ati, doordat ze de kaarten nu wellicht veel te duur verkopen, de prijzen zo drastisch verlagen, dat ook de 3-reeks van nvidia het in de prijs-prestatieverhouding het nakijken heeft..
En hier zit het probleem in je redenering. Je verwart vraagprijs met prijs/perf. Gamers kopen een kaart op de tweede factor, niet de eerste. Als deze benchmarks zouden kloppen heeft NVIDIA niet alleen de performancekroon ferm in handen, maar ook zeker (qua productiekosten) de prijs/perf kroon. De HD5970 is een dure kaart om te maken, dan is een GTX380 en zeker de GTX360 (die volgens deze benchmarks daar al in de buurt komt) heel wat goedkoper. RV870 is helemaal niet zo klein en zo goedkoop als AMD mensen wil laten geloven, het is best een forse chip met z'n 334mm2. AMD heeft die prijsruimte hard nodig als ze qua prijs/perf willen concurreren met deze NVIDIA chips.
Nou, nee; Ik verwar vraagprijs niet met prijs/prestatie, sterker nog, daar gaat het relaas over. Dat daargelaten; gamers kopen een kaart vaak omdat ie het snelste is; de snelste kaart heeft zelden de beste prijs/prestatieverhouding maar wordt met open armen ontvangen bij diegene die hem kunnen betalen.

Om als onderbouwing op je stelling dit artikel te nemen is vreemd, daar de herkomst van de benchmarks onduidelijk is, en ook de productiekosten van de 3-reeks zijn voor zover ik weet speculatief.
Dit klopt niet, ik heb mijn hd5870 van gigabythe gekocht voor 294 per stuk :)
GTX360 is voorlopig nog niet op de markt.... :?

Kaart is pas een knaller te noemen als ati tegen de tijd dat de GTX360 uitkomt niet net zo'n snelle kaart op de markt kan brengen
Daarbij vind ik de verbetering nog niet zo dramatisch te noemen voor de 360 maar meer in de lijn van de verwachting gezien de tijd die vestreken is tussen de lancering van de 295 en de andere kaarten. De 380 is wel een stuk sneller maar zeker nog niet wereldschokkend.
Aan de andere kant weten we niets over prijs, stroomverbruik, geluid en grootte/aantal dies.
Ook het hele ati non compatibility issue vind ik een beetje uit zijn verband getrokken. er zijn een aantal games die niet direct werken maar 99% werkt wel gewoon, dat nvidia genoeg over heeft voor die laatste % komt omdat ze veel te veel vragen voor de vidkaartjes van laatste tijd.
Ook is niet duidelijk of ze dx11 gebruikten. er staat wel dx10 bench maar kunnen ze en hoe presteren ze met dx11?
Het is afwachten tot onafhankelijke benches maar indien correct levert dit weer leuke kaarten op voor ons als gamers :)
Op wikipedia lijken de GFLOPS van de 380 en de 5870 erg veel op elkaar met 2611 en respectivelijk 2720. Dus ik vraag me af of een theoretisch slomere kaart inde praktijk zoo veel sneller zal zijn...
Lagere memory latency door de cache op fermi. GFLOPS zegt op zichzelf niet zo heel erg veel; dat is meer een marketing iets.

[Reactie gewijzigd door Zoijar op 14 december 2009 13:35]

De theoretische peak FLOPS zegt meestal weinig, die wordt in de praktijk wordt er met FLOPS benchmarks vaak niet eens 1/3e van gehaald.

Daarnaast is de performance in spellen afhankelijk van veel meer als de brute rekenkracht. Onder andere natuurlijk hoe efficient wordt omgegaan met die brute rekenkracht, en hoe goed de drivers geschreven worden. Maar natuurlijk ook het aantal pixelpipelines, texturing units, ROP, implementatie van AA en AF, etc...
Ahum ? vaak maar 10%-15% verschil TOV de HD5870. Die al 3 maanden uit is. Ik weet niet hoor. Maar ik vind dat erg matig. Mag hopen voor nVidia dat het toch eerder 30-40% is. Anders is deze ronde toch echt voor AMD.

Al helemaal als we gaan kijken naar Die Grote. En waarschijnlijk dus ook de aanschafprijs. Die zal in het geval van de HD5870 een stuk lager liggen.

Edit:

Ik zit helemaal verkeerd te kijken. GTX380 zou 10% sneller zijn als de HD5970 dus de X2. Als ze dat halen valt het zeker niet tegen. Sterker nog ik gok niet dat ze dat gaan halen.

Ik verwacht eerder 30% sneller dan de HD5870. In dat geval zou de HD5970 nog iets sneller zijn.

[Reactie gewijzigd door Astennu op 14 december 2009 15:23]

Het ligt eraan wat het beestje gaat kosten. Als de GTX360 en GTX380 dalijk mid-range kaarten blijken te zijn voor rond de 150 euro, dan zijn het erg goede kaarten. Gaan ze 400 euro kosten, dan vind ik het ook behoorlijk matig. Het is behoorlijk relatief ;)
Als je naar de specs van de Fermi kaarten kijkt (en NVŪdia's prijsstelling in het verleden) dan zal het eerder richting de 400 gaan. 150 is nogal wishfull thinking ben ik bang.
Je betaalt nu al snel 325-350 euro voor een 5870. Als deze kaart werkelijk consistent 30-50% sneller is zoals in deze benchmarks, dan kan NVIDIA er makkelijk hetzelfde voor vragen.
Een mid-range kaart zal niet zo ver in de 3xx benaming komen. Dat zou dan eerder een 320 t/m 350 worden I guess.
Het ligt toch geheel aan wat AMD van plan is wie deze ronde pakken gaat. Het lijkt me wat voorbarig om nu al een winnaar aan te wijzen...
Tja, deze kaart komt ook 6 maanden na die van ATI, als deze trager zou zijn dan zou er iets niet kloppen.

Vaak zit er wel een grond van waarheid in deze screenshots, gekozen uit games die traditioneel goed scoren op nvidia kaarten.

Om een goed beeld te krijgen zal je toch alles moeten zien.

Verder is het wachten of ATI/AMD bij de volgende kaart weer wat extra pit erop kunnen gooien. Of misschien een OC edition uit kunnen brengen die net zo snel is als die van Nvidia.
Dit was inderdaad ook te verwachten. Zeker gezien de specs van de Fermi hing dit al wel een beetje in de lucht. Dit worden waarschijnlijk hele dure kaarten dus dan mag je er ook wel wat van verwachten.

Tegen de tijd dat deze kaarten op de markt komen heeft AMD ook al wel weer een refresh van de huidige kaarten uitgebracht, ik denk dat het nieuwe top model dan wel weer kan concuren met de GTX380 zoals de performance hier wordt weergegeven.
ik geloof er nog weinig van eigenlijk.

ze maken gebruik van het zelfde productie proces, maar de gt300 is een veel grotere chip. dat betekend gewoon veel lagere yields (en de yields van de veel kleinere r800 zijn al niet geweldig door problemen bij TSMC) of een lagere kloksnelheid.
Met dat eerste gaan ze geen winst maken op die dingen als ze er al genoeg kunnen leveren, en met dat laatste gaat zelfde de grotere chip van Nvidia niet de dual GPU van ATI voorbij.

dat hij sneller zou zijn als de hd5870 is een gegeven, maar tenzij de x2 kaart slecht schaalt in een bepaalde game, gaat hij die niet voorbij. daar is hij niet groot genoeg voor en heeft een te lage kloksnelheid.

dat slecht schalen zou kunnen hier want het zijn niet echt de best geoptimaliseerde games die ze hier noemen, en farcry engine heeft altijd een probleem met ATI gehad of andersom.

daarbij komen nog de kosten, zolang ATI niet zo veel kan leveren, kan Nvidia dat nog veel minder. en als ATI goed kan leveren kunnen ze hun prijzen nog flink naar beneden bijstellen door de veel goedkopere chips. Nvidia zou dan hun hele dure chip eigenlijk meteen al in de uitverkoop moeten doen om niet nog meer marktaandeel te verliezen. net als ze de vorige generatie moesten doen.

[Reactie gewijzigd door Countess op 14 december 2009 14:04]

Als het waar is...

Als het gelekte info is, dan krijg je dat niet zomaar... Dan moet je redelijke insider zijn.
Als ik dan even op de website kijk, dan zie ik dat de user een newbie is met welgeteld 39 posts... En hij geeft geen enkele informatie, behalve de drie plaatjes....

De insiders zijn i.h.a. regulars, en hebben stapels post... En meestal geven ze ook nog wel iets aan over de betrouwbaarheid, hoe ze er aan komen ofzo...

Dit ziet er echt verschrikkelijk fake uit... Ook Guru3D geeft aan dat ze geloven dat het nep is.


Hetgeen niet wil zeggen dat het niet van NVidia komt... Hun PR ziet me lede ogen aan hoe AMD voor kerst een super kaart heeft, en zij er niets tegenover kunnen stellen. Dus een paar gelekte onofficiele benchmarks, om mensen maar vooral maar hun aankoop te laten uitstellen, zou wel heel handig zijn. Zegt dan nog altijd niets over de betrouwbaarheid. Zou niet de eerste keer zijn dat er misleidende cijfers verspreid worden.
Of het is gemaakt door een nvidia fanboy
Of het is gemaakt daar een ATI-fanboy. Stel je voor wat de reacties gaan zijn als de 3xx-kaarten echt uitkomen en ze de hier "beloofde" resultaten niet waar kunnen maken...
Er is dus ook nog steeds niks gezegt over de prijs.
En misschien gebruikt die wel 400 watt?
als je crossfire wilt doen, moet ja al een 1000+ watt voeding hebben.
Hier kunnen mensen vanafzien, ik heb namelijk maar 450 watt, dus doe maar een 5770 :)
En ik mag ook wel hopen dat ze 5.0 shaders hebben, en op zijn minst DX11.
;)
En wie weet of deze benches wel echt zijn?
Misschien van een fanboy, maarja daar zullen we even niet op rekenen.

[Reactie gewijzigd door alaintje op 14 december 2009 13:37]

dit is niet echt correct, gebruik nu een crosfire opstelling 2xhd5870 en heb maar een 800watt voeding, systeem is OC en toch kom ik niet aan mijn max wattage
1000 Watt is onzin. Hier op het forum lees ik ook vaak dat personen er weet niet hoe zware voedingen in een systeem plaatsen terwijl zeet de helft ook af kunnen. :/ Zo heb ik bijvoorbeeld een AMD Athlon II X4, 8GB geheugen en in totaal 8x 3,5" hardeschijven draaien op een 300 Watt voedinkje wat prima gaat.
300W is het maximum als ze willen voldoen aan de standaarden voor PCIe, dat is ook de reden waarom AMD de kloksnelheden op de HD5970 heeft teruggebracht, zodat die net onder de 300W zat. Maar dan nog is dat TDP en dat zegt niet alles over het werkelijke verbruik.

(oh, en vraag me niet waarom de ASUS mars dan meer dan 300W verbruikt :P)
Ik snap de conclusie aan het eind van het artikel niet.

Hoe kunnen deze benchmarks nou geinterpreteerd worden als indrukwekkend?

De kaart zal op zijn vroegst pas over 3 maanden uitkomen en tegen die tijd zijn het normale cijfers, je moet ook niet vergeten dat ATI ook nog een verbeterde versie van hun kaart nog zal uitbrengen dus zelfs bij een eventuele snelle kaart zal Nvidia niet lang van hun success kunnen genieten.
Hoe kunnen deze benchmarks nou geinterpreteerd worden als indrukwekkend?
Omdat NVIDIA laat zien dat (als dit dus waar is) hun single-chip +/- 470mm2 chip significant sneller is dan AMD's dual-chip 334mm2 kaart. In een van deze benchmarks is zelfs de GTX360, de sub-top kaart even snel als AMD's beste kaart, die nu voor meer dan 500 euro over de toonbank gaat. Hoe kun je dat niet indrukwekkend vinden? Als dit waar is gaat AMD flink in de problemen komen, want hoewel ze met de HD5870 nog wel genoeg ruimte hebben om in prijs te zakken kunnen ze maar weinig met de dure HD5970.

Deze benchmarks laten zien dat
A - NVIDIA terug is aan de top
B - NVIDIA een veeeel betere perf/mm2 uit hun 40nm architectuur weet te halen dan AMD
C - Het belangrijkste... dat AMD's multi-chip opschepperij van de laatste jaren toch het onderspit delft tegen een goed ontworpen monolithische "monster"chip
D - deze benchmarks nergens op slaan.

Ik ga voor D. Deze prestaties komen totaal uit het niets en gaan in tegen alle verwachtingen. Daarbij heeft NVidia zijn laatste revisie van deze kaarten nog helemaal niet klaar en op magische wijze duiken er toch benchmarks van op, zonder bronvermelding, die niet door NVidia bevestigd kunnen worden. Duidelijk D.

Lekker even wachten tot februari dus, wanneer de kaart misschien klaar is en door reviewsites onder de loep genomen wordt. ;)

En nee, de HD5970 is vooralsnog goedkoper dan de GT300 als NVidia de yields niet goed krijgt . Dat gaat nou eenmaal moeilijker met een grote chip.

EDIT: en hoezee, het is al bekend. NVidia ontkent dat deze benchmarks echt zijn!

[Reactie gewijzigd door bwerg op 14 december 2009 20:09]

D - deze benchmarks nergens op slaan.
Goeie kans ja
Deze prestaties komen totaal uit het niets en gaan in tegen alle verwachtingen.
Welke verwachtingen? Fermi is meer dan 2x een GTX280 qua rauwe kracht met vele verbeteringen op vele vlakken. Waarom zou deze chip niet goed kunnen zijn? Omdat NVIDIA toevallig de laatste anderhalf jaar geen goede chips meer heeft kunnen maken?
En nee, de HD5970 is vooralsnog goedkoper dan de GT300 als NVidia de yields niet goed krijgt .
Wat is dat toch voor gezeur over de yields? Charlie Demerjian begint er 1 keer over en iedereen neemt die onzin gelijk over. Ja, TSMC heeft op dit moment gedoe met hun yield, absoluut, maar daar heeft AMD net zo veel last van. Verder, mensen hebben geen idee waar ze over praten, er zijn heel wat belangrijker factoren die yield bepalen dan grootte.
Welke verwachtingen? Fermi is meer dan 2x een GTX280 qua rauwe kracht met vele verbeteringen op vele vlakken. Waarom zou deze chip niet goed kunnen zijn? Omdat NVIDIA toevallig de laatste anderhalf jaar geen goede chips meer heeft kunnen maken?
Nee, hij kan best goed zijn. Maar veel betere prestaties dan theoretisch verwacht wordt is gewoon niet geloofwaardig (waar het juist normaal is dat je onder de theoretische verwachtingen zit omdat alle technische verbeteringen nooit 100% kunnen schalen).
Wat is dat toch voor gezeur over de yields?
En slechte yields hebben nou eenmaal meer effect met grotere chips. In een grotere chip komen logischerwijs sneller 'fouten', en aangezien de NVidia-chip bijna dubbel zo groot is als de Ati-chip... Bovendien zijn yields niet alleen afhankelijk van het bedrijf waar het gebakken wordt, maar ook van de architectuur van de chip. Een chip die niet goed bij het productieproces 'past' zal een lage yield hebben. Dus nee, het is niet zo dat AMD er net zo veel last van hoeft te hebben als NVidia. Sterker nog, toen AMD al hun HD5800's gelaunched had (en dus een redelijke yield had, ze blijken er immers al bijna een miljoen verkocht te hebben), waren de yields van NVidia niet meer dan enkele procenten.

[Reactie gewijzigd door bwerg op 15 december 2009 01:20]

Ik ga met je mee in je mening, Eerst zien en dan geloven. nVidia heeft nog niet zoveel gezegd over Fermi. We weten nog niet eens hoe Fermi presteert met D3D 11, We weten nog niet hoe hij in real life presteert. Ik ga er helemaal van uit dat deze benchmarks gewoon nep zijn, Om kopers af te kapen van ATI.
Daar tegen over

A NVidia komt 6 maanden later met deze kaarten, in 6 maanden kan je veel tweaken en optimaliseren natuurlijk dus het zou vreemd zijn als ze niet sneller gaan zijn dan ATI
De top kaart van ATI is nu enkel zo duur omdat webwinkels ze verhogen in prijs

B ATI zal tegen de tijd dat NVIDIA uitkomt of een tijdje er na wel weer de nodige kaarten/prijsverlagingen door voeren

C NVIDIA is terug in de top, klopt als deze benchmarks kloppen. De prestatie kroon vinden ze heel erg belangrijk echter zegt dit nog niets over het midrange/budget vlak waar het echte geld word verdiend

D De prijs is niet bekend echter ga er maar van uit dat NVIDIA ook hier de kroon in zal gaan spannen zoals ze eigenlijk altijd hebben gedaan.
Ook op dat vlak verwacht ik dat ze weer terug aan de top gaan staan

E NVIDIA bouwt een grotere complexere chip dan ATI, ATI kan meer uit een wafer halen dan NVIDIA kan. Men kan dus ook verder zakken met de prijs mits nodig.

Al met al erg indrukwekkend vind ik het nog niet.
Na een half jaar mag je zeker van een bedrijf als NVIDIA wat verwachten, als dit allemaal waar is dan vind ik het wel indrukwekkend te noemen mits het gekoppeld is aan een acceptabele prijs.
Prijs/prestatie is gewoon voor mij dan belangrijk maar dat is een ieder voor zich dat begrijp ik

[Reactie gewijzigd door pino85 op 14 december 2009 17:59]

Helaas moet men er rekening mee houden dat volgens deze slide, de GTX380 met 1 gpu, sneller is dan de 5970, die al 2 gpu's heeft. Als nvidia 2 keer hun GTX260 op een kaart stoppen wordt de verbeterde versie van de 5970 ook wel weer verslagen.

en ja, over 3 jaar weet ik ook zeker dat er snellere kaarten zijn, het is zo dat als je een graka koopt hij binnen 3 maanden inderdaad al verouderd aan het worden is.
Als dit waar is zit ATI met een probleem, tenzij deze kaarten veel duurder worden als de huidige ATI kaarten.

Dan had nVidia toch wel een geldige rede om er wat langer over te doen als ze zo'n prestaties eruit krijgen!
Maar als nVidia wist dat de kaarten zo goed zouden presteren, hadden ze meer "reclame" gemaakt.
Dan zit ATi met een probleem? Waarom? Omdat de nieuwe kaarten van nVidia eindelijk eens beter presteren dan het huidige aanbod van ATi?

Dit is, zelfs als het een echte legitieme benchmark is, een kromme vergelijking van cutting-edge nVidia-kaarten die nog op de markt moeten komen tegenover kaarten van ATi die nu al een tijdje te koop zijn.

Dat nVidia daardoor misschien weer eens de aanschaf waard wordt is inderdaad zo, maar om nu direct te stellen dat ATi een probleem heeft, nee. ATi heeft (neem ik aan, ik ben natuurlijk geen insider) ook genoeg in de pijplijn zitten dat beter is dan wat nVidia/ATi nu op de markt heeft.
Als het waar is, als de kaarten snel leverbaar worden en als de prijzen vergelijkbaar zijn met die van AMD. Met Koffiedik kijken bereik je hetzelfde als met het interpreteren van deze resultaten. Lekker wachten dus tot nVidia echte cijfers, prijzen en introductie data geeft. Misschien wordt de kaart redelijk krachtig, maar hoe het zich verhoudt tot AMD blijft afwachten
Ati heeft nu al een probleem, nl. een leveringsprobleem.
oftopic : De leveringsproblemen van ati zijn bijna volledig te wijten aan nVidia. De farbrieken waar de hd58xx sries worden gemaakt worden ook gebruikt voor de gedkope moddelen van nvidia, de meeste echter van de capaciteit gaat naar nvidia, daarom is er een lange leveringstermijn voor ati kaarten. (bron bij mijn chop die premium ati partners zijn)

ontopic: Niet echt spectaculair, is een beetje magertjes, gezien deze kaarten ruim een half jaar na die van ati zullen komen had ik meer verwacht. Als ze dan nog eens tests kunnen doen met meerdere games die niet geoptimaliseerd zijn voor nvidia, da wil ik nog eens zien. Maar ik denk dat die ongeveer even snel zullen worden als de ati tegenhangers, maar de prijzen??? (ati hd5870 voor minder als 300 euro nu al)
Nouja, om nou te zeggen dat dat de schuld is van NVidia gaat wel heel ver :P AMD moet er gewoon voor zorgen dat ze genoeg productiecapaciteit hebben, NVidia wil ook low-end kaartjes verkopen dus die kopen ook genoeg productiecapaciteit in.

Eigenlijk denk ik dat niemand echt schuld heeft aan de huidige situatie. Er werd vanuit gegaan dat de yields bij TSMC wat hoger lagen dan ze nu zijn, gewoon pech dus.

En of Ati een probleem heeft: nee, niet echt. Fermi zal ongetwijfeld sneller zijn dan de R870. Maar de R870 is ook helemaal niet ontworpen om sneller te zijn dan fermi, maar om een kleine, goedkoop produceerbare GPU te zijn met een goede prijs/prestatieverhouding. Ati heeft nu een kaart weten te maken met twee R870's, dat zal NVidia niet lukken omdat ze onder de 300W willen blijven zitten (dat is de standaard voor PCIe x16). Dus het zal waarschijnlijk net zo gaan als bij GF200 vs. HD4000: De GF200 single-GPU's waren sneller maar ook een pak duurder, terwijl de HD4870x2 en de GTX295 gelijkwaardig waren omdat er geen dual-GPU kaart kon komen van de GTX285 chips, maar de chips en kloksnelheden moesten worden afgezwakt.
Maar de R870 is ook helemaal niet ontworpen om sneller te zijn dan fermi, maar om een kleine, goedkoop produceerbare GPU te zijn met een goede prijs/prestatieverhouding.
Klein, goedkoop? RV870 is 334mm2. RV770 was 256mm2, dat is nog enigszins klein en goedkoop te noemen (maar ook alleen in vergelijking met NVIDIA's 500+mm2). RV870 is echter zeker niet klein en goedkoop. Als NVIDIA in rond de 500mm2 twee keer de perf. kan krijgen van AMD's 334mm2 zoals deze benchmarks aan lijken te geven heeft AMD een flink probleem in het topsegment.
Relatief klein en goedkoop bedoel ik. Natuurlijk, het is gewoon een high-end GPU maar vergeleken met NVidia's chips is wel degelijk klein te noemen. Waar AMD de prijs van de HD4000-serie gewoon omlaag kon gooien omdat de productiekosten niet zo hoog waren, kon NVidia dat bij de GF200-kaarten niet omdat die gewoon veel duurder waren. Zo kan het met de GT300 vs. RV870 ook wel eens worden.

Ter vergelijking: de oudere GT200b was al 470mm2, daar waar de RV770 245mm2 was. Zo zal het nu ook weer gaan, de GT300 wordt groter dan 500mm2 (iets in de richting van 550 als ik het goed heb). Dan is de NVidia-chip weer bijna dubbel zo groot.

Maar ja, ik weet ook wel dat een low-end chippie veel kleiner is. :P
Zo zal het nu ook weer gaan, de GT300 wordt groter dan 500mm2 (iets in de richting van 550 als ik het goed heb). Dan is de NVidia-chip weer bijna dubbel zo groot.
Als deze benchmarks kloppen zal het nu heel anders gaan. Ter vergelijking, de HD4870 (single chip) kwam in de buurt van de performance van GTX280. De HD4870 was een goede concurrent voor de GTX260. Ja, dan heeft NVIDIA een probleem, want AMD weet dus bijna 2x de perf/mm2 te halen.

Nu is die situatie omgedraaid (als deze benchmarks kloppen), en de GTX360 kan het in sommige gevallen kennelijk winnen van de dual-chip HD5970. Die is echt heel wat duurder om te maken dan de GTX360 hoor. De GTX380 heeft in deze benchmarks telkens rond de 50%(!!!) meer FPS dan de HD5870. Dat is een enorme winst, en dat maakt dat AMD het lastig gaat krijgen om hier uberhaupt mee te concurreren. De NVIDIA chip is tussen de 1,4 en 1,5 keer zo groot volgens huidige schattingen (RV870 is flink groot namelijk, met 334mm2), maar weet er wel de dual-chip kaart van AMD uit racen.
Maar ze kloppen dus niet, dus wat te vroeg om te zeggen wie van de twee er een probleem krijgt. :)
tenzij deze kaarten veel duurder worden als de huidige ATI kaarten.
ze zijn in ieder geval veel duurder om te maken. of nvidia ze ook voor veel meer gaat verkopen is de vraag.
maar als nivida deze kaarten prijzen in de buurt van de huidige prijs van ATI dan heeft ATI nog meer al voldoende ruimte om hun prijzen te verlagen.
Jij denkt dat 1 450-500mm2 chip duurder is dan 2 334mm2 chips op een veel complexer bord? Ik denk toch echt dat NVIDIA dit keer de touwtjes in handen heeft, als deze benchmarks kloppen.

[Reactie gewijzigd door Snoitkever op 14 december 2009 16:43]

Waarschijnlijk zal de gpu-fabrikant pas tijdens de CES, die begin januari plaatsvindt, de eerste officiŽle testresultaten vrijgeven
en dan heb je pas zo'n 3 tot 6 maanden daarna je kaart klaar, gedistribueerd en op voorraad bij je leveranciers en winkeliers liggen.

Tegen die tijd zijn de 58xx volop verkrijgbaar en gooit ati er een prijsverlaging tegen aan en weet nVidia nog niet waar ze het moeten zoeken, nVidia kaarten zijn gemiddeld genomen ook nog eens een factor 1.3 duurder, dus dan moet je meer te bieden hebben imho dan gelijkwaardige resultaten.
Waar zie jij gelijkwaardige resultaten? Ik zie een single-chip kaart die 8-20% sneller is dan de dual-chip kaart van AMD. Zelfs de tweede kaart (360) van NVIDIA zou volgens deze resultaten een goed alternatief zijn voor de top-kaart van AMD. Ik denk dat AMD degene is die maar beter bang kan worden, want hun 5970 is heel wat duurder om te maken dan de kaarten van NVIDIA.
Ja en weet je wat ik zie. Dat de 5890 bijzonder slecht schaalt tegenover de 5870 wat normaal gesproken niet het geval is. Je kunt hier wel faliekant Nvidia gaan staan verdedigen maar naar mijn idee is die grafiek zo fake als de Fermi die Jensen ons onlangs liet zien :D
Kijk even verder in de reacties hierboven en onder en dan zie je meerdere mensen die de HD5970 scores als correct bestempelen. De HD5970 schaalt dan ook behoorlijk slecht gezien het feit dat er 2 HD5870 chips in zitten. Zo'n 150% max (met een enkele uitschieter) in de benchmarks die ik heb gezien tot nu toe.

[Reactie gewijzigd door Snoitkever op 14 december 2009 23:41]

Zo ver gaat het niet duren. Meest optimistisch is begin februari lancering maar wel paper launch/lang slecht beschikbaar. Slechtere scenarios gaan naar begin maart of zelfs april en zelfs dan nog steeds een trage lancering.
Ik vermoed dat ze dit alleen maar online gezet hebben om de kerstverkoop van ATI een hak te zetten...
Verder vind ik het idd wel verdacht dat er enkel maar dx 10 benches worden meegegeven.
Eerlijk gezegd vind ik gewoon, mooie kleurtjes, maar we kunnen enkel maar afwachten.
Ondertussen vind ik het toch wel vet gamen met m'n 4890....
Ja dat denk ik ook.

Puur om mensen te laten afwachten en "nog" geen ATI kaart te bestellen.

Ik denk echter dat het voor de Nvidia mensen een kleine telleurstelling gaat worden. Zal vast weer een duur kaartje worden en ATI komt ook weer met iets nieuws/verbeterd.
Ik denk dat dat weinig invloed heeft door de leveringsproblemen, elke R870 die geproduceerd wordt wordt meteen verkocht. Misschien dat de wachtlijsten wat korter worden maar tot kerst zullen er zeker wachtlijsten zijn.

Misschien zet het mensen wel wat meer aan om te wachten met een nieuwe graka kopen, om de kaarten van de verschillende merken te kunnen vergelijken.
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True