Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 214, views: 44.869 •

Een Chinese site heeft de eerste review van de GeForce GTX 680 van Nvidia al online gezet. Naast details over de eigenschappen van de kaart verschenen benchmarks. Het lijkt erop dat de kaart zuiniger en iets sneller is dan de HD 7970 van AMD.

In de afgelopen maanden doken al veel specificaties en foto's van de nieuwe high-endkaart van Nvidia op, maar nu is ook de eerste review van de concurrent van AMD's Radeon HD 7970 verschenen.

De specificaties die eerder deze week verschenen worden nog eens bevestigd: De GTX 680 krijgt 1536 cudacores met een standaardkloksnelheid van 1006MHz, die bij grafisch veeleisende games of applicaties via GPU Boost verhoogd wordt naar 1058MHz. Er zijn bij de GK104-gpu op basis van de Kepler-architectuur dus meer cudacores dan bij de GTX 580 en dat komt omdat Nvidia 192 streamprocessors per sm-cluster gebruikt, die het nu overigens smx-eenheden noemt. Er zijn bij de nieuwe kaart acht van die clusters. Bij de gpu van de GTX 580 gebruikte Nvidia nog 16 sm-processorclusters met elk 32 cores voor een totaal van 512.

Nvidia GTX 680 HKEPC review

Er is 2GB gddr5 in de nieuweling en dat geheugen doet zijn werk op 1502MHz, effectief 6008MHz. De gpu communiceert via een 256bit brede bus, zodat de totale bandbreedte op 192GB/s uitkomt. Nvidia maakt gebruik van pci-e 3.0 en de kaart heeft hdmi, displayport 1.2 en een dl-dvi-duo. De tdp bedraagt 195W en de grafische kaart zal zijn energie via twee 6pins aansluitingen betrekken. De tdp ligt daarmee lager dan die van de HD 7970, die een tdp van 210W heeft.

Wat nieuwe features betreft ondersteunt 3D Vision Surround nu drie monitoren die rechtstreeks zijn aangesloten op een enkele videokaart, hoewel Hkepc het over een 3+1-opstelling heeft, waaruit opgemaakt kan worden dat er nog een extra beeldscherm toegevoegd kan worden dat niet direct onderdeel van de surround-opstelling uitmaakt. Ook is er een nieuwe anti aliasing-modus die Nvidia txaa noemt en is er ondersteuning voor een adaptieve vsync-optie. De die-size zou op 294mm² uitkomen en dat is minder dan de gpu van de HD 7970, die 365 mm² meet.

Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review

Ondanks de kleinere die-size en lagere tdp, scoort de GeForce-kaart bij veel benchmarks bij Hkepc beter, hoewel er nog maar weinig gamebenchmarks gedraaid werden. Bij 3DMark11, Heaven, Batman Arkham City en Lost Planet 2 scoort de kaart significant beter dan de HD 7970, maar sommige van deze benchmarks zijn ook echte Nvidia-benchmarks. Bij Battlefield 3 heeft de GeForce een lichte voorsprong en bij Call of Duty Modern Warfare 3 presteren de beide kemphanen identiek.

Hoewel het wachten is op meer benchmarks, lijkt het erop dat Nvidia met een zeer aantrekkelijke kaart gaat komen. Op 22 maart zouden meer reviews online moeten komen. Wel is het nog de vraag wat de beschikbaarheid en de prijs gaat worden. Wat dit laatste betreft: de Nederlandse webshop Comcom.nl bood een Zotac GTX 680 in de voorverkoop voor 507,18 euro aan, wat tot op dit moment de laagste prijs is die in de voorverkoop gevonden kon worden.  

Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review

Reacties (214)

Reactiefilter:-12140204+1111+216+31
1 2 3 ... 6
Geweldig! De concurrentie werkt weer, en binnenkort weer een kaart van AMD die eroverheen gaat :)
Wat een onzin.

De GPU bouwers leveren nu al tijden na elkaar snellere kaarten.

AMD is al jaren op de goede weg. En bij videokaarten zie ja al tijden dat de ene voorloopt dan de andere en dan weer de andere.

Daarnaast is n review van een vage chineese site niet het eerlijkst natuurlijk.
Helaas zijn ze niet zo sterk op het cpu vlak. Het laatste dat ik hoorde was over de prestaties van de FX-series die tegen vielen. Ach ja, ze hebben wel heel wat keren bang-for-your-buck cpus geleverd.
De stap naar 6-core cpu's zie ik niet zitten en will liever 2, 4, 8, 16 ipv 2,4,6,8,etc. The future will tell us more. Hoera voor de concurrentie!!
Waarom zie jij 6-cores niet zitten? AMD had ook al Triple-core CPU's op de markt gebracht, en ik kan me zo voorstellen dat meer cores op een CPU plaatsen niet zo makkelijk is.

On topic: Ik zie erg uit naar hoe de 600-serie het verder schopt, als ze het een beetje goed doen overweeg ik misschien nog wel een upgrade.:P
Triple Core's = Quad Core's waarvan men 1 disabled heeft dat niet deftig werkte.
Ik snap niet waarom jij gedownmod wordt, want dit is wel hoe AMD aan hun triple-core lineup komt.
The triple-core Rana is derived from the Propus quad-core design, with one core disabled.
bron
Omdat de nieuwe kaart van nVidia echt helemaal niks te maken hebben met de cpu's van Amd maakt niet uit of je gelijk hebt of niet.
niet helemaal waar vaak zijn de cores die uitgeschakeld zijn gewoon perfect en werken 100% maar er worden natuurlijk niet aparte 3 cores gebakken dus word er gewoon 1 uitgeschakeld.
Deze cores werken nooit 100% perfect. Je denkt toch niet dat ze een quad core als triple core gaan verkopen just for the hell of it? Zou een beetje vreemd zijn want je kosten zijn dan net zo hoog, maar je vraagt minder geld voor hetzelfde product..

Maar ze werken wel met enige regelmaat goed genoeg voor de gemiddelde consument om ze gewoon weer in te schakelen.
Vaak is 1 productielijn opzetten en producten labelen naar verschillende versies goedkoper dan 2 lijnen opzetten, je betaalt voornamelijk voor de licenties/onderzoek en het produceren is maar een laag % van de verkoop prijs.
Goede quad-cores zullen als triple cores verkocht worden als er behoefte is aan triple cores, de markt voor quad-cores verzadigd is en consumenten zodoende niet naar de concurrent gaan.
En de gemiddelde consument =.......
A. Wat heeft een GPU te maken met een CPU
B. Waarom raden Microsoft en Citrix AMD aan in een Terminal server omgeving en geen Intel? Omdat het beter schaald misschien (meer performance/prijs, performance/verbruik, betere schaalbaarheid bij veel geheugen)
C. Waarom raad VMware AMD aan in een ESX(i) server omgeving en geen Intel? Omdat het beter schaald misschien (meer performance/prijs, performance/verbruik, betere schaalbaarheid bij veel geheugen)
D. Waarom raad Microsoft AMD aan in een SQL server omgeving en geen Intel? Omdat het beter schaald misschien (meer performance/prijs, performance/verbruik, betere schaalbaarheid bij veel geheugen)

Dus what's the point?
Heb je hier ook een bron van, en dan graag een recentelijke niet een van jaren oud?
Ik kan hier namelijk na wat zoeken niets over vinden, en ben toch redelijk benieuwd naar de beweegredenen hier achter daar de meeste aanbevelingen die ik in het veld zie toch voornamelijk inte basedl zijn.
Misschien dat AMD bereid is (meer) geld op te hoesten voor een promo-praatje dan Intel?
Dat zou dan echt voor het eerst zijn.
@s0larus,
Je maakt de denk fout dat cpu's ook in machten van 2 moeten toenemen. Met meeste architecture maakt aantal niet uit zolang aantal door twee deelbaar is. Echter met sommige pc oplossing maakt dat zelf niet uit. In voorbeeld van triplecore, met 1 geheugen controller zit er geen penalty aan om oneven aantal cores te hebben.

1xxx series van AMD draait dus stuk sneller dan 9xx series. In enkele gevallen precies de 50% winst die je theoretisch kan halen.
Dat is het hem nou juist: ze zijn al jaren op de goede weg, maar een monster creren heb ik ze niet zien doen.
de hd6990 was geen monster? of de hd5970?

AMD kiest er bewust voor om geen gigantische GPU's te maken (geen monsters) en dat gaat ze heel goed af. Nvidia heeft er elke keer problemen mee gehad.

deze keer heeft nvidia ook een veel kleinere GPU gemaakt en ze kunnen gelijk beter concurreren.

edit bron:
http://venturebeat.com/20...th-a-sweet-spot-strategy/

http://hothardware.com/ar...1417/small_sweet-spot.jpg

maar WTF is up met 4 keer ongewenst?

[Reactie gewijzigd door Countess op 18 maart 2012 03:11]

bron dat ze dat niet bewust doen ?
ik denk dat ze dat gewoon niet kunnen en hetzelfde geld voor nvidia.

edit: tuurlijk mod maar weg maar waarom zouden ze bewust een tragere kaart uitbrengen terwijl ze de hele markt kunnen domineren wat voor een bedrijf als AMD geweldig nieuws zou zijn?

als ze beter hadden gekund hadden ze het gedaan kijk maar naar de nvidia 6800 en de 8800 dit waren bijde kaarten die van een compleet andere league waren dan die van de competitie en hetzelfde gold voor de radeon 9800 dat was een beest vergeleken met de 3400 TI van nvidia.

verder heeft nvidia wel voor de meeste game technieken innovatie gezorgd door deze monsters dat kan je van amd niet zeggen die hebben zo goed als niets toegevoegd aan gaming de laatste 10 jaar.

[Reactie gewijzigd door computerjunky op 17 maart 2012 20:53]

edit: tuurlijk mod maar weg maar waarom zouden ze bewust een tragere kaart uitbrengen terwijl ze de hele markt kunnen domineren wat voor een bedrijf als AMD geweldig nieuws zou zijn?
Omdat de toename in kosten groter is dan de toename in prestaties? Bij een grotere chip worden de yields slechter. Met een kleinere chip is het daarom eenvoudiger om een goede prijs/prestatie te behalen. En dan is een gigantische stroomslurpende ultra-high-end kaart wel leuk, maar als dat ding 700 euro kost wil niemand hem. Dat is waar AMD de laatste jaren goed mee heeft gescoord. Drie keer raden, de beste 8800-kaart was de 8800GT en dat was juist een veel kleinere chip dan zijn voorgangers als de 8800GTX, en hij was het populairste omdat hij goedkoper was. En ook de HD4800-serie maakte gehakt van de GT200, in die zin dat de marges voor AMD veel groter waren en NVidia de verkoop uiteindelijk gestopt is omdat ze de prijsverlagingen niet meer aankonden.

[Reactie gewijzigd door bwerg op 17 maart 2012 21:36]

Maar daarentegen had nVidia wel de snelste kaart toen. De GTX 285 liep rondjes om de HD4870 (maar voor het geld kon je er bijna 2 kopen).
geen idee wat de ati toen was qua prijs ik weet wel dat ik 330 euro voor mijn 285 betaald heb.
Maar daarentegen had nVidia wel de snelste kaart toen. De GTX 285 liep rondjes om de HD4870 (maar voor het geld kon je er bijna 2 kopen).
Da's leuk voor nVidia. Die dingen verkochten echter voor geen meter, zopen als een ketter en AMD ging daar met de 4870x2 gewoon alsnog overheen.

De "snelste kaart" is alleen leuk voor de E-peen, maar verder heb je er niet zoveel aan. Een Bugatti is ook vreselijk snel, maar ik zie er toch verdraaid weinig bij de C1000 op het parkeerterrein staan...

[Reactie gewijzigd door Seal64 op 18 maart 2012 09:00]

bron dat ze dat niet bewust doen ?
http://venturebeat.com/20...th-a-sweet-spot-strategy/

http://hothardware.com/ar...1417/small_sweet-spot.jpg

dat doen ze dus al sinds de hd3xxx serie.
edit: tuurlijk mod maar weg maar waarom zouden ze bewust een tragere kaart uitbrengen terwijl ze de hele markt kunnen domineren wat voor een bedrijf als AMD geweldig nieuws zou zijn?
'de hele markt' bestaan voor maar een HEEL klein deel uit mensen die 500 euro aan een videokaart uit geven. en daar hadden ze die dual-GPU kaarten voor. zo hoeven ze geen bakken met geld uit tegen om die paar mensen die 500+ euro willen uitgeven een single-gpu voor te schotelen.

[Reactie gewijzigd door Countess op 18 maart 2012 03:09]

Precies, AMD vond verbruik belangrijker dan een monster gpu, nVidia is nu ook die weg ingeslagen, met de 500 serie hadden ze al een goede stap wat betreft verbruik genomen en nu met kepler zitten ze al onder AMD.

Ze hebben lering getrokken uit het debacle met de 400 serie wat nVidia achterstand op AMD heeft opgeleverd.
prestatie is altijd key is ie trager verkoopt ie niet simpel zat mensen willen niet iets kopen wat trager is dan de vorige serie tenzij hij echt superzuinig is wat nog steeds niet het geval is.
Omdat ik, en ik ga er vanuit zo goed als iedereen hier. Dergelijke sites moeilijk tot niet kan controleren.

Omdat n review vaak weinig zegt. Ik zie er toch graag meerdere. Zelfs als het een review van Tweakers zelf is valt er te zeggen dat deze onbetrouwbaar is zeker als je de site niet goed kent zoal s hier met de chineese site het geval is.
De kaart van Nvidia is nog niet eens uit en dat betekent dus dat deze scores niet eens te vergelijken zijn. Pas als een review site of gebruiker gaat benchen kun je echt zeggen dat de n gehakt maakt van de ander :P

De TDP van 195 is best aardig voor de snelste single gpu :)
Pas als een review site of gebruiker gaat benchen kun je echt zeggen dat de n gehakt maakt van de ander
dat is dus nu al het geval, waarschijnlijk hebben ze gewoon ergens een NDA gebroken of kunnen omzeilen
Of het is een geensceneerd lek om alvast interesse voor de 680 te creeren die er nog niet is met geselecteerde benchmarks op een snelle 680 tegen een langzamere AMD op 925Mhz
Nvidia is tot nu toe steeds de latere partij, AMD loopt nu al geruime tijd op kop, introduceerd als eerste kaarten en zijn in de meeste gevallen ook sneller
De GTX 460 heeft een half jaar lang de mainstream-markt gedomineerd, waarop AMD pas (te) laat een antwoord op had met de introductie van de HD6850
Wat lul jij nou weer.

De 6800 serie was trager dan de 5800 serie dus de 5850 zat al op de 460 positie.
de hd5850 was regelmatig gelijk aan de gtx460 en regelmatig sneller. pas later met de gtx460 1GB kon nvidia altijd bij de hd5850 in de beurt blijven.

van enige dominantie is nooit spraken geweest.

[Reactie gewijzigd door Countess op 18 maart 2012 03:16]

Hopelijk zit de kaart qua prijs ook dicht bij de 7970, dan kunnen ze goed met elkaar gaan concurreren, wat voor de klant ook weer mooi uitkomt.
de Nederlandse webshop Comcom.nl bood een Zotac GTX 680 in de voorverkoop voor 507,18 euro aan
Kom in de buurt inderdaad.
over het algemeen zijn ze een euro of 30 duurder maar persoonlijk heb ik dat er voor over vanwege physx.
veel vinden physx niks maatr ik vind en een feature die ik als serieuze gamer moet hebben omdat het effecten toevoegd.
en de stille dood die het volgens vele zou sterven is er nog steeds niet en er worden nog steeds aardig wat games mee gereleased.

zo ben ik benieuwd wat ik gemist heb in batman mass effect 3 en een aantal andere games die ik het afgelopen jaar gespeeld heb.

maarja to the point een paar maanden na de release zullen ze wel rond de prijs zitten waar nu de 7970 zit (al is die dan natuurlijk meegezakt tenzij de euro/dollar nog slechter word).

[Reactie gewijzigd door computerjunky op 17 maart 2012 20:06]

over het algemeen zijn ze een euro of 30 duurder maar persoonlijk heb ik dat er voor over vanwege physx.
veel vinden physx niks maatr ik vind en een feature die ik als serieuze gamer moet hebben omdat het effecten toevoegd.
en de stille dood die het volgens vele zou sterven is er nog steeds niet en er worden nog steeds aardig wat games mee gereleased.

zo ben ik benieuwd wat ik gemist heb in batman mass effect 3 en een aantal andere games die ik het afgelopen jaar gespeeld heb.
Serieus, jij zegt als gamer dat PhysX belangrijk is ? De games die PhysX gebruiken en waard zijn om te spelen zijn op 1 hand te tellen.

Mass Effect 3 gebruikt trouwens helemaal geen PhysX ?

Ontopic:

Mooi om te horen van Nvidia's nieuwe generatie, concurrentie is altijd goed voor de consument.
voor mij persoonlijk als gamer vind ik het iets dat ik moet hebben.

en ja mass effect 3 gebruikt wel physx vraag me niet wat het doet aangezien ik nu als noodgeval een 6870 heb.

verder is het aantal games dat jij interesant vind met physx mischien anders dan het aantal games dat jij interesant vind.

[Reactie gewijzigd door computerjunky op 17 maart 2012 20:54]

Buiten wat grafische tierelantijntjes voegt PhysX niks toe aan een game. Buiten dat is het doodzonde dat er gebruikt wordt gemaakt van Nvidia tech terwijl er ook gewoon een prima open-source variant is (OpenCL). Gameplay-technisch kunnen ontwikkelaars dus eigenlijk niks qua PhysX toevoegen omdat je dan een flinke doelgroep (AMD) buitensluit en dus mogelijk inkomsten misloopt. Daarom is het nu voornamelijk een leuk marketing dingetje dat wat grafische extra's toevoegt.

En om eerlijk te zijn: ik hoef als gamer niet perse wat extra rondvliegende stukjes puin of wat mooier wapperende vlaggetjes op mijn scherm te zien. Zker niet als dat betekend dat ik f een flinke Nvidia kaart moet hebben of een AMD kaart met daarnaast een 8800 ofzo voor de PhysX.

Hier overigens een overzicht van games die PhysX ondersteunen met daarbij wat het toevoegt. Ik word persoonlijk niet warm van, voornamelijk omdat maar 5 van de uitgekomen games boeiend waren voor mij.
Buiten wat grafische tierelantijntjes voegt PhysX niks toe aan een game.
99% van de GPU features gebruikt door games zijn "grafische tierelantijntjes"
helemaal mee eens zonder al die extratjes die de afgelopen 15 jaar toegevoegd zijn zouden we nog steeds pong spelen on 2 ''kleuren''

verder ben ik niet een 100% voorstander van physx omdat er alternatieven zijn die op bijde merken kaarten werken (opencl/tesselation en ga zo maar door).

maar zolang dat niet gebruikt word is voor mij persoonlijk physx belangerijk omdat ik geniet van de tierelantijntjes.
Mass effect 3 gebruikt geen PhysX

Bron: http://www.geforce.com/Hardware/Technologies/PhysX/games

[Reactie gewijzigd door JB98 op 17 maart 2012 22:09]

dat is mass effect 1 :)

de aanwezigheid van PhysXExtensions.dll en het feit dat physx geinstaleerd word bij mass effect 3 verteld mij dat het er wel in zit :)
vreemd dat het nergens te vinden is dan,

niet op de wikipage van mass effect 3 zelf: http://en.wikipedia.org/wiki/Mass_Effect_3
maar ook niet op de wikipedia lijst met spellen die physx ondersteunen: http://en.wikipedia.org/wiki/PhysX
Nergens, als het niet op wiki staat? Dan voeg je het desnoods zelf toch even toe... :Y)
je kan Physx berekeningen ook door je CPU laten doen, dus je comments dat nVidia als enige physx ondersteunt heeft al geen waarde meer.
alleeen hebben de meeste cpu's niet voldoende rekenkracht voor physx e niet alle games lijken cpu physx te ondersteunen.
Ook is er een verschil tussen physics en Physx. Spellen kunnen best gebruik maken van OpenCL of Havok waardoor deze door Amd en nVidia versneld worden. Als het spel specifiek van de nVidia physics engine (Physx) gebruik maakt dan werkt deze versnelling alleen op nVidia kaarten, de effecten worden anders door de 'tragere' cpu afgehandeld. Hoe dan ook ziet het spel er hetzelfde uit.
Ikzelf ben Masterstudent Informatica - Multimedia en ben met dit soort zaken bezig. Je hebt het echter mis: PhysX is maar 1 van de vele libraries waarmee je physics kunt simuleren.

Amdkaarten kunnen dus perfect physics simuleren. Alles wat in PhysX zit, kun je ook met andere libraries zoals Havok of Newton doen, met als voordeel dat je dan niet aan een enkele kaart gebonden zit. Meer zelfs: zowat iedere game tegenwoordig maakt gebruik van een physicssimulatie. Alleen zijn de meeste ontwikkelaars niet zo stom om daar PhysX voor te gebruiken, want dan sluit je een heel grote doelgroep uit.

Hopelijk zorgt dit ervoor dat het fabeltje over physics en nvidia de wereld uit verdwijnt. Ikzelf raad personlijk amd aan, aangezien je vaak voor een veel lagere prijs een amdkaart met betere prestaties of ongeveer gelijkwaardige prestaties kunt kopen. Enkel voor gpgpu toestanden is nvidia voorlopig nog de beste van de 2 + nvidia heeft zijn documentatie en drivers meestal beter inorde. Voor physics hoef je het echter niet te doen

EDIT: tedades was mij al voor

[Reactie gewijzigd door Moonsurfer_1 op 18 maart 2012 14:27]

Blijkbaar dachten we er hetzelfde over ;)

Ik kocht altijd nvidia kaarten omdat deze vroeger standaard mijn stereoscopische brilletje ondersteunde en redelijke linux drivers hadden. Tegenwoordig zou een AMD kaartje voor mij ook kunnen, hoewel ik mij dan af en toe uitsluit van specifieke nVidia toepassingen.
Daarnaast is de 680 mogelijk sneller maar alle 'kleinere' kaarten uit de 6xx serie zijn mogelijk even snel of soms trager dan de AMD varianten.
Ik hoop dat de prijs van deze kaart dan ook relatief tot het "iets sneller en iets zuiniger" "iets duurder" is, dan concurreren ze ook nog met AMD. Naar mijn idee waren de verhoudingen van de GTX 580 tot de r6970 een beetje zoek...

edit: ik bedoelde de r6970 ook eigenlijk, domme vertyping

[Reactie gewijzigd door NinjaTuna op 17 maart 2012 19:00]

Een GTX580 en een HD6950 zijn ook helemaal geen kaarten van hetzelfde kaliber... dus dat daar 'geen verhoudingen' in zitten is niet meer dan logisch. De GTX560 had eigenlijk de concurrent voor de HD6950 moeten zijn maar redde het niet, de GTX560ti daarentegen zijn erg gewaagd aan de HD6950... sterker nog, benchmark resultaten zijn vaak om en om bij die kaarten... en van beide kaarten zijn volop versies te krijgen die zelfs makkelijk met de grotere broers mee kunnen komen,

Edit: Idd, je hebt gelijk... ik had de boel even achterstevoren in het hoofd zitten. 8)7 Maar goed maakt verder niet uit, een GTX580 is geen gelijke van een HD6950... that's my point :)

[Reactie gewijzigd door MicGlou op 17 maart 2012 18:15]

De GTX560 Ti en de HD6950 zijn inderdaad aan elkaar gewaagd, maar de Ti was er vr de normale variant, dus hoezo "had eigenlijk de concurrent voor de HD6950 moeten zijn maar redde het niet," ?

Volgens eerder nieuws:
nieuws: Nvidia brengt GTX 560 in stelling tegen HD 6790


Los daarvan, zoals nog steeds blijkt bij beide fabrikanten is dat drivers een behoorlijke performance/benchmark impact hebben. Early benchmarks zijn daarom wel interessant, maar misschien dat zowel Nvidia als AMD nog optimalisaties uitvoeren waardoor posities worden verbeterd of omgedraaid...

[Reactie gewijzigd door C0rnelis op 17 maart 2012 18:05]

Dan nog, de HD6970 staat tegenover de GTX570, niet de 580.
ben benieuwt hoe die in het echt gaat scoren
zit wel te kijken voor een nieuwe kaart dus
Ziet er goed uit! Benieuwd wat hij gaat kosten. ;)
Ziet niet slecht uit, en prijsvergelijking met de 7970 is zeker niet slecht.
Ziet er inderdaad aantrekkelijk uit, ik ben ook zeer benieuwd hoe de kaarten van verschillende fabrikanten eruit gaat zien. De prijs van 500 euro is nog niet bepaald een koopje maar zeer aantrekkelijk voor de prijs, namelijk dat de kaart best zuinig is.
Men moet niet vergeten dat er voor de 680 nog geen geoptimaliseerde Drivers zijn. Dus dat hij in sommige test maar net sneller of gelijk is zegt nu nog niet veel.

Daarbij denk ik dat een overgeklokte 680 verder weg loopt dan een overgeklokte 7970 in dezelfde benchmark. Maar goed, dat zullen we nog wel zien.
Zijn de huidige drivers van de 7970 wel al een beetje op de goede weg? (gewoon een vraag). Anders zou daar natuurlijk ook nog wel wat winst uit te halen zijn.
Je mag toch wel aannemen dat de drivers van een kaart die al een aantal maanden op de markt is volwassener zijn dan die van een kaart die nog niet eens te krijgen is.
Ben vooral benieuwd wat al deze nieuwe CUDA-cores gaan betekenen voor de GPGPU applicaties... Ik watertand al bijna als ik bedenkt wat voor impact dit heeft op de Distributed Computer projecten die nVidia kaarten ondersteunen (zoals PrimeGrid).
Ik hoop vooral dat ze niet te hard snijden in de double-precision capaciteit (64-bit), want dat doet AMD helaas wel. De 7800-serie heeft dat op 1/16e van 32-bit power staan, de 7900-serie op 1/4. Da's nogal even een verschil, dat zeker voor de power-user vervelend kan zijn.
Distributed computing hangt vooral af van de ondersteuning van de kaarten, en die wil nogal eens te wensen overlaten (ofwel de snelheidswinst is beperkt, ofwel de implementatie is maar voor 1 type kaart)... Als OpenGL een beetje aanslaat is dat probleem ook nog wel een keer opgelost. Echter zal NVidia daar CUDA voor moeten opgeven, en of ze daar veel zin in hebben...
Ik hoop dat ze de CUDA-cores NIET opgeven, daar mijn videoprogs daar wel degelijk gebruik van maken, en met succes (Adobe - Corel)
Maar raar dat ze bij battlefield zo gelijk presteren terwijl er bij lost planet zo'n enorm verschil tussen zit... Doet er erg aan denken dat bij de gelijk presterende benchmarks niet de kaarten de bottleneck waren. Zou erg jammer zijn dat ze bij de eerste review van deze kaart dan zo onzorgvuldig de performance vergelijken
Dat benchmarks naar elkaar toe kruipen heeft niet altijd direct wat te maken met de gebruikte CPU. Er zijn ook spellen die het bij bepaalde technieken (relatief) beter doen bij bijvoorbeeld de 5xx serie of bij AMD, en andersom. Hangt maar net van het spel af. Ik mag toch hopen dat nVidia (of elke andere benchmarker voor mijn part) een systeem neemt met een dermate sterke CPU dat echt de ruwe kracht van de GTX680 naar voren komt...
het is algemeen bekend dat BF3 de cpu veel meer belast dan vele andere games, benchen met een i7 2600K (met oc) is dan ook een minimale vereiste (in de veronderstelling dat mensen die deze kaarten kopen ook een dergelijke setup hebben)

[Reactie gewijzigd door catfish op 17 maart 2012 21:30]

Uiteraard zit er altijd verschil tussen games wat niet direct met de CPU te maken heeft, echter als er tussen 2 recente game benchmarks zo veel verschil zit (1 blijft duidelijk achter en op de rest draaien ze gelijk) dan wijst het al snel op een andere bottleneck als de gpu. Zeker als het bij een spel is waarbij het bekend is dat van de CPU veel word gevraagd.

Het is afwachten op andere benchmarks maar het zou me niets verbazen dat je later ziet dat de GTX680 bij battlefield toch een hogere score weet te halen in een pc met een zwaardere cpu
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneMobiele besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013