1. Laagste prijs
    Niet beschikbaar
    Prijsalert ontvangen zodra er een prijs is?
  2. Kenmerken | Gebruikersreviews
  3. Willen (0) Hebben (1)

Bekijk alle reviews

Point of View GTX 680 Review

7 juni 2012, laatste update op 7 juni 2012, 2.355 views Rapporteer
+3

Inleiding In december kwam AMD met de Radeon HD 7970, Daarmee namen ze het stokje van nVidia over als fabrikant van de snelste single gpu videokaart. De HD 7970 was niet alleen sneller dan de GTX 580 van nVidia, ook was de Radeon HD 7970 de eerste videokaart met een chip die gebakken was op 28nm. Ook was AMD de eerste met een PCI-E 3.0 interface en zo ook de eerste met ondersteuning voor DirectX 11.1. Natuurlijk was het wachten op een antwoord van nVidia op de Radeon HD 7970. Het antwoord van nVidia waar iedereen op wachtte bleef lang uit, maar sinds een tijd is die er nu als de GTX 680, een nieuwe videokaart gebaseerd op nVidia's nieuwe 28nm GK104 GPU. Die nieuwe GTX 680 is totaal anders dan nVidia voorheen deed met hun...

Pluspunten

  • Preformance
  • 3D Support
  • Eindelijk meer dan twee schermen op een nVidia kaart
  • Looks (Blijft persoonlijk)
  • Driver support
  • Featureset
  • Stroomverbruik
  • Reference koeler

Minpunten

  • Prijs hoger dan HD 7970 (op moment van schrijven)
  • GTX 670 in het achterhoofd
  • Maximaal 4 schermen op een enkele nVidia kaart t.o.v. 6 bij AMD
  • Verkrijgbaarheid
  • Nog weinig preformance updates in driver updates

Eindoordeel

5 van 5 sterren (Uitstekend)
http://i1191.photobucket.com/albums/z475/Coolreinoudnl/nvidia-2.jpg?t=1339017130

Inleiding

In december kwam AMD met de Radeon HD 7970, Daarmee namen ze het stokje van nVidia over als fabrikant van de snelste single gpu videokaart. De HD 7970 was niet alleen sneller dan de GTX 580 van nVidia, ook was de Radeon HD 7970 de eerste videokaart met een chip die gebakken was op 28nm. Ook was AMD de eerste met een PCI-E 3.0 interface en zo ook de eerste met ondersteuning voor DirectX 11.1. Natuurlijk was het wachten op een antwoord van nVidia op de Radeon HD 7970. Het antwoord van nVidia waar iedereen op wachtte bleef lang uit, maar sinds een tijd is die er nu als de GTX 680, een nieuwe videokaart gebaseerd op nVidia's nieuwe 28nm GK104 GPU.

Die nieuwe GTX 680 is totaal anders dan nVidia voorheen deed met hun topmodellen. nVidia vond voorheen dat alles draaide om prestaties en dat stroomverbruik en geluidsproductie niet belangrijk waren. Nu gooit nVidia het roer compleet om, de nieuwe 600 serie moet volgens nVidia voornamelijk efficiënt zijn.

Uiteraard heeft nVidia niet bezuinigd op de prestaties, de kaart is toch weer een aardige stap vooruit ten opzichte van de GTX 580. De GTX 680 maakt ook gebruik van een turbo-functionaliteit (die een beetje te vergelijken is als Intel's Turboboost), een nieuwe anti-aliasing systeem (FXAA) en de mogelijkheid om vier monitoren op één videokaart aan te sluiten.

GK104 chip

De GTX 680 is gebaseerd op de GK104 GPU. Deze GPU komt uit nVidia's Kepler generatie. Deze GPU is, net als AMD's Tahiti GPU's, gebakken op basis van 28nm transistors. Wie de geruchten over nVidia's videokaarten de afgelopen maanden heeft gevolgd, zal weten dat de GK104 ten eerste was bedoeld voor nieuwe mid-range videokaarten. De GK110 stond op de planning als nieuwe high-end chip die de opvolger van de GF110 chip, wel bekend van de GTX 580. Waarom de GTX 680 niet met GK110 chip uitgerust is weten we tot op de dag van vandaag nog steeds niet. Waarschijnlijk zal nVidia het niet gelukt zijn de GK110 met goede batches te kunnen produceren. Misschien komt de GK110 later nog terug als een GTX 685 of GTX 780. De 'mid-range' GK104, die oorspronkelijk dus voor een 'GeForce GTX 660 Ti'-achtige videokaart bedoeld was, bleek veel beter te presteren dan nVidia voor deze kaart in gedachte had. Zo goed zelfs dat nVidia zelfs met deze minder complexe GPU de prestaties van AMD's Tahiti GPU; de HD 7970 kan verbeteren!

De GK104 is een op 28 nm gebakken chip met 3.540.000.000 (3.54 miljard) transistors. Ter vergelijking: de 40nm gebakken GF110 GPU van de GTX 580 had er ongeveer 3 miljard. AMD's Tahiti GPU van de HD 7970 heeft nog meer transistors: 4,3 miljard. De GK104 bestaat verder uit 1536 cores, ofwel Cuda Cores zoals nVidia ze noemt. Dat zijn er drie keer zoveel dan in de GF110 chip. De GK104 heeft een 256-bit geheugenbus. Dat is een stapje terug ten opzichte van de GF110, maar begrijpelijk als je bedenkt dat de chip voor mid-range kaarten ontwikkeld is.

http://hothardware.com/articleimages/Item1819/small_gtx-680-die.jpg
De GK104 Chip

De werking van SMX

De GF110 chip van de GTX 580, die bovendien weer gebaseerd was op de GF100 van de GTX 480, bestond uit 16 Streaming Multiprocessors, Die bestonden elk uit 32 (Cuda) cores. Alle cores in één zo'n Streaming Multiprocessor (SM) voeren op ieder moment een zelfde instructie uit op andere data. De cores binnen de GF110 waren flink opgevoerd en draaide op de dubbele snelheid van de standaard klokfrequentie van de GPU. Zo was de standaard frequentie van de GTX 580 772 MHz en werkten de Cuda cores ofwel shader units dus op 1544 MHz.

Bij de nieuwe Kepler generatie heeft nVidia haar architectuur omgegooid. De streaming multiprocessors bestaan voortaan uit 192 (Cuda) cores, waarbij nVidia het nu over SMX in plaats van SM heeft. Wel is het zo dat elk van de cores binnen een SMX op elk moment in tijd dezelfde instructie uitvoert. Met blokken van 192 cores is nVidia misschien wel iets minder flexibel, de aansturing van de chip kan wel een stuk simpeler werken wat een belangrijk is voor een efficiëntere werking. De cores binnen zo'n SMX werken voortaan op de standaard klokfrequentie in plaats van de dubbele snelheid van de GPU. De GK104 heeft 8 SMX-units. Het totale aantal cores komt dus neer op 1536. Als je meerekent dat de cores niet langer op dubbele klokfrequentie werken zoals bij de GF110, heeft de GK104 op gelijke klokfrequentie in theorie dus 50% meer rekenkracht dan de GF110. In de praktijk werkt het helaas wat anders. Het feit dat je met 8 x 192 cores wat minder flexibel bent met instructies verdelen dan met 16 x 32 cores, Daarnaast is de geheugenbandbreedte lager als bij de GF110. Dat maakt dat het gemiddelde prestatieverschil tussen de GTX 680 en de GTX 580 wel wat lager is.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/GeForce_GTX_680_Block_Diagram_FINAL.png
De GK104 chip met 8 SMX-units met elk 192 Cuda cores.

Naast de 192 Cuda cores bevat elke SMX-unit ook nog een tesselation unit en 16 texture units. Elke SMX unit bevat 64 kB cache-geheugen waarmee de verschillende (Cuda)cores data kunnen uitwisselen. In het midden van de chip vinden we een groot stuk L2-cache, wat als toegangspoort tot het geheugen functioneert. De geheugencontroller aan de randen van de GPU (4 x 64-bit) is uiteraard geschikt voor GDDR5 chips.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/sm-vs-smx-1.jpg?t=1339015988
SMX vs. SM units

De Specificaties

De GK104 chip vormt dus de basis van de GeForce GTX 680 videokaart. De GPU werkt standaard op 1006 MHz, maar dankzij de GPU Boost zal de GPU in vrijwel alle gevallen sneller werken.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/POV-Point-of-View-GTX680-NVIDIA-Graphics-Card-1.jpg?t=1339016109
Een Reference GTX 680 van Point of View, die in deze review word gebruikt

De GTX 680 is standaard voorzien van 2048 MB GDDR5-geheugen, werkend op 1502 MHz. Dat is extreem snel, zeker als je bedenkt dat het geheugen bij de GTX 580 op 1002 MHz werkte. We mogen eigenlijk al de conclusie trekken dat de stap van 384-bit terug naar 256-bit geheugen wordt gecompenseerd door de verhoogde klokfrequentie. De kaart heeft een maximaal TDP van 195 watt. Voor nVidia ongekend! de TDP van de GTX 580 bedroeg namelijk 244 watt. Hierdoor heeft de GTX 680 ook voldoende aan twee 6-pin PCI-E (PEG) connectors. De connectors zitten boven elkaar en dus niet naast elkaar op de kaart. Doordat de ene connector net wat dieper zit dan de andere, kun je erg eenvoudig twee kabels aansluiten.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/gtx680-power-plugs.jpg
De PEG connectors van de GTX 680

nVidia's referentiekaart heeft twee DVI aansluitingen, één HDMI aansluiting en één DisplayPort 1.2 aansluiting. Alle aansluitingen zijn ook daadwerkelijk allemaal tegelijk aan te sluiten. Het is dus mogelijk om meer dan twee monitoren op een enkele nVidia kaart kunt aansluiten! De HDMI-uitgang is geschikt voor wat AMD Fast HDMI noemt, waardoor er dus 4K-resoluties aangestuurd zouden kunnen worden. nVidia wil echter voor alsnog de term Fast HDMI niet over nemen. Uiteraard heeft de GTX 680 twee SLI-connectors behouden. SLI, Triple SLI en Quad SLI zijn dus allemaal mogelijk.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/web-geforce_gtx_680_f_no_thermal.jpg?t=1339016170
Het Reference PCB van de GTX 680

De nieuwe trick van nVidia; GPU boost

Hiervoor schreef ik al dat de standaard klokfrequentie van de GeForce GTX 680 1006 MHz bedraagt. In de praktijk zal de GeForce GTX 680 zelden op precies deze klokfrequentie draaien. Een nieuwe technologie die nVidia GPU Boost noemt zorgt ervoor dat de GPU sneller gaat werken als dat gewenst is en juist langzamer wanneer dat mogelijk is. GPU Boost is vergelijkbaar met bijvoorbeeld Intels Turbo Boost. De GPU meet constant het stroomverbruik en de temperatuur van de GPU. Mocht het volgens beide waardes mogelijk zijn, dan wordt de klokfrequentie in kleine stapjes opgehoogd. nVidia doet geen officiële uitspraken over de maximale klokfrequentie die dankzij GPU Boost behaald wordt. Wel word er gesproken van een Boost Clock,wat min-of-meer mogen de klokfrequentie is die in de meeste gevallen minimaal behaald zal worden. Die Boost Clock bedraagt bij de GeForce GTX 680 1058 MHz. In de praktijk zul je ook GPU Boost klokfrequenties tot 1110 MHz zien. Dit zorgt GPU-boost ervoor dat de videokaart bijna altijd tegen z'n TDP-waarde aanzit; de voorgenoemde 195watt.

GPU Boost werkt echter ook andesom. Als er slechts een beperkte hoeveelheid rekenkracht van de GPU gevraagd wordt en de GPU de benodigde prestaties kan behalen met een lagere kloksnelheid, dan schakelt de kaart zichzelf terug om stroom te besparen. Dit zie je bijvoorbeeld gebeuren met de Frame Rate Target optie, deze vind je onder meer in de EVGA Precision overkloksoftware. Hiermee kun je bijvoorbeeld aangeven dat de GPU 60 beelden per seconde te berekenen en niet meer. Er wordt dan niet langer energie verbruikt aan frames die je toch niet zult zien.

http://www.youtube.com/wa...er_embedded&v=IV53YpXHeVk
Introductievideo van de GTX 680 (Skip naar 0:35 voor uitleg van de Turboboost)

TXAA en Adaptive Vsync

Eén van de nieuwe features die de GeForce GTX 680 bied is een nieuwe anti-aliasing methode die nVidia TXAA noemt. TXAA is een combinatie van hardwarematige anti-aliasing en een filtermethode van verschillende sample-posities voor achtereenvolgende frames. Hierdoor kun je met minder verlies van frames een gelijk resultaat krijgen dan de zwaarder belastende MSAA anti-aliasing.

http://content.hwigroup.net/images/articles/txaa-demo.gif
Het resultaat van TXAA vs. MSAA

TXAA heeft ongeveer hetzelfde frameverlies als 2x anti-aliasing volgens de standaard multisampling methode (MSAA). Volgens nVidia behaald TXAA een kwaliteit vergelijkbaar met 8x MSAA. Helaas is TXAA iets wat door games ondersteund moet worden. Wel zal in de toekomst dit geforceerd kunnen worden via het controlepaneel van nVidia. Gamedevelopers zoals Epic en Crytek zijn twee belangrijke namen uit een lijstje van ontwikkelaars die support voor TXAA in toekomstige games hebben aangekondigd. Hoewel TXAA vooral een softwarematige gimmick is, komt de technologie niet beschikbaar voor de vorige generatie nVidia-kaarten.

3D Vision Surround en NVENC

Met de GTX 680 is het voor het eerst mogelijk gemaakt om meer dan twee schermen met één videokaart aan te sturen. Onder de naam EyeFinity biedt AMD al sinds de Radeon HD 5000 serie die in 2009 op de markt kwam de mogelijkheid om zes schermen aan te sturen. Het heeft dus 2.5 jaar en twee generaties sinds dien geduurd voordat nVidia hetzelfde implementeerde in hun kaarten. Wel is er een verschil: waar AMD tot zes schermen ondersteunt, gaat nVidia maar tot maximaal vier schermen. Voor de meeste gamers is dat prima, gamen op drie schermen is erg prettig, maar gamen op zes juist niet, aangezien je dan een rand in het midden hebt. Hetzelfde geld voor vier schermen. Er is uiteraard wel een voordeel van nVidia's implementatie. DisplayPort is geen must om meer dan drie schermen te gebruiken. Je kunt dus op een GTX 680 zonder extra verloopkabels drie standaard DVI-monitoren aansluiten: twee via DVI en één via de HDMI-uitgang. Ook is de GTX 680 geschikt voor het aansluiten van drie nVidia 3D Vision schermen. Ook 3D-beelden met drie schermen behoort dus tot de mogelijkheden.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/3dvision.jpg
Eindelijk! Gamen op drie schermen met een enkele nVidia kaart.

Een laatste nieuwe feature die even gemeld moet worden is dat nVidia net als AMD een hardwarematige H.264 encoder in haar GPU heeft ingebakken, deze noemt men NVENC. Deze encoder moet volgens de fabrikant 1080p HD-video tot 8x sneller dan zonder deze functie kunnen coderen. Simpelweg: een film van twee uur is hiermee in 15 minuten te encoderen. De encoder is onder meer geschikt voor H.264 Base, Main en High Profile en kan ook MVC (Multiview Video Coding) 3D-videos coderen. nVidia heeft een samenwerking aangekondigd met ontwikkelaars van video software om de encoder daarin beschikbaar te maken. Makers van software als Cyberlink zal ondersteuning bieden voor NVENC in hun volgende versies van hun software.

Benchmarks

De GeForce GTX 680 word getest met een Intel Core i7 2600k werkend op 4.4GHz, deze CPU draait op een ASUS Maximus IV Extreme-Z in combinatie met een 128GB Crucial m4, dit alles zit in een Corsair Obsidian 800D. Zelf beschik ik alleen over een GTX 680, Benchmarks van andere kaarten komen van een vergelijkende review, deze review gebruikt ongeveer dezelfde hardware als die ik gebruik, en is dus ongeveer vergelijkbaar met mijn scores.

http://i1191.photobucket.com/albums/z475/Coolreinoudnl/metro_2033_logo-1.jpg?t=1339058814

Metro 2033 wordt vaak vergeleken met spellen als Stalker of Fallout 3, maar een dergelijke vergelijking doet geen recht aan de drie games. Fallout 3 is voornamelijk een rpg en de Stalker-games zijn free-roaming shooters met een rpg-tintje. Metro 2033 is daarentegen een ouderwetse first person shooter met een flinke dosis horror, die ons nog het meest aan FEAR doet denken. De reden waarom Metro soms met Fallout 3 wordt vergeleken, ligt met name in de post-apocalyptische wereld waarin het spel zich afspeelt.

Settings:
  • DirectX 11
  • AAA
  • 16x AF
  • Global settings = High
  • PhysX = On
Frames per Second (hoger is beter)
Point of View GTX 680 86
ASUS GTX 590 78
ASUS GTX 580 Direct CU II 53
ASUS GTX 570 Direct CU II 45
XFX HD 7970 Black Edition 72
Sapphire HD 7950 OC 68


http://i1191.photobucket.com/albums/z475/Coolreinoudnl/BatmanArkham-City-1.jpg?t=1339058733

In Batman: Arkham City neemt Batman het opnieuw op tegen de gestoorde Joker, die samen met zijn handlangers de stad Gotham City terroriseert. Er is inmiddels een jaar verstreken sinds de gebeurtenissen uit het vorige deel, Batman: Arkham Asylum, en de gevangenen hebben nu vrij spel in de stad. Het is aan Batman om de straten van Arkham weer te ontdoen van al het gespuis. Terwijl hij waakt over de stad, raakt hij verwikkeld in een plan van schurk Two-Face om Catwoman te vermoorden.

Settings:
  • DirectX 11
  • 4x MSAA
  • 16x AF
  • Global settings = Very High
  • PhysX = off
Frames per Second (hoger is beter)
Point of View GTX 680 98
ASUS GTX 590 94
ASUS GTX 580 Direct CU II 76
ASUS GTX 570 Direct CU II 66
XFX HD 7970 Black Edition 88
Sapphire HD 7950 OC 86


http://i1191.photobucket.com/albums/z475/Coolreinoudnl/Battlefield3-1.jpg?t=1339058763

De Battlefield-serie draait om episch grote online veldslagen. Met 63 medespelers door een gigantische map rauzen, vijandelijke bases platbombarderen met een jachtbommenwerper en samen met je squad bikkelen om controlepunten in handen te krijgen. Bij Battlefield 3 is dit niet anders, al heeft ontwikkelaar DICE deze keer ook zijn pijlers gericht op een singleplayer. In vrijgegeven gameplaybeelden zagen we kapotgeschoten stadscentra, waar het zonlicht door scheuren in muren priemde en waren we getuige van een hele tankdivisie die door een uitgestrekte woestijn scheurde. Het is een onderdeel van de game waar niet om heen kunnen, maar Battlefield 3 laat zich toch vooral zien met zijn geniale multiplayer.

Settings:
  • 4x AA in CP
  • 16x AF in CP
  • Game settings = High
Frames per Second (hoger is beter)
Point of View GTX 680 96
ASUS GTX 590 81
ASUS GTX 580 Direct CU II 68
ASUS GTX 570 Direct CU II 61
XFX HD 7970 Black Edition 81
Sapphire HD 7950 OC 74


http://i1191.photobucket.com/albums/z475/Coolreinoudnl/Unigine_heaven_pic-1.jpg?t=1339058849

Heaven Benchmark is een DirectX 11 GPU benchmark gebaseerd op de UNIGINE game engine. De benchmark laat de betoverende magie van drijvende eilanden met een klein dorpje dat verscholen ligt in de bewolkte hemel zien. De Interactieve modus biedt nieuwe ervaring van het verkennen van de ingewikkelde wereld van steampunk. Heaven Benchmark is de eerste DirectX 11 benchmark die uitgebracht werd. De originele versie werd vrijgegeven op het moment van de lancering van Microsoft Windows 7 in oktober 2009.

Settings:
  • 8x AA
  • 16x AF
  • Shaders = High
  • Tesselation = Extreme
  • Measurement = FPS
Frames per Second (hoger is beter)
Point of View GTX 680 53
ASUS GTX 590 47
ASUS GTX 580 Direct CU II 36
ASUS GTX 570 Direct CU II 30
XFX HD 7970 Black Edition 43
Sapphire HD 7950 OC 41


http://i1191.photobucket.com/albums/z475/Coolreinoudnl/Dirt-3-1.jpg?t=1339058788

DiRT 3 is heerlijk ongenuanceerd plezier in de modder, door de sneeuw en op het asfalt. Plezier met de hoofdletter P. En in de meest heerlijke bolides uiteraard. Er is een familieverpakking opengetrokken vol met iconische klassiekers en hedendaagse kilometervreters met een paar honderd PK onder de motorkap. Van de Ford RS200 uit de Group B-categorie en de klassieke Mini Cooper 1275S tot de nieuwe Ford Fiësta uit het rallykampioenschap van dit jaar. Om de nieuwigheid snel van deze wagens af te krijgen, zijn er meer dan honderd evenementen beschikbaar om vol gas doorheen te rossen.

Settings:
  • 8x AA
  • 16x AF in CP
  • Ultra Settings
Frames per Second (hoger is beter)
Point of View GTX 680 113
ASUS GTX 590 102
ASUS GTX 580 Direct CU II 75
ASUS GTX 570 Direct CU II 61
XFX HD 7970 Black Edition 83
Sapphire HD 7950 OC 70


http://i1191.photobucket.com/albums/z475/Coolreinoudnl/3dmark11_logo-1.jpg?t=1339058694

3DMark is een benchmark die gebruikt wordt door miljoenen gamers, honderden hardware review sites en veel toonaangevende fabrikanten van PC gaming hardware om hun prestaties prestaties te meten met die van andere producten. 3Dmark helpt het testen van overclocks en het afstellen van je systeem. In de grote database van Futuremark naar resultaten om te zien hoe je eigen pc vergelijkbaar is met die van anderen of gewoon genieten van de graphics en jezelf af te vragen waarom alle PC-games zien er niet zo goed uitzien als deze benchmark.

Preformance Setting (hoger is beter)
Point of View GTX 680 9648
ASUS GTX 590 9765
ASUS GTX 580 Direct CU II 6893
ASUS GTX 570 Direct CU II 6162
XFX HD 7970 Black Edition 8094
Sapphire HD 7950 OC 7630


Stoomverbruik

Idle is de GeForce GTX 680 duidelijk zuiniger dan de GF110 gebaseerde GTX 580. Wel is de HD 7970 wel wat zuiniger dan de GTX 680. Onder load is nVidia echter wat zuiniger: in Heaven meet ik maximaal 276 watt, waar bij AMD de teller uitsloeg tot 319 watt. Geen wereldschokkend verschil, maar het gaat om het idee.

Settings:
  • Unigine 3.0 Heaven Benchmark
  • 1920x1080 Resolution
  • 8x AA
  • 15-minute load test
  • 15-minute idle test
  • Measurement is in watts
Idle Stroomverbruik in Watt's (lager is beter)
Point of View GTX 680 100
ASUS GTX 590 145
ASUS GTX 580 Direct CU II 123
ASUS GTX 570 Direct CU II 127
XFX HD 7970 Black Edition 112
Sapphire HD 7950 OC 105


Load Stroomverbruik in Watt's (lager is beter)
Point of View GTX 680 276
ASUS GTX 590 462
ASUS GTX 580 Direct CU II 326
ASUS GTX 570 Direct CU II 278
XFX HD 7970 Black Edition 319
Sapphire HD 7950 OC 223


Temperaturen

Last but not least; de temperaturen, zeker niet onbelangrijk! Idle zijn de verschillen tussen de vorige generatie en de 680 niet echt groot te noemen. Het verschil tussen de GTX 680 en de HD 7970 is het wel waard om te noemen. De GTX 680 weet idle zo'n 11 graden koeler te blijven. Knappe prestatie, zeker als je ook kijkt naar het geluidsniveau. Ook onder load presteert de GTX 680 goed, 65 graden tegenover 80 graden van de HD 7970.

Settings
  • Monitoring with EVGA Precision
  • Unigine Heaven 3.0 1920x1080 8x AA
  • 5-run sequence
  • 20-minute idle duration
  • Temperature measured in degrees Celsius
Idle Temperatuur in graden celcius (lager is beter)
Point of View GTX 680 31
ASUS GTX 590 40
ASUS GTX 580 Direct CU II 31
ASUS GTX 570 Direct CU II 30
XFX HD 7970 Black Edition 41
Sapphire HD 7950 OC 31


Load Temperatuur in graden celcius (lager is beter)
Point of View GTX 680 65
ASUS GTX 590 84
ASUS GTX 580 Direct CU II 63
ASUS GTX 570 Direct CU II 55
XFX HD 7970 Black Edition 80
Sapphire HD 7950 OC 71


Conclusie

Een mid-range GPU die na productie zo goed blijkt te presteren dat deze zelfs in het high-end segment aan de top staat! Hiervan word ik eigenlijk alleen maar benieuwder wat er was gebeurt als de GTX 680 de GK110 chip had bevat! Helaas is dat niet het geval. Als je naar de prestaties van de GeForce GTX 680, dan zie je dat de nVidia zo'n 10% sneller is dan de Radeon HD 7970, niet de eerder door nVidia beloofde 25% maar de kaart is sneller. Kijk je naar het stroomverbruik dan is nVidia tijdens het gamen wat zuiniger. Idle is AMD juist zuiniger. Beide kaarten bezitten PCI-Express 3.0, Drie schermen met één kaart, Een geïntegreerde video encoder, Compromisloze video decoder en DirectX 11.1 Op het driver vlak vind ik nVidia nét wat beter zitten dan AMD, zeker als je over 3D support praat. Ook voor wie met GPGPU-programma's aan de slag wil, zal onder meer dankzij Cuda eerder voor een nVidia-kaart kiezen.

Vanuit het gamers oog zou ik voor de goedkoopst geprijsde kaart gaan, op het moment van mijn aanschaf was de prijs nagenoeg gelijk, op dit moment bezit je voor een goede 380 euro al een 7970, de nVidia zit daar net wat boven. Wel is nVidia met de GTX 670 ook een geduchte concurrent voor zowel de 7970 als 7950, deze ligt daar net iets tussen en zit op ongeveer het niveau van de GTX 580. Wel heeft deze kaart de nieuwe features die de 680 ook bied. Wil je de snelste single GPU op de markt, ga voor de 680. Heb je een wat minder groot budget dan zul je sneller voor een 7970, 7950 of GTX 670 gaan. Ook worden de 'oude' GTX 570 en 580 voor veel lagere prijzen dan voorheen aangeboden.

Nog toe te voegen:

- Temperaturen
- Stroomverbruik
- Overclocken met de GTX 680

Aanpassingen

6-6-2012
- Typfouten
- Afbeeldingen Resized
7-6-2012
- 3DMark11 Grafiek Verbeterd
- Stroomverbruik toegevoegd
- Benchmark Banners Resized
- Temperaturen toegevoegd
- Inleiding herschreven
Beoordeel deze review: 0 +1 +2 +3

Heb jij ook een Point of View GTX 680?

Deel je ervaringen en help andere tweakers!

Schrijf review

Reacties (23)

23
23
20
2
0
3
Wijzig sortering
perfect man...ik zat ook al steedes te kijken naar die 110....aangezien iki niet keek de g- f- versie:).
Ik steeds denken...huh...die zat toch in mijn 570.... Maar mooi duidelijk en je ziet dat de 570 en 580 elkaar toch ook niet veel ruimte lieten...iets van 15 %... Beetje hetzelfde verhaal als met de 670 en 680. Ik moet wel even lachen over het stroomverbruik en dan de 3 tot 6 schermen....
Het voordeel vind ik ook (bij mijn giga byte 570 iig), dat je niet verplicht bent te gaan waterkoelen vanwege de dikte. Al is de asus gtx 680 oc, natuurlijk al weer bij hetzelfde gedoe met 2.5(3 sloten). Misschien moeten ze ipv ingenieuse constructie gewoon een reeks uitbrengen met een waterkoelblok-systeem, a la cpu's, waarvan er steeds meer goede op de markt komen.Van dat koelblokmetaal kom je al een heel eind qua materiaalkosten. Maar hoe moet amd hierop antwoorden???..... Nvidia heeft sowieso nog een troef achter de hand. Net als bij de ivy-bridge 3770k welke 8 cores heeft en er 4 gebruikt. Tsja even 2 open zetten..... Toch opvallend hoeveel mensen er nog een i-2500k kopen en geen ivy voor hetzelfde geld. Je koopt een k om te overclocken en dat wordt watercoolen en dan is dat beetje temp verschil snel verdwenen en een goed koelsysteempje kost wel veel maar ze passen toch op elke socket. Anders gaat je processor toch een keer je bottleneck worden.

Maar een erg goede review en ik heb er heel wat gelezen en is me die 110 duidelijk:) thx.....
Ik geloof dat Asetek tegenwoordig ook al waterkoelsetjes a la Corsair H70 heeft voor videokaarten. Daarnaast is de reference koeler van de 680 ook echt top te noemen, de kaart blijft goed koel en is daarnaast nauwelijks hoorbaar. Ook zou je kunnen gaan voor bijvoorbeeld een alternatieve kaart van MSI, de Twin Frozr's zijn zover ik weet nog altijd maar 2 slots dik. Waterkoelen hoeft niet meteen een smallere kaart te betekenen. Niet voor elke kaart zijn andere PCI brackets beschikbaar dus vaak blijf je alsnog met een watergekoelde kaart van 2 slots zitten. En uiteraard bedankt voor je comment! :)
Mooie review, duidelijk!
Wat ik me alleen afvroeg is waarom je in je vergelijking enkel gekozen hebt
om mee te nemen de 590 en niet de 6990. Ik snap dat je voor de 'Nvidia-vergelijking'
de "spurt" wil aangeven to.v. de 590 (dat zou ik eveneens doen om diezelfde reden), maar zo is het wel de enige kaart o.b.v. 2 GPU's in de vergelijking. Bedoel het niet om af te kraken, want je review vind ik van hoogstaande kwaliteit en een verdiende 5 sterren gegeven!

Ik vroeg het me gewoon af, temeer daar ik benieuwd ben naar de verhouding 6990 vs. 680 ;)

[Reactie gewijzigd door Phenomania op 25 juli 2024 19:51]

Dit heb ik gedaan omdat ik zelf alleen een GTX 680 bezit. De benches van andere GPU's komen van een betrouwbare reviewsite die ongeveer test met dezelfde hardware als die ik bezit (2600k @ 4.4ghz, Z68, 8GB 2133, SSD, in een case) Zij testen deze kaart in combinatie met de kaarten die ik heb toegevoegd in het rijtje. De 6990 zit hier niet bij, en deze kaart bezit ik dus zelf ook niet. Als ik nu benches van de 6990 die niet van mezelf zijn ga toevoegen worden de benches wat mij betreft te onbetrouwbaar. Ik snap je punt, maar ik bezit simpelweg deze kaart niet. Toch bedankt voor je compliment, dat waardeer ik zeer!
Ah op die manier, dan is het niet meer dan logisch, excusez ;)
Dan blijft enkel staan mijn complimenten voor je review!
Bedankt! Ik probeer morgen de laatste puntjes toe te voegen :)
Goede revieuw!
ik hoef nu niet meer te gaan schrijven.... ik heb ook dit kaartje en je hebt alle mogelijke punten in mijn ogen bewerkt.
Nu nog even de stroom vergelijking :)
TOP kaartje!!
Inmiddels is het stroomverbruik toegevoegd!
Zeer interessante en vlotte review, duidelijk een van de betere!
TOP review, met plezier gelezen, mis nog wat meer humor, maar dat moet je als schrijver liggen. Verder zeer compleet, netjes afgewerkt... Een voorbeeld voor velen, haalbaar voor weinige... 5***** Dik verdiend..

Oh ja... Veel plezier met je monster!

[Reactie gewijzigd door Verwijderd op 25 juli 2024 19:51]

Bedankt!, zal misschien de tekst nog eens doorlezen of ik wat zou kunnen veranderen :)
Goede review, leest lekker weg en is erg informatief :)
Lees alleen het eerste stuk nog even door, daar zit een stapel kromme zinnen in (waarschijnlijk het gevolg van schuiven met de tekst; het zijn geen spelvaudtjes)
Oh, en bronvermelding voor de technische details en benchmarks die je overgenomen hebt zou erg netjes zijn.

[Reactie gewijzigd door Vaudtje op 25 juli 2024 19:51]

Heb de inleiding inmiddels wat anders geformuleerd, Bronvermelding staat al in de inleiding van de benchmarks, maar ik zal onderaan nog even een samenvattend lijstje maken. In ieder geval bedankt voor je compliment!
Je hebt zowat letterlijk de review vertaald en schaamteloos alle resultaten overgenomen van de tests die zij hebben uitgevoerd. Dat is geen review, dit is kopieerwerk. Dat heet plagiaat en is ook niet toegestaan ook al gaat het over content op internet 8)7
Niet echt, heb review zelf geschreven. Informatie is uiteraard deels wel terug te vinden van andere websites aangezien dit gewoon feiten zijn.
Leest netjes weg , een erg nette review.
Bedankt!

[Reactie gewijzigd door Maverick24 op 25 juli 2024 19:51]

Prachtige review! Mooi uitgelegd en mooi geïllustreerd!


Om te kunnen reageren moet je ingelogd zijn