Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 214 reacties

Een Chinese site heeft de eerste review van de GeForce GTX 680 van Nvidia al online gezet. Naast details over de eigenschappen van de kaart verschenen benchmarks. Het lijkt erop dat de kaart zuiniger en iets sneller is dan de HD 7970 van AMD.

In de afgelopen maanden doken al veel specificaties en foto's van de nieuwe high-endkaart van Nvidia op, maar nu is ook de eerste review van de concurrent van AMD's Radeon HD 7970 verschenen.

De specificaties die eerder deze week verschenen worden nog eens bevestigd: De GTX 680 krijgt 1536 cudacores met een standaardkloksnelheid van 1006MHz, die bij grafisch veeleisende games of applicaties via GPU Boost verhoogd wordt naar 1058MHz. Er zijn bij de GK104-gpu op basis van de Kepler-architectuur dus meer cudacores dan bij de GTX 580 en dat komt omdat Nvidia 192 streamprocessors per sm-cluster gebruikt, die het nu overigens smx-eenheden noemt. Er zijn bij de nieuwe kaart acht van die clusters. Bij de gpu van de GTX 580 gebruikte Nvidia nog 16 sm-processorclusters met elk 32 cores voor een totaal van 512.

Nvidia GTX 680 HKEPC review

Er is 2GB gddr5 in de nieuweling en dat geheugen doet zijn werk op 1502MHz, effectief 6008MHz. De gpu communiceert via een 256bit brede bus, zodat de totale bandbreedte op 192GB/s uitkomt. Nvidia maakt gebruik van pci-e 3.0 en de kaart heeft hdmi, displayport 1.2 en een dl-dvi-duo. De tdp bedraagt 195W en de grafische kaart zal zijn energie via twee 6pins aansluitingen betrekken. De tdp ligt daarmee lager dan die van de HD 7970, die een tdp van 210W heeft.

Wat nieuwe features betreft ondersteunt 3D Vision Surround nu drie monitoren die rechtstreeks zijn aangesloten op een enkele videokaart, hoewel Hkepc het over een 3+1-opstelling heeft, waaruit opgemaakt kan worden dat er nog een extra beeldscherm toegevoegd kan worden dat niet direct onderdeel van de surround-opstelling uitmaakt. Ook is er een nieuwe anti aliasing-modus die Nvidia txaa noemt en is er ondersteuning voor een adaptieve vsync-optie. De die-size zou op 294mm² uitkomen en dat is minder dan de gpu van de HD 7970, die 365 mm² meet.

Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review

Ondanks de kleinere die-size en lagere tdp, scoort de GeForce-kaart bij veel benchmarks bij Hkepc beter, hoewel er nog maar weinig gamebenchmarks gedraaid werden. Bij 3DMark11, Heaven, Batman Arkham City en Lost Planet 2 scoort de kaart significant beter dan de HD 7970, maar sommige van deze benchmarks zijn ook echte Nvidia-benchmarks. Bij Battlefield 3 heeft de GeForce een lichte voorsprong en bij Call of Duty Modern Warfare 3 presteren de beide kemphanen identiek.

Hoewel het wachten is op meer benchmarks, lijkt het erop dat Nvidia met een zeer aantrekkelijke kaart gaat komen. Op 22 maart zouden meer reviews online moeten komen. Wel is het nog de vraag wat de beschikbaarheid en de prijs gaat worden. Wat dit laatste betreft: de Nederlandse webshop Comcom.nl bood een Zotac GTX 680 in de voorverkoop voor 507,18 euro aan, wat tot op dit moment de laagste prijs is die in de voorverkoop gevonden kon worden.  

Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review Nvidia GTX 680 HKEPC review

Reacties (214)

Reactiefilter:-12140204+1111+216+31
Moderatie-faq Wijzig weergave
1 2 3 ... 6
Lol, dus AMD denkt ah geen concurrentie ik kan mijn kaarten lekker duur verkopen en Nvidia denkt he mijn mid-high range chip is even snel als AMD's nieuwe 500euro kaart ik kan die dus lekker duur verkopen. Marktwerking zonder concurrentie en niet genoeg supply, zo fijn. Ik zou bijna zeggen: Prijsafspraken...

Anyway zou toch mooi zijn voor Nvidia als hun 7870/7950 concurrent gelijk is aan de 7970, nog even de reviews afwachten.
Met hier een mooi tabelletje om deze uitspraak te ondersteunen.

Deze 'gtx680' had dus eigenlijk de gtx660 moeten zijn. Wegens lage marges op de eigenlijke gtx680 en wegens het feit dat de gtx 660, een midrange kaart, beter/net zo goed/net iets minder (je weet het niet) presteert als de 7970 hebben ze het de gtx680 genoemd.

Wordt wel een rommeltje qua naamgeving als ze geen gtx 685 en gtx695 gaan toepassen, maar dat zien we dan wel.
Ja... de 680 zou eigenlijk de nieuwe 8800 GTX worden maarja, feest ging niet door door nieuwe problemen bij TMSC.
Nu is de 680 een mid-range geval geworden.
Met hier een mooi tabelletje om deze uitspraak te ondersteunen.
Amd zette de 58xx serie voor een vrij lage prijs op de markt, ze waren zo populair dat er maanden een tekort was. Ze lijken hun lesje geleerd te hebben en zo lang ze verkopen gaat de prijs niet omlaag.
Deze Keplers zal nvidia ook wel een tijdje voor een hoge prijs kwijt kunnen, de productiecapaciteit van beide bedrijven is volgens mij niet voldoende voor "echte" concurrentie.
Vergeet niet dat de 7970 veel OC potentie heeft! Persoonlijk bench ik met mijn 7970 OC hoger dan de 680 op deze screenies doet (met standaard lucht niks geks dus). Ik vraag me dan ook af hoe ver de 680GTX OC komt. Verder ziet het er allemaal netjes uit bij het groene kamp so far.
Verder vraag ik me af of dit gewoon wat random benchmarks zijn geweest, of dat deze selectief zijn in het voor (of misschien wel na)deel van Nvidia. Als je heel veel verschillende settings benchmarkt is het verschil op de ene setting soms net wat hoger dan op de andere. Als je hiermee heel selectief bezig gaat kan het idd lijken alsof de kaart een stuk sneller is, terwijl dat in de praktijk niet zo hoeft te zijn.
Ook vind ik dat 2GB niet echt future proof is. Sommige games waaronder BF3 komen nu al rond de 1,5 GB geheugen uit op max settings (1080P). Ik kan me voorstellen dat over en paar jaar dit gewoon wat aan de lage kant is. Hiermee is de 7970 misschien wel wat meer future proof te noemen.

Wat me wel opvalt is X8 AA bij bf3. Dit kan helemaal niet. x4 is het maximale. Dus of er word AF bedoelt ipv AA. Of er is hier iets vreemds aan de hand.

[Reactie gewijzigd door j0ppie op 17 maart 2012 18:57]

Er zijn programma's waarmee dit gewoon handmatig in te stellen is, waaronder ook de control panel van nVidia zelf.
Dat lijk mij juist niet als je alleen kijk naar de video kaart zelf.
Deze kaart is cooler, zuiniger en is al krachtiger dan de 7970. (stockcooler vs stockcooler)
Het lijkt mij dus dat je verder kan gaan met OC-en met deze kaart aangezien deze minder warmte produceert en dus ook hogere snelheden kan halen.
Inderdaad, in Battlefield 3 is msaa niet via het CP te forceren en is 4xmsaa het maximale in-game.

Voor de rest is het afwachten wat het OC potentieŽl is. Als dat matig is dan is de 7970 de betere keus.
niet helemaal mee eens als hij iets kan overclocken maar standaard dus al 10% sneller is dan is veel overclocken met de 7970 dus even snel maar zonder physx ondersteuning.

en meer bugs bij games sinds ik een amd kaart heb heb ik met bijna ieder spel wel problemen terwijl ik daarvoor 8 jaar nvidia gehad heb zonder ook maar 1 probleem met drivers (op een fan profiel na dan waar hij 100% ging draaien.).

[Reactie gewijzigd door computerjunky op 17 maart 2012 19:55]

Pff Physx worden ook door je cpu ondersteunt zucht.
alleen is er bijna geen enkele cpu die snel genoeg is om het voeiend te renderen...
de meeste spellen met het physx logo gebruiken de gpu helemaal niet voor physics, physx is gewoon een physics middleware en gratis zo lang je maar physx in je opstartschermen toont.

sommige spellen gebruiken ook de apex physics voor particles en kleding. is op zich grappig maar vaak ziet het er toch een beetje over the top uit.
Waar ik benieuwd in ben is dat of dit beestje ook zo goed kan clocken als ze dus allebei tot de max geclockt zijn wat dan nog het verschil is, daarbij scoort een 7970 8100 punten in 3dmark 11 performance en geen 7200 zoals hier te zien is.

De kaarten zullen vermoedelijk vrijwel identiek presteren, met wellicht hier en daar een lichtelijk voordeel afhankelijk van welk spel (nvi twimtbp) of niet ;)
1000mhz is sowieso niet hoog voor een 28NM chip. De 40nm generatie had al geen moeite met 850mhz.

40nm>28nm = +-850mhz vs 1250.

Die overclock van de 680 behaalt de 1200mhz wel, ondanks de 2x 6-pin.

28nm zit best wat rek in. Die 680 is geen volgepropte tot de max chip maar eigenlijk een soort mid-range GTX660 geval. Wederom genoeg rek om 20% verder te komen, in my opinion.

De echte 680 komt voorlopig niet. Eigenlijk is dit stiekem de GTX 660!!! ;) Aangezien de 7970 ongeveer even snel is kan deze kaart wel met recht de 680 genoemd worden (marketing technisch gezien).
Daarom is de kaart ook uitgevoerd in 256-bit en een behoorlijke kleine chip. Niemand in het high-end segment gaat trouwens besparen op stroom! Er is sowieso genoeg keuze in energie zuinige kaarten.. HD 7750 ofso

Daarnaast biedt deze printplaat plek voor 4x 6-pin voor het uiteindelijke monster waar nu problemen mee zijn bij TMSC.
Laat je niet gek maken door relatief lage prestaties toz van een GTX 580.. logisch want deze kaart is niet bedoeld om direct concurrent te worden van de 580, maar van de GTX560ti.

Nou maar hopen dat die problemen snel voorbij zijn zodat Nvidia nog met een echt monster kan komen eind van het jaar! Trouwens behoorlijke zonde voor ons en voor Nvidia.

Mid-range met 256 bit controllers / 2gb/ zitten we toch niet op te wachten anno 2012? Sla de 680 maar even over als je op een zware High-end kaart wacht.

[Reactie gewijzigd door A87 op 19 maart 2012 11:49]

This is you're fanboy speaking?!?!

Je beweert een heleboel. Heb je misschien ook een bronvermelding???
een paar weken geleden kwam er een foto waar duidelijk op te zien was dat de prinplaat ruimte bied voor4x 6-pin. Op tweakers. Daar staat ook duidelijk wat omschreven van de specs.

Check het forum ook maar eens een keer.
mogelijkheid voor 4 aansluitingen voor stroom zegt al genoeg dat er een opvolger komt.

die-size is klein van de 680, en is een zuinige kaart met 2x 6pins, dit is niet de HIGH-end kaart waar wij op zitten te wachten, en dat 2GB 256bit geheugen gooit ook roet in het eten.

dat is 0% vooruitgang op de 580 in bandbreedte, handig voor hoge AA instellingen.

En 2 GB op een videokaart wordt liever NIET gezien op een 30 inch monitor anno 2012.

256 bit 2GB = goedkope oplossing.

Your fanboy speaking? Are you from partyflock? flapdrol
Als je al niet geinteresserd ben in de ontwikkelingen van deze videokaart post dan gewoon niets.

[Reactie gewijzigd door A87 op 19 maart 2012 17:13]

Dit wordt toch wel heel spannend, kunnen mooie tijden voor ons GPU-liefhebbers worden. De kaart lijkt een stuk sneller, maar de vergelijking is gemaakt met een 7970 op 925Mhz geklockt. Deze clockt echter zonder een centje pijn tot over de 1,1GHZ, ben benieuwd hoe de vergelijking er dan uit ziet. En misschien zit de 680 ook nog niet aan z'n max...

Dit belooft een mooie en snelle prijsverlaging van de 7970...
Raar genoeg kloppen de grafieken niet, want in de review zelf staat:
(google translate)
As for the "Battlefield 3" and "Heaven v3.0 and other tests, the GPU Boost the effectiveness of is more significant, clock generally are in the 1,097 MHz or 1,110 MHz to prove that the GPU Boost application software allows the original load the lower the graphics card, the more obvious dynamic overclocking results.
En dit is een 'boost' die in de BIOS plaats vind en dus ook tijdens de benchmarks actief moet zijn geweest;
Due to a hardware control nature, respect the NVIDIA GPU Boost does not manually shut down, as long as the graphics card to run correctly, the GPU the Boost will take effect.
Echter staat er in de benchmarks dat de GTX680 op 1006 Mhz geklokt was, wat dus in die grafiekjes wel erg misleidend is, omdat de GPU waarschijnlijk dichter bij 1,1Ghz draait.

Dus de nieuwe GTX680 kan dus nog maar net de HD7970 op 925 Mhz verslaan door naar 1,1Ghz te boosten. Ik ben benieuwd naar een wat vollediger review want het lijkt erop alsof AMD deze kaart de pan in gaat hakken (zeker op prijs/perf na AMD's prijsdalingen) en dat van dat lage stroomverbruik neem ik gezien het nVidia is natuurlijk met een korreltje zout, in ieder geval tot een review daar dieper op in gaat met meer info, betere metingen en vooral ook van idle-gebruik.
met een standaardkloksnelheid van 1006MHz, die bij grafisch veeleisende games of applicaties via GPU Boost verhoogd wordt naar 1058MHz.
Nou nou, wat een verschil. Waarom verlagen ze die standaard kloksnelheid niet naar 200MHz ofzo. Ik heb nog een 8800GTX in mijn computer zitten. 97% van de tijd doet dat ding niets meer dan een desktop en een internetvenstertje renderen. Toch zit dat ding de hele dag warme lucht te blazen. Ik zou graag echt een super zuinige videokaart willen, die op het moment dat ik het wil (zwaar 3D werk) volle bak aan het werk gaat.
de 8800 gtx was ongeveer de laatste kaart die niet terugklokte, daarom is de 260 zo enorm veel zuiniger in idle.

als je nvdia system tools installeert kan je trouwens in het control panel gewoon een scriptje schrijven, iets van "als gpu load <10%", load profile langzaam. "als gpu load > 70%" load profile default.
NVIDIA Optimus? jammer dat het alleen voor bepaalde laptops is geen pcie variant van Intel HD Graphics.
De AMD kaarten van de 7000 serie klokken zich zeker wel terug als ze niet in load zijn! Ze gaan volgensmij op ongeveer 1/3de snelheid werken wanneer ze in windows zitten.
nVidia (en AMD) GPU's klokken al langer terug als er geen zware belasting is, precies zoals jij beschrijft.
Ik vindt het raar dat deze GTX680 nog ''slechts'' DX11 is, t.o.v. de HD7970 die al DX11.1 mogelijkheden heeft, evenzo met GPGPU mogelijkheden: OpenCL 1.0 bij de GTX680 tegenover de OpenCL 1.2 mogelijkheid bij de HD7970, daarnaast natuurlijk nog CUDA bij de GTX680 erbij wat de HD7970 moet missen.

Daarnaast zie ik in de test nog niks terug van het systeemverbruik in ''idle'', ik kan me namelijk herinneren dat AMD/ATI bij de HD7970 in idle flink veel minder energie verbruikte, bij NVidia lijkt het er op dat de core altijd maar 1Ghz blijft draaien, en als er een kleine boost in 3D nodig is naar de 1,058Ghz, lijkt mij niet bepaald erg energiezuinig in idle.

Persoonlijk zou ik, als deze resultaten zouden kloppen, toch voor de AMD/ATI gaan vanwege het grotere geheugen van 3gb (meer future proof), de DirectX11.1 ondersteuning (meer future proof) en vanwege de vrij gelijke prestaties in de meeste games t.o.v. de GTX680.

[Reactie gewijzigd door Jorn1986 op 17 maart 2012 20:14]

voor zover ik weet was deze ook gewoon dx 11.1 niet dat dat boeiend is aangezien DX11 word namelijk nog lang niet optimaal gebruikt dus zijn de tweaks in 11.1 al helemaal nutteloos.
verder is volgens mij DX11.1 downward compatible met DX11 dus all dx11 apparaten kunnen dx11.1 instructies aan met driver updates wat het dus alleen een verkoop truuc maakt.
(op msdn ergens gelezen dacht ik)

en opencl 1.0 klopt ook niet aangezien de 5xx al 1.1 ondersteuning heeft.

nvidia heeft ook al power schemes dus ook die word terug geclockt alleen gebeurd dit niet zo aggresief als bij AMD.
wat ik een plus vind omdat als ik met mijn 6870 kaart uit een game naar IE ga hij instant terug geschakeld word maar er vervolgens 5 seconden over doet om weer op 100% te draaien wat de game 5 seconden onspeelbaar maakt omdat de kaart nog bezig is.
in het begin werkt de power schemes van nvidia niet zo goed maar die werken sinds de gtx 285 al prima alleen het terugclocken gaat eerder over 15 a 30 seconden dan instant wat
het prettiger maakt als je veel tussen 2x en 3d schakeld.
en mijn amd 6870 gaat ook voor een simpel spelletje dat hij op zijn sloffen kan doen naar 100% gpu dus dar zit ook al geen verschil is.

groter geheugen is ook nogal nutteloos boven de 2 gig tenzij je veel renderd (en dan zou je een andere kaart moeten kopen) omdat games het simpelweg niet gebruiken omdat de textures nog steeds laag zijn en volgens mij laag blijven anders worden de games 40 gig.

ik probeer je niet een nvidia kaart aan te smeren (al is het wel mijn voorkeur vanwege features alleen) maar je argumenten om een AMD kaart te kopen zijn onjuist het enigste waarschijnlijk duidelijke verschil gaat de prijs zijn maar omdat hij minder zuinig is dit keer zal het aan het einde van de rit evenveel kosten.
je moet dan ook kiezen wat voor jou werkt en de vbovenstaande post vergeten het zijn namelijk bijde prima kaarten met bijde voor en nadelen (physx, prijs, energieverbruik, beschikbaarheid in het begin, driver problemen als je veel gamed en waarschijnlijk nog wel een paar).

[Reactie gewijzigd door computerjunky op 17 maart 2012 20:37]

Met mijn 7970 duurt het echt geen 5 seconde om naar de hogere kloksnelheid tegaan. Eerder 1 seconde.
En ga er maar vanuit dat spellen stukken groter gaan worden en uiteindelijk wel op 40GB uit gaan komen! Zeker sommige titles over een paar jaar. 3GB geheugen is zeker wel beter in mijn ogen dan 2GB. Kijk naar de vorrige generatie. De 570GTX doet het op bepaalde settings in BF3 gewoon minder dan de 6950. Alleen maar omdat er een tekort aan geheugen is. Ondanks dat de GPU van de 570 toch duidelijk de betere van de 2 is. Ik heb het hier misschien wel over een resoutie van 1600P en dan kun je natuurlijk gaan roepen dat op zo'n resolutie je ook gewoon een betere videokaart moet kopen. Maar vergeet niet dat de 4K2K schermen voor de deur staan. En als je met zulke resoluties en/of toekomstige games toch nu al een beetje future proof wilt zijn, omdat je toch wilt dat de videokaart die je nu koopt 2 a 3 generaties mee gaat. Is 3GB geheugen zeker niet overbodig. We hebben het dan nog niet eens gehad over de eyefinity opstellingen.

En je kunt ook helemaal niet beweren dat je vind dat mensen een nvidia moeten kopen want de kaart is nog niet eens uit. Dit zijn speculaties en zeker geen harde feiten.
weet niet hoe het met de 7xxx serie ismaar de 6xxx serie heeft er wel last van.

ik heb nogal de gewoonte om te alt tabben en als ik dan weer terug alt tab naar de game kan ik echt 5 seconde niks doen.

en als extra toevoeging als ik alt tab om te gaan eten (zodat de kaart niet blijft loeien) is het bij sommige games nodig om na een haf uurtje de game geforceerd af te sluiten omdat hij niet meer vloeiend loopt.
meest recentelijke voorbeeld hiervan was kingdoms of amalur.
iets waar ik bij nvidia nooit last van gehad heb.
mischien dat amd het geheugen leeg gooit of gewoon bij sommige games niet meer terugschakeld naar 100%.

verder hoop ik natuurlijk zeker dat games 40 gig gaan worden en er geweldig uit zien ik ben alleen bang dat dat nog wel 8+ jaar gaat duren omdat de consoles de game markt een beetje tegenwerken op het moment.
geen idee wat de nieuwe consoles gaan doen maar ik denk dat de stap omhoog niet zo groot word dat 3+gb gebruikt gaat worden gezien de geplande kaarten in de consoles.

[Reactie gewijzigd door computerjunky op 17 maart 2012 22:21]

Van dat moeten wachten heb ik met mijn 6870 geen last. Misschien heb je het Power Plan in de Power Options op "Balanced" staan i.p.v. "High Performance". Dat scheelt een slok op een borrel.
windows power plan staat op preformance ivm met irritante revodrive :)

het viel mij toevallig een keer op tijdens het belijken van de gpu temperaturen met GPUZ dat het afschakelen sneller ging dan het opschakelen.
ook niet iedere game heeft er last van.

ik speel sinds het weekend de star wars weekend trail e die heeft er geen last van al heb ik daar wel een 5 seconden load scherm wat her weer kan verbergen.
Natuurlijk dat meer geheugen op de 3d kaart beter kan zijn dan kaarten met minder geheugen maar het is een feit dat als je BF3 speelt op 1920 X 1080 je pas echt verschillen ziet op de ultra stand. Ik heb een tijd getest met mijn AMD 6870 (CF), GTX560Ti hawk en mijn GTX580. En pas op de ultra settings merk je performance boost met meer geheugen.
Naar een hogere gaat bij beide fabrikanten instantaan, alleen daarna gaat ie pas weer terug als ie 10 (ofzo) sec een super lage belasting heeft gehad.
Dit is anders dan ik had verwacht van nVidia, in plaats van bigger = better blijken ze toch hebben geleerd van Fermi. Vooral de midrange kaarten van Kepler lijken nu een heel stuk interessanter! GeForce 660 Ti @ 125w TDP zal er vast wel aankomen.
Nou, eigenlijk hebben ze het niet geleerd. De kaart die ze nu uitbrengen was eigenlijk bedoeld als midrange kaart, maar de grotere variant heeft dusdanige problemen dat deze nog niet even binnenkort uitgebracht kan worden.
De belangrijkere vraag is met name in hoeverre NVidia de chip op zn tenen laat lopen om aan deze prestaties te kunnen komen. Het zou me echter niet verbazen dat als je een HD78xx kaart van AMD flink op zn staart trapt er vergelijkbare prestaties mogelijk zijn, behalve dat niet alle kaarten dat zullen halen.

edit: overigens ben ik niet bepaald impressed van de score in Heaven. Er worden al meer dan genoeg varianten van de HD7970 verkocht die dat ook makkelijk halen.

[Reactie gewijzigd door dcm360 op 17 maart 2012 19:11]

Fanboy alert??? Je bent nu ongefundeerd negatief aan het doen. Er blijkt tot nu toe nergens uit dat de kaart aan het plafond zit van wat mogelijk is. Sterker nog het lijkt er eerder op dat dit niet zo is aangezien er een turbo boost op zit.

Als je een midrange kaart kunt uitbrengen als high end kaart ( wat overigens nog niet vaststaat aangezien dit uit een tabel kwam waarin complete onzin stond mbt shaders en frequenties) dan houdt dit niets anders in dan dat je de concurrentie een stap voor bent. Waarom zou je het niet doen als het kan?

Uit het nieuwsbericht blijkt verder dat het tdp superlaag is, daarnaast kan deze kaart ook nog overgeclockt worden. Het is onzin om te stellen dat een overgeclockte 78xx kaart even snel is als je daarbij uit het oog verliest dat deze wellicht ook nog 20% kan overclocken. Het TDP is er in ieder geval laag genoeg voor dus waarom niet.

Overigens schijnt er 5-6 maanden na de launch een refresh aan te komen in de vorm van een "ti" versie van de gk104 dus het maximale zal er nog niet zijn uitgehaald. Dit blijkt ook wel uit de nieuwe automatische gpu-offset. Blijkbaar is er nog ruimte voor een soort turbo boost.

Ben zelf overigens totaal niet geinteresseerd in deze kaart, 500 euro is een segment te hoog voor mij. Een jaar later heb je voor de helft van het geld een even snelle kaart :+ . Wel vindt ik het redelijk uniek dat de turbo boost behouden blijft bij overclocken (!) dat is toch vaak anders!

@zehtuka
Nvidia had voor Fermi al bedacht dat ze wel wat meer performance per watt wilden. Echter ze moesten eerst vaart maken met het hele cuda verhaal. Dat bleek overigens een goede zet want op b2b cuda leveringen zit een veel grotere winstmarge.
Roadmap kun je hier zien: http://4.bp.blogspot.com/...0/s1600/nvidia-kepler.jpg

Tesla : 1 Gflop/watt
Fermi: 1,5 Gflop/watt
Kepler: 5 Gflop/watt
Maxwell (volgende generatie): 15 Gflop/watt

Het wordt dus helemaal spannend over 2 jaar, als ze deze ontwikkeling echt volgens planning kunnen doorzetten dan worden er echt grote stappen genomen. Wie weet gaat het net als met Intel en wordt AMD behalve voor cpu's ook voor gpu's een budget speler. AMD kan zich dan wel mooi op APU's focussen. Intel loopt ver achter bij de apu's en Nvidia mag volgens mij geen x86 cpu maken.

[Reactie gewijzigd door sdk1985 op 18 maart 2012 02:08]

Fanboy alert??? Je bent nu ongefundeerd negatief aan het doen. Er blijkt tot nu toe nergens uit dat de kaart aan het plafond zit van wat mogelijk is. Sterker nog het lijkt er eerder op dat dit niet zo is aangezien er een turbo boost op zit.
Ik baseer wat ik zeg met name op de informatie uit [Algemeen] nVidia Nieuwdiscussie Topic - Deel 54. En nee, ik ga maar niet ontkennen dat ik een AMD fanboy ben, want dat ben ik wel. Dat betekent echter niet dat ik met interesse naar de concurrentie kijk, en deze kaart ziet er in het algemeen best interessant uit met wat er nu naar buiten komt. Dat weerhoudt me er echter niet van om er kritische kanttekeningen bij te hebben.
Als je een midrange kaart kunt uitbrengen als high end kaart ( wat overigens nog niet vaststaat aangezien dit uit een tabel kwam waarin complete onzin stond mbt shaders en frequenties) dan houdt dit niets anders in dan dat je de concurrentie een stap voor bent. Waarom zou je het niet doen als het kan?
De chip op deze kaart is een GK104, welke gewoon niet als high-end bedacht is. De GK100 die die taak zou krijgen is in nog geen velden of wegen te bekennen.
Uit het nieuwsbericht blijkt verder dat het tdp superlaag is, daarnaast kan deze kaart ook nog overgeclockt worden. Het is onzin om te stellen dat een overgeclockte 78xx kaart even snel is als je daarbij uit het oog verliest dat deze wellicht ook nog 20% kan overclocken. Het TDP is er in ieder geval laag genoeg voor dus waarom niet.
TDP!=verbruik, het TDP zegt niets over overclockbaarheid en het verbruik evenmin. Daarnaast is er al bekend hoe hard HD78xx kaarten kunnen, van deze kaart is het onzin om er van uit te gaan dat 20% erbij makkelijk haalbaar is zonder dat dat al gedaan is.
Overigens schijnt er 5-6 maanden na de launch een refresh aan te komen in de vorm van een "ti" versie van de gk104 dus het maximale zal er nog niet zijn uitgehaald. Dit blijkt ook wel uit de nieuwe automatische gpu-offset. Blijkbaar is er nog ruimte voor een soort turbo boost.
Je kan wel enthoussiast doen over een turbo-boost van 52MHz, maar veel is dat toch echt niet...

[Reactie gewijzigd door dcm360 op 18 maart 2012 14:56]

Sterker nog het lijkt er eerder op dat dit niet zo is aangezien er een turbo boost op zit.
een turbo van 50 mhz op de 1000.
volgens mij zegt dat helemaal niks over de overclockbaarheid, positief of negatief.
Gebaseerd op een roadmap en het feit dat ze eindelijk eens weer meer performance per watt hebben dan AMD, zou ik niet gaan speculeren op de ondergang van AMD. Dat nVidia al die dingen al voor Fermi had bedacht kan wel wezen, maar het grote euvel van Fermi is dat het een jaar (zo niet langer) te laat kwam. nVidia heeft veel te lang op hun koppositie geteerd en bestaande architecturen uitgemolken.

AMD heeft daarvan geprofiteerd, en het is nu aan hun om niet in hetzelfde gat te vallen. Ik verwacht dat AMD zeker ook de lat hoog zal leggen om hun positie te behouden, vooral als de concurrentie sterker word.
Het ziet er naar uit dat de kaarten dit maal zijn omgedraaid. De laatste generaties was het telkens nVidia die hoger stroomverbruik en een grotere die-size nodig hadden om dezelfde prestaties te krijgen. Nu liggen die kaarten dus bij AMD... Deze gelekte benchmarks zien er wel goed uit voor nVidia! De prijs zou ook rond de 500 euro liggen en daarmee de 7970 direct buiten spel zetten :o
Nee hoor amd heeft alleen maar die kaart zo duur gemaakt omdat ze er mee weg konden komen, nu ze dat niet meer kunnen kunnen ze gewoon de prijs flink verlagen en weer een heel aantrekkelijke kaart worden. Ik vermoed trouwens dat hoewel hoger de productie kosten van de 7970 niet eens zo heel veel lager liggen dan die van de 6950
Dat kan AMD inderdaad doen, maar het punt blijft dat ze een grotere die size nodig hebben dan bij de GTX 680 ;) Die kaart presteert beter is is simpel gezegd goedkoper om te produceren :)
Ze kunnen de prijzen van de high-end kaarten niet simpelweg verlagen, dan zouden ze hun eigen mid-end kaarten gaan beconcurreren. Men zou dan de prijzen over de hele lijn moeten verlagen, wat waarschijnlijk to minder opbrengsten zal leiden. Het geld wordt niet verdiend in het high-end segment, maar juist in low- en mid-end.
de 28nm wafers bij TSMC zijn duurder als de 40nm wafers. maar verder zijn deze GPU's niet veel groter als de vorige generaties. AMD kan dus gemakkelijk met de prijzen omlaag naar bijna niveau van de vorige generaties als het moet.

[Reactie gewijzigd door Countess op 17 maart 2012 19:25]

Waarom duurder? Dat kan op zichzelf waar zijn, maar mits de yields ok zijn dan halen ze wel veel meer chips uit een water.
TSMC wil zijn investering in 28nm terug verdienen waarschijnlijk. ze zullen vanzelf terug zakken naar het 40nm nivo van nu, maar nu is 28nm productie capaciteit schaarser als 40nm en is de vraag ernaar groot.
Natuurlijk kan dat, maar dan verdienen ze minder.... en winst is de doelstelling van AMD, net als ieder ander bedrijf.
marktaandeel verkrijgen kan ook een doelstelling zijn, om daarmee winst te maken. je kan wel meer winst willen maken door de prijs hoog te houden maar als je er dan veel minder verkoopt heb je er niks aan.
Nu liggen die kaarten dus bij AMD..
de verschillen in die size en verbruik zijn deze keer wel een heel stuk kleiner als de vorige 2 generatie. dus om nu te zeggen dat de rollen echt omgedraaid zijn vind ik te ver gaan.

en op zich niet zo gek dat AMD nu een grotere die size heeft. deze nieuwe architectuur is een hele grote stap voorruit op GPGPU gebiedt, en dat kost extra transistors.

daar zou ik ook nog graag wat benchmarks van zien trouwens. want nvidia heeft hun cores ook flink veranders, en ze draaien nu niet meer op die hoge snelheden van eerst.

[Reactie gewijzigd door Countess op 17 maart 2012 19:35]

Ik hoop dat de prijs van deze kaart dan ook relatief tot het "iets sneller en iets zuiniger" "iets duurder" is, dan concurreren ze ook nog met AMD. Naar mijn idee waren de verhoudingen van de GTX 580 tot de r6970 een beetje zoek...

edit: ik bedoelde de r6970 ook eigenlijk, domme vertyping

[Reactie gewijzigd door NinjaTuna op 17 maart 2012 19:00]

Een GTX580 en een HD6950 zijn ook helemaal geen kaarten van hetzelfde kaliber... dus dat daar 'geen verhoudingen' in zitten is niet meer dan logisch. De GTX560 had eigenlijk de concurrent voor de HD6950 moeten zijn maar redde het niet, de GTX560ti daarentegen zijn erg gewaagd aan de HD6950... sterker nog, benchmark resultaten zijn vaak om en om bij die kaarten... en van beide kaarten zijn volop versies te krijgen die zelfs makkelijk met de grotere broers mee kunnen komen,

Edit: Idd, je hebt gelijk... ik had de boel even achterstevoren in het hoofd zitten. 8)7 Maar goed maakt verder niet uit, een GTX580 is geen gelijke van een HD6950... that's my point :)

[Reactie gewijzigd door MicGlou op 17 maart 2012 18:15]

De GTX560 Ti en de HD6950 zijn inderdaad aan elkaar gewaagd, maar de Ti was er vůůr de normale variant, dus hoezo "had eigenlijk de concurrent voor de HD6950 moeten zijn maar redde het niet," ?

Volgens eerder nieuws:
nieuws: Nvidia brengt GTX 560 in stelling tegen HD 6790


Los daarvan, zoals nog steeds blijkt bij beide fabrikanten is dat drivers een behoorlijke performance/benchmark impact hebben. Early benchmarks zijn daarom wel interessant, maar misschien dat zowel Nvidia als AMD nog optimalisaties uitvoeren waardoor posities worden verbeterd of omgedraaid...

[Reactie gewijzigd door C0rnelis op 17 maart 2012 18:05]

Dan nog, de HD6970 staat tegenover de GTX570, niet de 580.
Kan iemand uitleggen hoe de GTX 680 in 3DMark 11 maar liefst 20% sneller is, terwijl dit in BF3 maar 1,5 fps bedraagt tov de 7970?

Zou er nog wat uit te halen zijn met betere drivers voor BF3?
GPU's moeten allerlei verschillende soorten berekeningen maken, en de ene is sneller is flipfloppen, de ander is sneller in vlaflippen. Als nu een benchmark of game voornamelijk flipfloppen gebruikt zal de eerste GPU beter presteren, en bij vlaflippen de andere,
Gebruikt men beide dan kan het zijn dat de GPU's gelijk presteren.
optimalisatie en cpu limitaties.
sommige games leunen meer op cd cpu dan nodig zou moeten zijn en battlefield is er 1 van.

hij draaide bij mij dan ook slecht door mijn oude cpu.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 edge Apple Watch Project CARS Nest Learning Thermostat Ibood

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True