Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 125, views: 30.876 •

De nieuwe videokaart van Nvidia, die de codenaam Titan draagt, zou een stevige hoeveelheid geheugen aan boord krijgen. De GeForce 780 zou 6GB gddr5-geheugen krijgen, waarmee Nvidia de hoeveelheid geheugen ten opzichte van AMD's vlaggenschip verdubbelt.

Volgens een Zweedse website wordt Nvidia's GeForce Titan standaard voorzien van driemaal zo veel als de standaardhoeveelheid gddr5-geheugen voor de GTX680 en tweemaal zo veel als concurrent AMD met zijn topkaarten meelevert. De Titan, met aan boord de GK110-gpu, moet die hoeveelheid geheugen kunnen benutten dankzij de gpu-architectuur, die gebaseerd is op de Tesla K20X-kaarten. De GK110-gpu bestaat uit 2880 cuda-cores, opgedeeld in vijftien smx-units die over 1,5MB l2-cache beschikken. De gpu staat via een 384bit brede bus in verbinding met het geheugen, dat op 1,3GHz geklokt wordt.

In de Titan-gpu zouden echter 'slechts' 2688 cores geactiveerd zijn. Dat is ruim zeventig procent meer dan het aantal cores in de GK104 van de GTX680. De prestaties van de Titan zouden dan ook een stuk hoger zijn en die van de GTX690 tot op 85 procent benaderen. De kloksnelheid van de Titan-cores zou met 732MHz flink lager zijn dan de ruim 1,2GHz van de 680, wat bijdraagt aan de relatief lage tdp van 235W. Om 6GB geheugen te realiseren, zou een deel van de benodigde 24 geheugenchips op de achterkant van het pcb geplaatst kunnen worden. De Titan wordt rond eind februari verwacht en zou dan rond de 900 dollar gaan kosten.

De huidige topkaarten van Nvidia, de GeForce GTX680 met aan boord de GK104, worden volgens Nvidia's referentieontwerp met 2GB videogeheugen geleverd. De GTX 690 met twee gpu's wordt uiteraard met tweemaal zo veel geheugen geleverd, maar sommige fabrikanten hebben ook de GTX680 met 4GB of zelfs 6GB geheugen uitgerust. AMD geeft zijn topmodel, de Radeon HD 7970, standaard 3GB gddr5-geheugen mee. Ook van deze kaart zijn varianten bekend met 6GB geheugen en de met twee Tahiti XT-gpu's uitgeruste Radeon HD 7990-kaarten hebben eveneens 6GB geheugen aan boord.

Reacties (125)

Reactiefilter:-11250122+176+23+30
Wow.. wat een verschil. Ik ben echt benieuwd of de huidige high-end kaarten dus snel naar de budget mid-end kaarten doorschuiven...

Wat gaat de introductie prijs wel niet worden....

Vol verwachting klopt mijn hart...
Wat gaat de introductie prijs wel niet worden....
uit artikel: De Titan wordt rond eind februari verwacht en zou dan rond de 900 dollar gaan kosten.
Het lijkt me behoorlijk ongewenst dat een high end kaart 900$ gaat kosten. Het is nog niet zo lang geleden dat high-end kaarten tussen de 300 en 400 $/euro kosten, afhankelijk van hoe lang ze op de markt waren.

Zo wordt pc gamen iets voor een kleine elite, waarbij het toch al niet echt goed ging met de pc wat gamen betreft. Ik kan niet echt volgen waarom Nvidia z'n eigen markt kapot maakt.
Joh dit zijn vlaggenschip-kaarten, kaarten die de top van de technologie van 't moment zijn en waarvan de meer 'mainstream' modellen worden afgeleid. Vergis je niet: alle topmodellen worden, zodra ze uitkomen en nog nieuw zijn, maar gekocht door een kleine elite. Daar moet de winst ook niet vandaan komen, die komt wel uit het 'mainstream'-segment.

NVIDIA maakt echt z'n eigen markt niet kapot, maar introduceert gewoon een nieuwe high-end kaart die het neusje van de zalm moet zijn.

Daarnaast ben ik het pertinent niet eens met je stelling dat PC-gaming niet lekker loopt; sterker nog, door verschillende markt-omstandigheden (o.a. het Kickstarter-principe, de steeds groter wordende Steam-markt, het op zich laten wachten van de nieuwe generatie consoles) lijkt het wel alsof de PC-markt een nieuwe impuls krijgt. Eentje die het broodnodig moest hebben :X

Dit soort technologische ontwikkelingen draagt daar alleen maar aan bij.
Ik zou zeggen geen schip en geen vlag , Het is erg raar dat Nvidia deze kaart uitbrengt. Omdat het om een consumenten editie gaat van de TESLA , is de vraag gaat het nog wel zo goed met de GPGPU markt ?

En ja , deze kaart moeten ze wel in het hogere segment verkopen, kijk eens hoe duur de TESLA is ?

pricewatch: PNY NVIDIA TESLA C2050 +++

Ja de gemiddelde consument zit natuurlijk al jaren te wachten om van hun 900 euri af te komen ......
Een veelvoorkomende misvatting is dat de Tesla-kaarten zo duur zijn vanwege de gebruikte elektronica. Het is echter zo dat je met de (belachelijk) hoge prijs van zo'n kaart een stuk onmisbare service koopt. Als er bijvoorbeeld zaken anders gerenderd worden dan je verwacht/bedoelt, kun je daarvoor bellen en krijg je specialistische hulp, om maar iets te noemen.
Ook zijn de Tesla's niet geschikt om op te gamen. Normale consumentenkaarten hebben een veel hogere framerate als het gaat om ingame live action rendering.
Het is alleen jammer dat de 'superstoere' gamer die denkt dat dit nodig is om überhaupt een spel te spelen het idee geeft aan anderen dat PC gaming duur is (wat niet zo is, als je tenminste een andere videokaart dan deze neemt :P ). Verder vind ik het voor de die-hard fans leuk dat er een alternatief is voor SLI, maar voor de gemiddelde consument is deze launch inderdaad niet zo interessant, zelfs drie 7950's zijn goedkoper.
Dit is niet zomaar een high-end kaart, dit is de top van de lineup, en de prijzen daarvan liggen al veel langer rond of zelfs boven de 900 euro.
Zo wordt pc gamen iets voor een kleine elite
Dit soort kaarten zijn inderdaad voor een kleine groep, maar voor de doorsnee gamer is er zat ander leuks te koop.
Niemand die je dwingt een kaart van 900 euro te kopen.
Mijn 2 jaar oude 6850 (2de hands 75 a 90 euro) voldoet nog steeds op 1080p

[Reactie gewijzigd door eL_Jay op 5 februari 2013 13:38]

Precies! Daarnaast zal als deze reeks.zich uitbreidt de prijzen van de 600 serie wel wat verder dalen. Ik wacht.nog wel even tot ik MIJN HD 6850 vervang.
Flagshipcards zijn altijd rond de 1000 geweest, 7950GX2, 8800 Ultra. 9800GX2, GTX295, GTX590, GTX 690, Titan.
GTX590 had een adviesprijs van 650,-
Wat Arjan ook al zei: de 8800Ultra die je noemde was ook 600 euro bij introductie, een GTX295 ook, en een HD5970 van 2 generaties terug was ook ~600 euro bij introductie.

De genoemde GTX590 was 750-800 euro geweest bij introductie.

De GTX690 is inderdaad een dure met een prijskaartje van 1000 euro bij introductie, en nog steeds zo'n 875 euro minimaal.
Een HD7990 is voor 800-1000 euro geïntroduceerd, en is ook voor zo'n 875 euro minimaal verkrijgbaar.

Doe mij maar weer de prijzen terug van de tijd dat de HD5870 uit kwam: toen kon je voor 300 euro een kaartje kopen waar je weer een aantal jaren mee vooruit kon.
óf voor (iets meer dan) 100 euro een kaart die maar weinig ervoor onderdeed, de Sapphire 5850. Jammer dat ik die tijd gemist heb!
De Nvidia GTX690 kost al ruim 900 euro
@ Dr. Rockzo
Nvidia GTX 690 kost momenteel zo'n ¤ 900 tot ¤ 1000. Dus de prijs is niet verbazingwekkend.
Valt mee, een vriend van mij heeft een GTX 560, die was net geen 180 euro destijds toen die uitkwam en hij draait gewoon BF3 op FHD met alles max op 32fps.

Wat ik hiermee bedoel is dat je geen monster van een kaart nodig hebt voor nomraal gamen, kijk als je 3x FHD schermen wilt of een 2560x1600 scherm wilt dan moet je dieper in je buidel tasten maar voor gamen op een enkel FHD scherm is een kaart van max 300 euro meer dan zat.
Zoals je hieronder ook kunt lezen komt deze boven de huidige lineup te staan. Meer op hoogte van de GTX690.
Ik denk het niet. De hudige high-end pricerange is rond de 500/600 euro/dollar, deze zit daar bijna het dubbele boven.

Een prestige project dus, verwachte verkoop zal ook niet spectaculair zijn. Ik denk dat benchmarks met games en vergelijkingen met een vrijwel even dure SLI opstelling moeten uitwijzen of er uberhaupt een rede is om hier voor te gaan en niet voor 680SLI setup.

Qua prijs zal dit in iedergeval niet de GTX680/HD7970 in de verkoop voorbij gaan.

Een soort van premium segment zeg maar.
Een single kaart die de performance kan halen van een SLI setup heeft altijd de voorkeur. Zeker als het goed zit met vermogen en prijsstelling. 900 dollar is is 900 euro waarschijnlijk maar zal de huidige 690 tot 85% evenaren. Een 690 is ca 2 X 680 of 2 X 670TOP edities en die kosten toch altijd bijna minimaal 800 euro. Een nieuwe Titan Top editie liefst 3 slots want dan lijkt het tenminste wat staat al op mijn verlanglijstje.
um ik weet niet waar je het overhebt hoor maar deze kaart is ruim sterker dan 2 GTX680 in sli en die kosten bij mekaar rond de 900 euro deze kaart mag dus echt wel dat kosten als de prestatie ook daadwerkelijk zoveel hoog licht :X
Denk dat je ff goed moet lezen:

In de Titan-gpu zouden echter 'slechts' 2688 cores geactiveerd zijn. Dat is ruim zeventig procent meer dan het aantal cores in de GK104 van de GTX680. De prestaties van de Titan zouden dan ook een stuk hoger zijn en die van de GTX690 tot op 85 procent benaderen.

Deze kaart haalt een 690 tot op 85% hij is echter ruim veel sneller dan een 680.

FF beter uitleggen waar ik het over heb ...

85% (ruim sneller?) mwa een Top editie is sowiezo al 15-20% sneller. Jouw sli setup die veel meer vermogen verstookt voor hetzelfde geld en misschien voor 50 - 100 euro meer een top model die net zo snel is dan jouw setup... nou dan weet ik het wel. Liever 1 kaart! Makkelijke afrlow = kleinere kast (mini ITX) , minder touwtjes in je kast, nieuw platform wat minder energie verbruikt, nieuwe feautures, 6GB, Veel meer cuda cores bv voor rendering / video conversie. En die kaart die op 0,7GHz wordt geklokt ipv 1,2Ghz zal een zalige overclock potentie hebben. Het is natuurlijk een ander platform en de overclock potentie moet zich nog bewijzen. Iemand zin in mijn Asus 670 Top ?

[Reactie gewijzigd door victoire22 op 5 februari 2013 14:34]

Ze hoeven niet te concureren. Want dit is gewoon een speciaal product wat momenteel nog geen concurrentie heeft. Alleen van de CF,SLI en de Dual GPU kaarten. Maar dit is verder de snelste single GPU. Zelfs de HD8970 kan (als hij de 2560 shaders krijgt die geruchten voorspellen) zal het moeilijk krijgen met deze kaart. En sowieso is die ook nog niet uit.

Kortom op dit moment is die prijs wel te rechtvaardigen. En daarnaast zijn de yields van deze chips ook niet zo goed als die van GK104's. Ze zijn echt veel groter. Ik denk dat nVidia de volledige werkende 2880 shader chips ook mooi aan het opsparen is voor andere dingen.

Tot dat AMD met een concurrent komt kunnen ze die prijs er wel voor vragen. En dat sommige mensen het niet met de prijs eens zijn zal nVidia ook een worst wezen. Die kunnen dan een GTX670 of GTX680 kopen.
Wat ik alleen niet snap is hoe nVidia tot 85 % betere prestaties komt, terwijl er 70% meer Cuda-blokken zijn, maar hun kloksnelheid is ~40% lager. Dat is natuurlijk zalig voor de prestatie/verbruik verhouding maar het absolute prestatieniveau zou dan (in theorie) niet veel hoger liggen. Hoe krijgt nVidia dit voor elkaar, of praten we nog steeds over GPGPU berekeningen, waar de GK110 gewoon veel beter voor geoptimaliseerd (bij gebrek aan een beter woord) voor zou zijn?
Ik vind de prijs wel vreemd, rond de 900 dollar met 85% van de 690 prestaties. Terwijl het een 780 word. De 680 was rond de 500 dollar op launch.
Vraag me af wat dan de 790 word! een zieke, zieke monster kaart met dubbele GK110-gpu ?
Geen vraag naar denk ik, ten eerste de prijs, en het verbruik wordt hoog (zeker icm overklokken) en nVidia heeft dus naar alle waarschijnlijkheid sowieso al het vlagschip in handen*, dan is het nogal geldverspilling om nog een kaart te gaan ontwerpen.

*Omdat de 8970 hier niet overheen gaat, moet er al een 8990 komen van AMD waarvan het ten eerste nog lang niet zeker is dat er één komt (er is ook geen 7990 van AMD) en ten tweede, als de prestaties echt zo hoog liggen als nVidia beweert is het ook nog niet zeker dat hij er overheengaat.
wat bijdraagt aan de relatief lage tdp van 235W
Wat je laag noemt :X
Het is ook relatief he. ;)
Moet zeggen dat het mij meevalt. Mijn 7950 heeft een TDP van 200W. Vraag mij af hoe de Titan presteert in vergelijking met die. Hoop dat er snel benchmarks komen.

[Reactie gewijzigd door spookz0r op 5 februari 2013 13:11]

Eerst maar eens zien of die 235 watt ook klopt. Dan pas ga ik het geloven. de GTX480 zat ook ver boven zijn TDP als je hem zwaar ging belasten. Dus TDP's moet je niet altijd geloven zonder ze te controleren.
[...]
Wat je laag noemt :X
Hoger dan de 195W van de GTX 680 idd, al blijft het wel relatief natuurlijk. De GTX 580 zat nog een stuk hoger met 244W.
Vraag me af hoe snel zo'n ding wel niet rendert met zoveel CUDA cores.
Dat hangt af van de toepassing. De verwerking binnen een GPU met CUDA-cores verloopt parallel. Om iets parallel te draaien moet je de data (lees: instructies, informatie in geheugen) in stukken hakken. Je kunt het niet eindeloos blijven verdelen, op een gegeven moment houdt dat gewoon op.

Het hoeft dus helemaal niet zo te zijn dat een toepassing op een GPU met 1000 CUDA-cores op 300 MHz sneller is dan een op een GPU met 500 CUDA-cores op 300 MHz. Dat hangt puur af van hoe ver het parallel gedraaid kan worden.

In veel gevallen, vooral met renderen, komt het er vaak wel op neer dat het (iets) sneller gaat. Wat bijvoorbeeld kan resulteren in meer FPS in games, of dat je 3d animaties (zoals die van Pixar etc.) een aantal minuten, misschien wel uren, sneller klaar zijn.

Het kan dus zijn dat je vooral bij nieuwe games meer FPS krijgt, terwijl het bij oude games nagenoeg gelijk blijven, omdat de huidige videokaarten nu al meer parallelle taken aankunnen dan het spel te bieden heeft (als in instructies en geheugen.)

[Reactie gewijzigd door ThomasG op 5 februari 2013 13:16]

Wat de vraag dan ook brengt (aangezien je laatste allinea er ff over ging)

Welk spel heeft in hemelsnaam 6 GB video geheugen nodig.

De 7970 (heb mijn kaart als voorbeeld genomen) heeft zoals iedereen weet 3 GB VRAM, maar... Weet iedereen wel dat die bijna ALTIJD maar rond de 2048mb gebruikt? en dit op 5040x1050?

er is 1 GB eMMC moduletje op mijn kaart dat dus letterlijk nooit gebruikt wordt, ook als je volledig high-end aan het gamen bent.

Ik hoop dat CUDA programmas er meer nut aan hebben, in gaming zie ik deze kaart toch niet als aanrader.
Hmm ik denk dat ArmA 3 het wel zou kunnen gebruiken, 10 kilometer ver kunnen kijken vraagt wel wat. Daarbij gebruiken huidige games misschien wel bijna altijd maar rond de 2048, maar dat wil niet zeggen dat dat over een paar jaar heel anders is. En laten we eerlijk zijn, een kaart als deze koop je niet om over een jaar te vervangen, tenzij je echt geld teveel hebt :P
Maar dan kun je ook gewoon een bestaande 7970 met 6GB kopen. Kost je ook erg veel, maar altijd nog minder dan het beest dat hier besproken wordt.
Weet niet welke games je speelt. Maar iedere highend-game waarbij je hoge resolutie-textures kan instellen en een verre drawdistance, slokt geheugen. Zet je je schermresolutie hoog in combinatie met AA, zit je met gemak boven de 2GB. Ik zat snel aan die limiet bij oa GTA IV, Crysis 2, Battlefield 3 en Skyrim (gemod).
Ik kijk alvast uit naar meer video geheugen!
Je verwart cpu parallellisatie met gpu parallellisatie. Een frame (voor een game) kun je opdelen in kleine stukjes. Dat schaalt dus prima en heeft verder niets met het aantal paralelle taken te maken.

De limiet waar jij op doelt zit vaak in de engine van de game en niet in de grafische kaart. Veel shooter opties hebben een instelbare engine. In een engine zit een "loop" geprogrammeerd om de frames per seconde te beperken.

Sommige van die oude game shebben een instelbare engine. Zo kun je bij de quake engine (call of duty 1 tm huidig , soldier of fortune 1/2, enz) de max fps verhogen tot bijvoorbeeld 300. Een moderne kaart zal vervolgens fluitend de 300 halen.

Vroeger had een kaart een aantal grafische kaart een aantal pixel pipelelines en vertex shaders. Tegenwoordig zijn het allemaal unified shaders en kun je dus alles inzetten (mits de engine meer frames toe staat).

[Reactie gewijzigd door sdk1985 op 5 februari 2013 15:28]

Ik heb het niet over gaming, want games gebruiken meestal geen CUDA (uitgezonderd Just Cause 2, die gebruikte het voor water simulatie).

Nee, ik heb het over raytracing, VRay of Cycles ofzo. In principe kunnen die vrijwel oneindig veel cores gebruiken voor rendering.
Voordat we allemaal gaan lopen kwijlen over de specs , eerst de benchmarks afwachten
12Ghz moet 1.2Ghz zijn
Ik wilde inderdaad al gaan vragen of dat klopte. Dat zou wel érg extreem zijn..
12Ghz is onmogelijk want 10Ghz dan zouden schakelingen al met de snelheid van het licht moeten gaan. sneller kan dus niet...
Als je niet weet waar je over praat. Zeg dan gewoon niets. Ik werk dagelijks met apparatuur die de 40 GHz haalt. Geen enkel probleem en al helemaal niet meer high end.

http://www.rohde-schwarz....startpage_63493-8447.html Zelfs hoger is mogelijk, ook voor de consument.
Waar woon je? Wel realistisch blijven...
Maar wordt dit nou een consumenten render kaart of een de nieuwe serie voor gamers ?

Staat in dat het een GeForce 780 zou moeten zijn, maar deze is afgeleid van een render kaart.
En dat staat in meerdere artikelen ook zo. Als ik naar de nummering kijk zou het een gamers kaart zijn. Kijk ik naar de architectuur dan zou het een render kaart moeten worden.

[Reactie gewijzigd door Slurpie op 5 februari 2013 14:35]

Helaas... geen fipo voor jou. Misschien had je toch iets meer dan 6 minuten de tijd moeten nemen om het artikel te lezen, of even te googlen.
Volgens mij is het nu het idee om er een soort van speciale serie van te maken onder de naam Geforce Titan. En verder geen GTX7xx of iets in die richting.
Volgens mij moet 12Ghz 1,2Ghz zijn. Of ik moet ergens wat gemist hebben ;)

Ontopic: ik ben wel benieuwd naar de perfomance verschillen tussen de 7990 en de Titan. Zeker de toename in geheugen is op dit moment nog niet rendabel. Straks met de 4K en 8K resoluties zullen de kaarten pas tot hun volledige potentieel komen.

[Reactie gewijzigd door muppet99 op 5 februari 2013 13:06]

The rumors haven't been verified since PCOnline has not named their source, but claim that it is a reliable source. Their source says that the GeForce Titan scores X7107 points in 3DMark11, in extreme mode, a massive jump above the GTX 690. The GTX 690 alone already scores just shy from X6000 points with the same benchmark under the same conditions. The most staggering part though is that the Titan, a single GPU part, outperforms the GTX 690, a dual-GPU part.

http://www.tomshardware.c...n-GK110-GTX690,20797.html
Die is al tijdje ontkracht, inverted plaatje liet zien dat het een OC 690 was.
De 7990 series zijn toch gewoon 2x 7970's? Zoals ik nu die Titan zie, is dat een single-GPU.

Edit, staat ook in het bericht:
AMD geeft zijn topmodel, de Radeon HD 7970, standaard 3GB gddr5-geheugen mee. Ook van deze kaart zijn varianten bekend met 6GB geheugen en de met twee Tahiti XT-gpu's uitgeruste Radeon HD 7990-kaarten hebben eveneens 6GB geheugen aan boord

[Reactie gewijzigd door SinergyX op 5 februari 2013 13:10]

Aangezien de kaart intern Crossfire gebruikt heb je dus effectief 3GB. Aangezien de huidige Crossfire en SLi technieken geen shared memory hebben moet elke GPU +- dezelfde data in het geheugen hebben staan.

Dit is bij de GTX690 ook zo. Die heeft effectief 2GB.

[Reactie gewijzigd door Astennu op 5 februari 2013 13:23]

http://geizhals.de/eu/804866
http://geizhals.de/eu/830128

Hebben beide 6gb gddr5. Single gpu kaarten. Het nut daarvan is een andere vraag :p
''732MHz flink lager zijn dan de ruim 12GHz van de 680''

moet dat dan niet 1200mhz zijn of 1.2ghz?
kan iemand mij uitleggen wat ik met al dit geweld zou willen draaien? ik ben zelf een game freak, maar kan me niet voorstellen welke games dit vereisen...

ik heb sowieso het nut van meer dan 60 frames nooit begrepen.
Voor het draaien van 3D in games zul je dus voor een effectieve 60 fps, 120 fps laten renderen door je graka.
Games worden steeds extremer, om volgend jaar nog iets goed te kunnen spelen moet je upgraden. Kijk bijvoorbeeld even naar The Witcher 3 die eraankomt, daar heb je zo'n GPU wel voor nodig ben ik bang.
Games extremer? Sinds crysis staat de pc evolutie stil, noem mij een game die er grafisch veel beter uit ziet 5 jaar na crysis?
Het enigste wat ik zie is dat de huidige pc games extreem slecht geoptimaliseerd zijn.

Kijk wat ze uit de console kunnen persen, als ze dit ook met mijn huidige pc kunnen dan heb ik geen kaart van 900 euro nodig.
O. Jij zit te wachten op 32x AA? Ik in ieder geval niet. Ik denk dat snellere kaarten nu vrij zinloos zijn, ik hoop dat er snel 4K schermen komen, dan heeft sneller weer pas weer (echt) nut ben ik bang.
Ik bedoel, zet een game op high of op ultra, als je aan het spelen bent merk je het toch niet, terwijl die ultra vaak wel 2x zwaarder is voor je videokaart.
Toekomstige spellen worden natuurlijk weer een stuk zwaarder nu de volgende generatie consoles bijna klaar staan om verscheept te worden. Daarnaast is het toch wel fijn 120 frames te hebben wanneer je in 3D gaat spelen.

Persoonlijk zie ik liever dat ze wat aan het idle verbruik van dergelijke kaarten doen. Zelf heb ik op het moment een dual GPU opstelling en die kaarten verbruiken samen idle 200 watt. Dat is een hoop geld aan energie, voor iets wat op dat moment niet eens gebruikt wordt.

Processoren worden steeds energie efficienter. Dat is een echte trend aan het worden. Maar aan de andere kant heb je de GPU die dat weer compenseerd door een absurde hoeveelheid energie te verbruiken.
Er wordt al een tijdje gekeken naar de energieverbruiken van de GPU's en het verschil met de CPU wereld is er eigenlijk niet.

Beide onderdelen worden op dezelfde manieren energiezuiniger gemaakt en de technieken hebben ook effect. Zo heb je voor een GTX660 nog maar een kleine 140w nodig wat dus maar 1 PCIE 6 pin stekkertje is. Maar die kaart draait wel 1080p.

Zowel CPU als GPU gebruiken al:

speedstep of boost technologie - kloksnelheden tijdelijk verhogen
sleep of idle states - kloksnelheid verlagen bij idle
gpu power down - AMD gpu's hebben dit, waarbij het verbruik in idle erg laag is, vanzelfsprekend is dit bij CPU niet goed mogelijk

en belangrijkst van al, kleiner procede. Alleen AMD zit nog op een (te) oud procede en moet een die shrink doen om verbruiken terug te dringen. Kijk je naar de 22nm procedes dan zie je een sterke daling in verbruik tov geleverde performance. Net zoals AMD langzamer is op de CPU markt zijn ze dat ook op de GPU markt en loopt Nvidia net als Intel voor met een kleinere die.
Wat klets jij nou? Op gpu gebied doet AMD het nog steeds erg goed en was het eerder met 28nm dan nvidia met de HD7000 series. Ook lopen ze qua performance niet achter, want met de nieuwste drivers is de HD7970GHz de snelste videokaart atm. Cpu-wise lopen ze idd wel achter, hoewel ze price-performance het nog steeds wel goed doen.
Precies, en die GTX 660 is nou juist het verkeerde voorbeeld; ik dacht dat die kaart meer verbruikte zijn AMD-tegenhanger, maar ik ga het niet nazoeken. Neemt niet weg dat het verder een prachtig midrange kaartje is.
games worden steeds mooier en we zijn nog lang niet bij fotorealistische beelden. (al ziet het er allemaal wel erg mooi uit tegenwoordig ;) )
Pas als je een 4K CG film uit hollywood in real time kunt renderen op je telefoon zal men blij zijn (of... misschien is er dan weer iets nieuws)
uit onderzoek is gebleken dat mensen bvb 120 fps soepeler vinden spelen dan 60 fps! het gaat hier natuurlijk wel om een gevoels kwestie!

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Smartphones Processors Sony Microsoft Games Apple Consoles Politiek en recht Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013