Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 165 reacties
Submitter: TheUninvited

De Nvidia GeForce GTX 1070 krijgt net als de GTX 1080 een gpu met 7,2 miljard transistors, maar van de 20 streaming multiprocessors zijn er 15 ingeschakeld. Dat resulteert in een kwart minder cudacores. De maximale boostsnelheid is iets lager dan bij het topmodel.

Nvidia maakte tijdens de presentatie van de GTX 1080 en 1070 begin mei nog maar weinig bekend over laatstgenoemde. Nu heeft de fabrikant de specificaties bekendgemaakt en blijkt dat de videokaart 15 ingeschakelde streaming multiprocessors heeft, met 1920 cudacores en een maximale boostsnelheid van 1683MHz. De GTX 1080 heeft 20 sm's en 2560 cudacores met een boost van 1733MHz, al blijkt uit reviews dat de snelheid in de praktijk vaak tot boven 1,8GHz oploopt.

Al bekend was dat de GTX 1070 8GB gddr5-geheugen krijgt; de snelheid is 2GHz. De GTX 1080 heeft 8GB gddr5x-geheugen, dat met 1250MHz lager is geklokt, maar omdat de prefetchbuffer twee keer zo groot is, wordt de doorvoersnelheid verdubbeld. De geheugenbandbreedte van de GTX 1070 bedraagt 256GB/s, tegenover 320GB/s voor de GTX 1080. De tdp van de GTX 1070 is met 150 watt iets lager dan de 180 watt van de GTX 1080.

Dinsdag brachten diverse websites, waaronder TechPowerUp en Videocardz, al informatie naar buiten, maar een bronvermelding of bevestiging van Nvidia bleef uit. Volgens PC World heeft Nvidia bevestigd dat de informatie juist is. In de gepubliceerde gegevens staan meer details over bijvoorbeeld de rop's en tmu's, die Nvidia niet zelf op zijn website heeft staan.

Nvidia GTX 1080

Er zijn nog geen benchmarks van de GTX 1070 gepubliceerd. Dinsdag zijn de reviews van de GTX 1080 online gegaan. Daaruit blijkt dat het topmodel ongeveer 30 procent sneller is dan een GTX 980 Ti op stock-snelheid. Gezien de specificaties is de verwachting dat de GTX 1070 ongeveer gelijk zal presteren aan de 980 Ti, maar benchmarks moeten dit uitwijzen. Wanneer die verschijnen, is nog niet bekend. Nvidia claimt zelf dat de GTX 1070 ongeveer 70 procent sneller is dan de GTX 970 in games als Rise of the Tomb Raider en The Witcher 3: Wild Hunt.

Nvidia GTX 1070 prestaties

Vanaf 10 juni is de 'Founders Edition' van de videokaart te koop. Dit is een duurdere variant met referentieontwerp van Nvidia. Wanneer fabrikanten met hun eigen uitvoeringen komen, is nog niet bekend. De Founders Edition krijgt een adviesprijs van 449 dollar. Varianten met aangepast pcb zullen bij 379 dollar beginnen. Omgerekend, inclusief btw gaat het om ongeveer 477 en 402 euro. Waarschijnlijk is de euroadviesprijs hoger. Bij de GTX 1080 is dat bijvoorbeeld 789 euro tegenover 699 dollar.

Videokaart GTX 970 GTX 980 GTX 980 Ti GTX 1070 GTX 1080
Gpu GM204 GM204 GM200 GP104-200 GP104-400
Procedé 28nm 28nm 28nm 16nm finfet 16nm finfet
Transistors 5,2 miljard 5,2 miljard 8 miljard 7,2 miljard 7,2 miljard
Sm's  13  16  22 15 20
Cudacores 1664 2048 2816 1920 2560
Tmu's 104 128  176 120 160
Rop's 56 64  96 64 64
Baseclock 1050MHz 1126MHz 1000MHz 1506MHz 1607MHz
Boostclock 1178MHz 1216MHz 1075MHz 1683MHz 1733MHz
Vram 4GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x
Geheugenbus 256bit 256bit 384bit 256bit 256bit
Bandbreedte 224GB/s 224GB/s 336,5GB/s 256GB/s 320GB/s
Tdp 145W 165W 250W 150W 180W
Stroom-
aansluiting
 2x 6pins 2x 6pins 6pin+8pin 1x 8pins 1x 8pins

Vergelijking van de nieuwe Pascal-videokaarten met de op Maxwell gebaseerde GeForce 9XX-generatie.

GTX 1080 block diagram

De volledige lay-out van de GTX 1080-gpu met 20 sm's en 2560 cudacores.

Moderatie-faq Wijzig weergave

Reacties (165)

vind ik toch altijd zonde dat het in Principe hetzelfde apparaat is maar gewoon dingen uitgeschakeld zijn om verschil te maken.
In computerchips zitten altijd zo nu en dan fouten. Zo'n fout kan er voor zorgen dat een of meerdere SM niet meer werken. De chips die wel helemaal werken gaan in de GTX 1080. Maar het is zonde om de chips die niet helemaal werken weg te gooien, dus die stoppen ze in de GTX 1070. Zo hoeven ze maar 1 chip te ontwerpen en produceren terwijl ze een erg snelle en dure GPU kunnen lanceren, en met de chips die gedeeltelijk niet functioneren kunnen ze een iets minder snelle maar veel goedkopere GPU maken.

Edit: Oorlam dat klopt. Als bij een GP104 die (waar de GTX 1080 en 1070 van gemaakt worden) ook maar 1 SM stuk is schakelen ze er gewoon nog 4 uit. Bij 2 stuk nog 3 extra etc., zodat je altijd op 15 werkende SM's uitkomt voor de GTX 1070. Maar het verhaal blijft dat ze toch niet helemaal heel waren en dus niet in de 1080 gebruikt hadden kunnen worden.

[Reactie gewijzigd door Balance op 18 mei 2016 16:28]

Afhankelijk van de vraag naar de verschillende producten maken de chips soms opzettelijk 'stuk' of schakelen ze een deel uit in de firmware. Laten we daar hier ook weer op hopen. Een 1080 voor een 1070 prijs klinkt mij ideaal :)
Ja ik weet nog goed dat dit d.m.v. een Omega Driver een ATI 9800SE een PRO werd. Zou grappig zijn als dit weer eens kan....
Op Nvidia's is dat met de 700 generatie "opgelost", of je moet erg veel kennis hebben van de video kaart zelf en dit hardwarematig zelf "oplossen". En dan software matig de drivers nog zo ver krijgen dat je er wat mee kan.

Op de oude AMD Phenoms kon je zonder al te veel moeite ook van je tri core een hexacore dualcore een quadcore maken als je geluk had. Veel bulldozers komen ook met meer cores dan er geactiveerd zijn, de FX4100 is een octo core, maar die 4 extra cores krijg je echt niet aan de praat.

[Reactie gewijzigd door batjes op 18 mei 2016 22:21]

Van tri naar quad was dat. Nog steeds leuke performance boost.
Ook hexa toch? Staat me bij dat er 2/3 cores verkocht waren dat van origine hexa's waren en afhankelijk van je geluk je 1 of meer cores in kon schakelen.
De Phenoms waar jij het over hebt waren Quadcores en indien nodig met uitgeschakelde core voor een TriCore.

De Hexacores komen voort uit een andere generatie.
Geschakelde DualCores.
Ah bedankt voor de verduidelijking :)
Is het dan niet zo dat de printplaat er onder ook niet gewoon anders is? waardoor bepaalde sectoren bijvoorbeeld niet aangesloten zitten of geen power krijgen?
Ik denk het niet, want dan ben je alsnog andere hardware aan het produceren. Het mooie aan dit is dat je eigenlijk maar 1 kaart maakt en daar dan 2 versies van kan maken. De "slechte" kaarten voor de 1070 en de "goede" voor de 1080.
R9 Fury's kunnen soms ook unlocked worden, echter vaak naar 3800 in plaats van de 4000 van de Furyx. Sommige geluksvogels die een fury van de 1e batch sapphire fury's heeft kan hem vaak volledig unlocken :) zelfde geld geloof ik ook voor 290 --> 290x
BIOS update van mijn 9800PRO was voldoende om er een XT versie van te maken :Y).
(Dat ik daardoor wel een andere koeler moest monteren is dan wel weer zo, maar om een single-slot koeler met 40mm fan te vervangen is niet zo'n hele grote ramp)
Ik heb toen inderdaad hetzelfde gedaan 9800PRO naar XT via een firmware flash. Zalman koeler erop gezet en klaar.
Dit was ook mogelijk met de HD6950 die je naar een HD6970 kon flashen.

In de meeste gevallen werkte dit perfect.
Waar is de tijd gebleven dat je met een potloodstreepje de performance kon boosten? |:(
Dat zou wel leuk zijn, netzoals bij de amd 6950 er een 6970 van maken door een andere bios te flashen 8-).

De prijzen worden steeds hoger of ligt dat aan mij? §789 voor een GTX 1080 en de GTX 980 was volgens mij goedkoper.
De kaarten van board-partners, zoals EVGA, MSI of ASUS zullen ongeveer §100 goedkoper op de markt gezet worden.
Dan moet je er toch minstens op rekenen dat er lanes onderbroken zijn/worden. ;)
Omdat als de vraag naar 1070 groter is dan het aantal "defecte" , ze de goeie ook gaan gebruiken,zoals amd het bij de sempron145 heeft gedaan. :)
Ooit was dit leuk met de Nvidia 6800GT en 6800LE. Bij de LE kon je toen een aantal Vertex Shaders en Pixel Pipelines unlocken en maakte je van een LE kaart een GT kaart. Dit scheelde nogal wat geld en vrijwel iedere LE kon dit toen. Ik heb toen 2 LE kaarten gehad die beide te unlocken waren naar GT. Ben bang dat dit alleen nooit meer gaat gebeuren, maar toen was dit wel erg leuk.
De 6800 ultra had 16 pipes en de LE 8 pipes, met rivatuner kreeg ik toen 4 pipes erbij, dus totaal 12. Bij 16 stuks deed die het niet. Dit was 2005 en zeker leuk.
Ik neem aan dat jullie de 6800GS bedoelen ipv LE. Ik weet nog dat er destijds op Tweakers een dedicated topic voor was met een 3dmark challenge waarbij mijn score lange tijd op 1 stond :) dat waren nog eens tijden. Toen was de hardware in verhouding ook een stuk betaalbaarder.
Er was een LE, die XFX GF 6800LE 128mb ddr tv dvi ligt nu op mijn schoot(verzamel tik)

6800 Ultra 16 6 256-bit =16 pipelines, 6 Vertex Processors
6800 GT 16 6 256-bit
6800 GS 12 5 256-bit
6800 LE 8 4 256-bit

https://en.wikipedia.org/wiki/GeForce_6_series
LE stond voor Low Edition.

[Reactie gewijzigd door Doorslammer op 18 mei 2016 20:13]

Precies hetzelfde gedaan met mijn eerste XFX GF 6800 LE 128 MB. Van 8 pipelines unlocked naar 16 en werkte nog super ook... althans voor een ťťn jaar. Daarna begaf de kaart het plots volledig. Wel onder garantie een nieuwe 6800 LE gekregen :X

Maar op de ťťn of andere manier kon ik bij de tweede 6800LE kaart geen pipelines meer unlocken. Toen maar ge-upgrade naar de 7800GS 512MB. Volgens mij was dat de snelste kaart die er was voor het oude AGP. Maar de benchmarks scheelde maar weinig met mijn eerste getunede 6800LE :'(
Moeten het hiervoor niet allemaal werkende sm's zijn die ze dan uitgeschakeld hebben?
Als er 1 van de 5 sm's daadwerkelijk kapot is en je deze wil gaan aansturen met andere firmware lijkt me dat dit wat problemen gaat opleveren.

En hoe zit dat dan met het verschil in geheugen? Denk dat gddr5x mogelijk andere aansturing nodig heeft dan gewoon gddr5?

[Reactie gewijzigd door Cowamundo op 18 mei 2016 20:56]

Zo heb ik mijn Gigabyte R9 290 4GB OC naar een volwaardige 290X weten te flashen. Gratis perfomanceboost, wie wil dat nou niet?
Het lijkt mij dat je, als je 'per ongeluk' te veel perfecte chips maakt, het beter uit zou kunnen om wat extra vlaggenschip kaarten te maken en de prijs wat te laten dalen. Kun je de concurrentie mooi de loef afsteken.

Natuurlijk wel afhankelijk van de extra hoeveelheid perfecte chips die je geproduceerd had, de marktprijs van je beste en op een na beste kaart, enz. of dat daadwerkelijk de beste keuze is.

[Reactie gewijzigd door Me_Giant op 18 mei 2016 17:08]

Dat is niet goed voor de verkoop van volgend jaar, want dan wordt alles opeens weer veel duurder.
Als de concurrentie markt aandeel snoept wil nvidia nog wel is een revisie doen.

Zie de Gtx 260 216 ipv 192 cuda cores

Dit deden ze om wat wind uit de hd4870 te halen.
Maar toendertijd was dat bij AMD niet het geval, je kan de HD 6950 gewoon omzetten naar een HD 6970 door een 6970 VBIOS te flashen zonder problemen.
Dat lag vooral aan het geheugen dat gebruikt werd, xx50 is normaal bij AMD DDR3 geheugen, xx70 DDR5 en xx90 GDDR5.
Dus als je een 6950 kaart had waar wel gewoon DDR5 geheugen op zat kon je zonder problemen een andere bios flashen.

AMD heeft ook kaarten gerebrand, oude kaarten een nieuwe nummer gegeven zonder er verder iets aan te veranderen (soms iets hogere clocksnelheden voor GPU en geheugen) maar de hardware bleef hetzelfde.
Als die kaarten verder dezelfde kloksnelheid behouden heb je er verder ook geen prestatiewinst van.
Dat lag vooral aan het geheugen dat gebruikt werd, xx50 is normaal bij AMD DDR3 geheugen, xx70 DDR5 en xx90 GDDR5.
Dus als je een 6950 kaart had waar wel gewoon DDR5 geheugen op zat kon je zonder problemen een andere bios flashen.
Heel bijzonder. DDR5 geheugen bestaat namelijk niet, alleen GDDR5.

En xx70 en xx90 hebben beiden gewoon GDDR5, waarbij de xx90 gewoon de dualgpu-versie was, zoals de 6970/7970 single en 6990/7990 dual-gpu. Maar in die series hadden de 6950 en 7950 ook GDDR5, zelfs de 5850 had dat. Je kunt dus helemaal geen standaard aanwijzen welke xxxx cpu wel of geen DDR3,GDDR3 of GDDR5 had.

Ik vind het behoorlijk hoge prijzen. De 1080 is duurder dan een 980ti en dat terwijl er ook nog een Ti in het verschiet ligt. Het lijkt Intel wel die boven zijn § 1.000,- kostende 5960X nog even een treetje extra zet bij de opvolger van § 1.600,-.

Even afwachten wat AMD ons kan bieden.

[Reactie gewijzigd door White Feather op 18 mei 2016 18:45]

Omdat er al een 4870 x2 was.

Na de hd4xxx serie was 90 dual gpu.
Die prijzen zijn van de officiŽle Nvidia kaarten. De kaarten van msi, evga etc worden goedkoper. Ook daalt in de loop van het jaar de prijs nog een beetje. Logisch dat ze ook wat duurder zijn, want er bestaat ook nog zoiets als inflatie.
ah ja, ik had de GDDR5 versie.

Ik kreeg toen zo'n 10fps winst op Witcher 2, wat het toch wel waard was.

Maar mijn punt was juist dat het niet altijd kapotte SM's zijn en dat er gewoon dingen uitgeschakeld worden terwijl ze gewoon nog volledig werken.

Misschien omdat het rendement gewoon te hoog was om er alle 6950's van te bevoorraden.

[Reactie gewijzigd door BJ_Berg op 18 mei 2016 18:20]

Daar heb je helemaal gelijk in, is ook een manier om productschaarste te creŽren, als er minder 1080's worden uitgebracht blijft de prijs langer hoog.
Nee. Enkel bij het low-end segment HDx4/5xx en R5 x4/5x kaarten kom je dit tegen. Er is geen HD6950 met DDR3 en DDR5 bestaat (nog) niet.

De 'hoogst' geklasificeerde AMD kaart met DDR3 welke ik mij zo kan herinneren is de HD5670, maar ook daar was de standaardversie uitgerust met GDDR5.
Ook echt niet bij alle 6950s ging dat op, het lijkt erop dat misschien bij de eerdere generatie de mogelijkheid nog bestond, maar mijn 6950 werd geen 6970 door een BIOS aanpassing. Ik ken zelfs iemand die er 2 in zijn systeem heeft gehad, maar daarvan kon hij er maar 1 flashen en 1 niet.
Ging inderdaad niet voor alle 6950's op. Ik had een Sapphire 6950 2GB waarbij het niet kon.
Of 0 stuk en 5 extra uitgeschakeld indien de vraag naar de GTX 1070 groot is. Hopelijk valt een GTX 1070 te unlocken naar een GTX 1080.
Dat kan niet. De 1070 heeft ander geheugen, ddr5 tegenover ddr5x.
Daarom kan een 1070 nooit een 1080 worden.
tsjah,dat is hoe die markt (en anderen trouwens ook) gewoon al jarenlang werken...
Van de andere kant heeft dat ook zijn voordelen aangezien je daardoor ook mainstream (low en mid-end) kaarten krijgt...
Nee, het is niet hoe die markt werkt, het is hoe het prodcutieproces van een chip werkt. Zoals anderen al aangaven is het inherent aan dat productieproces dat je betere en mindere chips produceert. Daar maak je dan snelle en wat minder snelle videokaarten van.
Dat is ook niet compleet correct hoor, omdat fabrikanten bepaalde delen van de chips kunnen uitschakelen, resulterende in een andere serie videokaart, kunnen ze inspelen op de vraag van de markt.... Als het uitsluitend aan het productieproces zou liggen dan zou je met verloop van tijd alleen high-end (dure) kaarten zien aangezien het productieproces steeds beter wordt met betere yields, en dat terwijl de meeste vraag juist naar goede mid-end kaarten is en niet de high-end kaarten...
Nee, het kunnen uitschakelen van onderdelen is wel degelijk hoe de markt werkt omdat dat juist voor fabrikanten enorme keuzemogelijkheid geeft met maar een enkele chip-design en/of fabriek....
Volgens mij zijn het juist vaak de 'mindere' individuele chips die toch niet tot de kwaliteit zouden komen die benodigd is voor een 1080. Zonde is hierop volgens mij niet echt van toepassing, omdat ze anders weggegooid zouden worden.
Niet echt zonde. Chips zijn duur. In plaats van de chip weg te gooien bij een foutje kun je de helft uitschakelen en alsnog verkopen.
ze schakelen een kwart uit.
Dat is opmerkelijk veel voor een gpu.

ach ze maken alvast ruimte voor een 1070ti
Dat noem je zonde... Zeg dat maar eens tegen de chipfabrikant. Beter dat je deels defecte chips alsnog kunt toepassen. Of zou je het anders een beter idee vinden dat deze videokaarten allemaal 10x zo duur zouden zijn wegens het grote verlies? Common sense dit hoor, deze methodiek wordt al heel lang toegepast en is niet zonde, maar eerder efficiŽnt en cruciaal te noemen.

En tevens is dit voor ons tweakers juist geweldig dat deze methode wordt toegepast. Als de yields beter worden en er dus minder fouten in de chips zitten blijft de grote vraag naar mid- en low- range chips waardoor er 'volwaardige' chips belanden in deze range. In zo'n geval heb je dus een echte 1080 voor de prijs van een 1070 bijvoorbeeld. Voorheen zag je dat een deel van de chip dan softwarematig was uitgeschakeld (BIOS), en deze kan je dus weer inschakelen. Mijn R290 videokaart draait ook als een volwaardige R290X middels een BIOS mod. Zo zijn er tal van producten te vinden. De eerste videokaart die ik had waarbij dit ook (soms) lukte was de Radeon 9500 welke 4 van de 8 rendering pipelines actief waren. Unlock de andere 4 middels een BIOS mod en de kaart was bijna 2x zo snel! De winst was toen absurd, dat zie je tegenwoordig niet meer en er wordt ook steeds vaker een stokje voor gestoken.

[Reactie gewijzigd door BruT@LysT op 19 mei 2016 12:19]

Ik vind de prijzen eigenlijk nog best wel fors, toch maar even wachten tot de andere fabrikanten met hun ontwerp komen.
Lijkt me toch wel een goede upgrade vanaf een GTX670, maar ik denk dat de 1070 toch wel rond de 450/500 euro zal zitten bij de introductie?!
350 euro is toch wel mijn max voor een andere videokaart, maar deze prijs zal nog wel even op zich laten wachten ;)
Ik heb de 970 destijds direct na introductie gekocht. Daarna werd hij alleen maar duurder, waarschijnlijk vanwege wisselkoerswijzigingen. Pas sinds de laatste maanden is hij goedkoper dan bij introductie.

De prijs gaat dus niet vanzelfsprekend dalen na introductie.

[Reactie gewijzigd door aap op 18 mei 2016 18:05]

ik ben het met je eens, de prijzen zijn wat mij betreft ook veel te fors. maar goed, uit verleden blijkt wel dat deze genoemde prijzen vaak ook snel dalen. Overigens verwacht ik ook nog wel een kleine prijzenoorlog in het segment van de GTX1070 zodra AMD z'n Polaris 10 tegenhanger introduceert waarvan ook wordt verwacht dat deze een 980Ti de baas is.
Wacht ook nog even op de AMD Polaris kaarten. We zitten nu current gen Nvidia met last gen AMD te vergelijken. Wanneer Polaris binnen een aantal weken ook beschikbaar is kunnen we zien wie deze generatie nu echt het beste in de markt ligt. De Polaris chips gaan een pak kleiner worden dan wat Nvidia nu op de markt brengt. Qua pure performance gaan ze niet winnen, maar ze zitten in een situatie waarbij ettelijke tientallen procenten goedkoper dan Nvidia kunnen zijn voor slechts een minimale performance verlies. En in DX12 games gaan ze waarschijnlijk terug een grote voorsprong hebben.

Dit kan natuurlijk allemaal op niets uitdraaien, maar ik zou toch even wachten. Worst case koop je gewoon een Nvidia kaart binnen een maand of 2 als het aanbod van AMD tegen valt. Best case bespaar je misschien wel 100 euro voor een minimaal performance verschil.
De prijs van de 970, 980 en 980Ti zullen ook wel dalen als deze kaarten goed verkrijgbaar zijn. Allen nog steeds hele mooie kaarten.
Ben van plan een van deze te kopen maar wat ik me altijd afvraagt by TDP van videokaarten, lopen die bij full load (90%) hoger uit in verbruik ?

ik heb ooit een pc gebouwd met een amd cpu en een radeon 6950 waarbij ik een 600 watt voeding hebt gebruikt. geen idee of dat overkill is of net genoeg, nooit problemen met instabiliteit gehad.

Maar nu wil ik een nieuwe intel pc in elkaar bouwen en die zegt dat ik met een 326W PSU meer dan genoeg zou hebben. zie build : http://outervision.com/b/1iBXjr

wat is nou wijsheid ?
Ik kom uit op 336W want je bent vergeten het aantal memory aan te geven.
i5-6600K met overclock max ~130W
GTX 960 max = ~170W
Dus ik denk dat je al ver komt met 300W voor de basis. Vergeet niet dat een PSU van 350W niet 350W haalt maar wat minder door inefficiŽntie. Een 400W 80+ Gold zal voldoende zijn.
EfficiŽntie heeft niks met de output te maken, wel met de input..

Als je voeding 400watt is en je zou die volledig vragen en hij is 90% efficient, dan trekt de voeding ongeveer 440watt uit de muur :)

Bij een voeding moet je wel op letten dat vrijwel al het te leveren vermogen geleverd kan worden op 12v, een videokaart heeft enkel een 12v aansluiting (en je cpu ook), als er van de 350watt maar 250watt op 12v kan leveren dan gaat je voeding het niet lang uithouden als je bovenstaande config hebt en die voluit belast.
Volgens mij klopt dat niet helemaal. Zo zeggen ze dat de 1080 maar 180 watt gebruikt, maar in de praktijk is dat al snel 250 watt als hij op volle toeren draait.

Ikzelf zou gewoon een degelijke voeding kopen van zo rond de 750 watt. Misschien een beetje overkill, maar bied wel meer ruimte voor uitbreiding/overclocken, en gaat langer mee zou ik zeggen, aangezien het gemaakt is voor hogere wattages dan wat je er echt uithaalt.

[Reactie gewijzigd door Gordon Weedman op 18 mei 2016 16:38]

Volgens mij klopt dat niet helemaal. Zo zeggen ze dat de 1080 maar 180 watt gebruikt, maar in de praktijk is dat al snel 250 watt als hij op volle toeren draait.
Nee dit maal is nVidia vrij eerlijk en klopt de TDP aardig. Zie bijvoorbeeld TechPowerUp: http://www.techpowerup.co.../GeForce_GTX_1080/24.html

Ik denk dat je te veel reviews hebt gelezen welke het verbruik van het gehele systeem meten, dus inclusief CPU, moederbord, HDD, SSD, etc. Dat doet namelijk 99% van de reviewsites.
Ikzelf zou gewoon een degelijke voeding kopen van zo rond de 750 watt. Misschien een beetje overkill, maar bied wel meer ruimte voor uitbreiding/overclocken, en gaat langer mee zou ik zeggen, aangezien het gemaakt is voor hogere wattages dan wat je er echt uithaalt.
Dat klopt niet, overkill voeding gaat niks langer mee. Het is alleen maar geld weggooien en de PC verbruikt meestal meer door een gemiddeld lager rendement. Daarnaast kiezen veel mensen dan voor een matige 750W voeding terwijl ze voor dat geld bijvoorbeeld ook een goede 450W voeding hadden kunnen halen. Met een 750W voeding kun je met gemak drie GTX 1080's in SLI draaien en nog ruimte hebben om de CPU over te klokken. Alleen wordt triple SLI niet eens meer ondersteund, dus dat gaat nogal nutteloos zijn.
Je kan triple sli aanvragen op de nvidia site, dan krijg je een code om het toch te doen, wel met de 'oude' sli bridge maar toch het kan wel. (voor de mensen die e cht 3way sli will en...(stuttering))
Ja maar alleen voor benchmarks en niet voor games, zonder optimalisaties en met dus micro-stuttering.
Voeding advies en informatie topic - Deel 32

Allemaal wijsheid. ;) Samenvatting: kijk niet naar het totale vermogen en gebruik geen PSU calculator maar reken het zelf uit. Belangrijke dingen: kijk naar het vermogen op de 12V, kwaliteit, prestaties en aansluitingen.
Deze nieuwe kaarten houden hun verbruik vrij strak in de gaten zodat ze nooit echt meer verbruiken dan de tdp, maar kaarten met aftermarket cooler hebben de tdp vaak hoger staan.

De mainstream intel cpu's hebben ook een laag verbruik. Als er verder niet al te veel in zit is dat geen heel gek getal voor een voeding. Maar ik zou niet beknibbelen, hoog wattage is niet nodig, maar zou wel voor een kwaliteitsvoeding gaan (80 gold of beter met lange garantie is misschien handig bij het zoeken.)
sites als pc part picker geven heel handig weer wat je system +- op stock verbruikt.. rekenen alles mee (CPU/mobo/geheugen/HDD/SSD/GPU(s)/dvd branders etc. etc. krijg je keurig een staatje onderaan die zegt

'zo duur is je pc... en zoveel prik moet je hebben om de boel draaiend te houden'

reken daarbij overclock feature... dus 100 watt meer als je voeding zal gebruiken.. en je zit best goed.. ook kwa future proof.

mijn huidge 660ti heeft een tdp van 150.. de 1070.. schijnbaar ook.. dus ik zou niet superveel meer gaan verbruiken (volgensmij om het even) en als het 20 watt meer is lig ik daar ook niet wakker van..

heb mijn systeem redelijk vaak gebouwd op die site.. en kom rond de 450 watt uit ofzo.
met een 650 voeding
Voedingen zijn bij de rating het meest effcient onder 50-70% load (zie specificaties van 80+ rating). Verder is het natuurlijk van belang hoe de kwaliteit/bouw van de voeding is. Zelf heb ik ook altijd rekening gehouden met mogelijk SLI/crossfire ( heb ik effectief maar 1 week gebruikt) en andere mogelijke uitbreidingen.
Als 780ti eigenaar zou ik graag zien dat mijn kaart mee word genomen in een roundup om te zien hoeveel afstand deze nieuwe generatie neemt van de 7xx generatie.
Een GTX 1080 is pak hem beet 2.5x zo snel als een GTX 780 Ti De GTX 1070 is vervolgens weer 75% van de 1080, dus verwacht dat een GTX 1070 ongeveer 2x zo snel is als je 780 Ti.
Beetje vertekent beeld, de GTX1080 is ongeveer 2x zo snel als een GTX780Ti.
https://www.techpowerup.c.../GeForce_GTX_1080/26.html

Reden dat ik TPU erbij pak ipv Anandtech is omdat ze altijd met de nieuwste drivers voor alle kaarten testen en een grotere selectie spellen hebben waarmee ze testen. Dit geeft een beter beeld.

Een GTX780Ti is vergelijkbaar met een GTX970 qua snelheid, het tabelletje wat in het artikel is gepost zal dus een goede indicatie geven (zover je de cijfers van de Nvidia marketings slides mag geloven :D).
Heb hier zelf een gtx780, alleen dan op 1,3ghz. Draait in de benchmarks hetzelfde als mijn gtx980 at stock speeds!
Nu lijkt het verschil tussen de 1070 en de 1080 toch iets groter te zijn dan verwacht. De reden dat dit niet verwacht werd, is omdat het verschil tussen de 970 en de 980 echt minimaal was. Wellicht dat het prijspremium van de 80-serie het deze keer wel waard is.

We zullen het gaan zien als de benchmarks van de 1070 online komen. Laten we niet compleet ingepakt worden door de hype die Nvidia rondom de 1080 probeert te creŽeren.
Binnenkort (presentatie is nu bezig :9 ) komt ATi met zijn kaart.

Ik vermoed zelf dat er rek zit in deze kaarten en dat die of worden gebruikt wanneer blijkt dat de kaarten van ATI aanzienlijk sneller zijn,
of de kaart wordt langzaam uitgemolken met een editie die telkens 50mhz of 100mhz sneller is.

Nog even een uurtje wachten dus.
Kan niet wachten. Dacht dat we moesten wacten op computex. Maar eerder is altijd beter.
"Binnenkort (presentatie is nu bezig :9 ) komt ATi met zijn kaart"

Waar haal je dit uit?
ATi? Die bestaan toch echt al zes jaar niet meer in naam, en het is inmiddels al tien jaar geleden dat ze zijn overgenomen. Nou mag je het toch echt wel AMD noemen!
Daarom dat ze tegenwoordig eerst met de midrange kaarten uitkomen ( want laten we eerlijk zijn - dit zijn dure midrange kaarten ), zodra AMD met hun kaarten uitkomen, kunnen ze aan de hand van die prestaties nauwkeurig inschatten hoe goed hun top-model zal gaan lopen.
De GTX 970 presteerde pak hem beet 16 / 13 = 81% van de GTX 980. De GTX 1070 presteert 15 / 20 = 75% van de 1080. De verhouding SM's tussen de GTX 970 / 980 en GTX 1070 / 1080 is dus inderdaad dus iets anders, maar bedenk je wel dat ook een GTX 1070 nog steeds beter presteert dan een Titan X en GTX 980 Ti, kaarten van §600+.
Wauw... een 980 Ti voor ~400 euro nieuw! Dat is een behoorlijke verbetering.

De Titan X kostte bij de release, wat zal het zijn, 1250 euro ongeveer met vergelijkbare performance als een 980 ti. De 980 Ti kostte ~750 bij release. Een prijsdaling van ~40%. En nu heb je een GPU met een performance van een 980 Ti voor ~400. Dat is een prijsdaling van ~53%!
uhhh zo moet je het niet zien, dit is de vervanger van de 970, Deze nieuwe kaarten zijn dus hardstikke duur. Wat zal de nieuwe titan straks kosten ?

AMD heeft al een goede prijs voor hun FuryX2 : 1500 euro, als ik het goed had ?
Prijzen zullen de komende jaren alleen maar omhoog gaan vrees ik.

EDIT : gemiddeld dus elk jaar +/- 50 euro duurder.

[Reactie gewijzigd door martin.M op 18 mei 2016 16:33]

Ja inderdaad, x jaar later. Niet heel raar dat dezelfde performance na 1 a 2 jaar 65% goedkoper is
Ben ik de enige die meteen aan de FullHD-resolutie denkt bij dit soort getallen?

1920 CUDA-cores in de GTX 1080
De 1070 heeft 1920 CUDA cores
De 1080 heeft 2560 CUDA cores
1070 is gericht op 1920x1080 resolutie
1080 is gericht op 2560x1440 resolutie

er zal nog een 1080ti/titan volgen met de p100 met 3840 cuda cores
leuke trend zet nvidia zo neer!
Ah ok thanks, maar toch bijna ;)
Als je puur de getallen naast mekaar zet dan vindt ik de 1080gtx een beetje tegen vallen in vergelijk met de 980ti. (EDIT) Bepaalt de kloksnelheid van een videokaart zoveel?

[Reactie gewijzigd door The P Man op 18 mei 2016 16:15]

De die size van de GTX 1080 is 314mm2 en heeft 7,2 miljard transistoren. De GTX 980 Ti heeft een die van 601mm2 en 8 miljard transistoren. Nvidia heeft het voor elkaar gekregen met iets meer dan de helft van de die size, minder transistoren ťn minder dan tweederde van het stroomverbruik toch 30% meer performance te winnen. Dat is best een prestatie.
Zeker maar dat is ook vooral door het finfet vs 28nm procede.

Een voordeel waar AMD ook gebruik van gaat maken.

Wat me wel verrast is hoe hoog deze gpu's kunnen clocken.
En bedenk dan eens dat de 980ti een TDP heeft dat 70W hoger ligt dan die van de 1080 ;) Nvidia heeft hier een nette prestatie geleverd hoor. De prestaties van grafische kaarten is al een tijdje gestagneerd met marginale verbeteringen als hoogtepunt. Ben dan ook erg benieuwd waar AMD later dit jaar mee gaat komen want als de geruchten kloppen dan hebben die ook flinke stappen gezet.
De GTX 1080 kan je vergelijken met de GTX 980, je mag hem natuurlijk wel vergelijken met de
GTX 980 TI maar het is niet de opvolger.
Wanneer je een GTX 980TI hebt en je de nieuwe features en prestatie niet persť nodig hebt hoef je hem niet echt te kopen en kan je wachten op de TI, als je een GTX 980 hebt is hij veel aantrekkelijker lijkt me.
Dat wordt, wat mij betreft even wachten. Wilde graag upgraden van een 780OC. GTX1070, komt u maar binnen:)
Mochten de prestaties van de GTX 1070 inderdaad gelijk zijn aan die van de GTX 980 ti dan is wat mij betreft de daling in stroomverbruik nog het meest indrukwekkend. Van 250W TDP naar 150W TDP is echt een grote sprong in de goede richting. Vraag me alleen wel af of de lagere geheugen bandbreedte door de combinatie van regulier gddr5 geheugen een 256bit bus een beperking gaat vormen.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True