Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 327 reacties
Submitter: aimilius

Nvidia heeft zijn eerste twee GeForce-videokaarten met Pascal-gpu aangekondigd. Het topmodel, de GTX 1080, is uitgerust met 8GB gddr5x-geheugen. Nvidia claimt dat de videokaart bij vr-toepassingen sneller is dan een GTX 980-sli-opstelling.

Nvidia-ceo Jen-Hsun Huang maakte bij de onthulling van de nieuwe videokaarten met name veel bekend over de GTX 1080. De goedkopere GTX 1070 werd kort aangekondigd, maar van deze videokaart zijn nog niet alle specificaties bekendgemaakt. De Nvidia GeForce GTX 1080 is gebaseerd op de GP104-gpu en beschikt over 7,2 miljard transistors. Er zijn 2560 cudacores aanwezig en de videokaart bevat 8GB gddr5x-geheugen van Micron met een frequentie van 1250MHz en een effectieve doorvoersnelheid van 10Gbit/s. De geheugenbus is 256bits breed, waarmee de geheugenbandbreedte uitkomt op 320GB/s.

Met een baseclock van 1607MHz en boostclock van 1733MHz zijn met name de gpu-kloksnelheden veel hoger dan bij gpu's van de Maxwell-generatie. Bovendien claimt Nvidia dat een overklok tot 2GHz mogelijk is. De Pascal-gpu wordt gemaakt op een 16nm-finfet-procedé en is de opvolger van Maxwell, die op 28nm wordt gemaakt. Door het kleinere procedé is de nieuwe gpu efficiënter: de GTX 1080 heeft een tdp van 180 watt. Dat is meer dan de 165 watt van de GTX 980, maar de nieuwe GTX 1080 moet dan ook veel sneller zijn.

Ook de GeForce GTX 1070 bevat een GP104-gpu van de Pascal-generatie, maar de goedkopere videokaart krijgt 8GB regulier gddr5-geheugen. Verdere informatie heeft Nvidia niet bekendgemaakt, de fabrikant noemt wel een rekenkracht van 6,5 tflops, terwijl dat bij de GTX 1080 hoger is met 9 tflops.

Nvidia heeft nog geen benchmarks getoond, maar claimt dat de GTX 1080 bij vr-toepassingen sneller is dan de Titan X en dat ook een sli-opstelling van twee GTX 980-kaarten verslagen kan worden. Bij reguliere games, zoals Rise of the Tomb Raider en The Witcher 3, is de GTX 1080 ongeveer 70 procent sneller dan een enkele GTX 980, afgaande op de grafiek de Nvidia heeft gepubliceerd. Daarmee zal de nieuwe videokaart ook sneller zijn dan de GTX 980 Ti.

GTX 1080 performance

Nvidia GeForce 1000-serie aankondigingNvidia GeForce 1000-serie aankondigingNvidia GeForce 1000-serie aankondigingNvidia GeForce 1000-serie aankondiging

De snelheidswinst in vr-toepassingen is volgens Nvidia te danken aan een techniek die de fabrikant simultaneous multi-projection noemt. Die maakt het mogelijk om een 3d-omgeving naar zestien verschillende viewports te projecteren, in een single pass. Het renderen van een stereoscopisch beeld voor vr-weergave kan daardoor veel efficiënter; volgens Nvidia is de techniek goed voor een prestatiewinst van 40 tot 60 procent.

Ook kan de techniek gebruikt worden om lensvervorming die in vr-brillen optreedt te corrigeren. Momenteel wordt dat opgelost door in de software het beeld tegenovergesteld te vervormen. Beelden worden uitgerekt, zodat door de vervorming van de lenzen in de vr-bril het resultaat natuurlijk oogt. Dit vergt echter veel rekenkracht en levert daardoor prestatieverlies op. Met simultaneous multi-projection deelt Nvidia het beeld per oog op in vier projecties, waarbij lenscorrectie toegepast kan worden zonder dat dit ten koste gaat van rekenkracht.

Dezelfde multi-projection-techniek komt van pas bij gebruik van meerdere monitoren. Bij gebruik van drie monitoren waarbij de buitenste monitoren in een hoek staan, is het beeld op die schermen gewoonlijk vervormd. Dat komt omdat de beelden in feite voor een plat vlak gerenderd worden. Volgens Nvidia is het met de nieuwe videokaarten mogelijk om de beelden met het juiste perspectief te renderen. Dat neemt niet alleen de vervorming weg, maar zorgt ook nog eens voor een veel groter blikveld.

Simultaneous multi-projectionSimultaneous multi-projectionSimultaneous multi-projectionSimultaneous multi-projection

De GeForce GTX 1080 is voorzien van drie displayportaansluitingen die gecertificeerd zijn volgens de 1.2-standaard, maar ook ondersteuning bieden voor de 1.3- en 1.4-standaarden. Dat maakt het mogelijk om 4k-monitoren met refreshrates tot 120Hz te gebruiken. Deze zijn nog niet te koop, maar zullen waarschijnlijk later dit jaar op de markt komen. Volgens Nvidia is het mogelijk om een scherm met resolutie van maximaal 7680x4320 pixels op 60Hz aan te sturen, bij rgb-weergave op 8bit en gebruik van twee displayportkabels. Met een enkele displayport 1.3-connector is diezelfde resolutie mogelijk met yuv420-subsampling. Ook is er een hdmi 2.0b-aansluiting aanwezig, die ondersteunt 4k-resoluties tot 60Hz.

Het is mogelijk om meerdere GeForce GTX 1080-videokaarten te combineren in een sli-opstelling. Daarvoor heeft Nvidia een nieuwe SLI HB-bridge ontworpen, die een dubbel zo hoge bandbreedte biedt als de sli-brug van Maxwell-gpu's.

Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080Nvidia GTX 1080

De GTX 1080 is vanaf 27 mei beschikbaar. De 'Founders Edition' gaat 699 dollar kosten. Varianten met een custom pcb krijgen volgens Nvidia naar verwachting een prijs van 599 dollar. Europrijzen zijn nog niet bekendgemaakt, maar omgerekend inclusief btw komen de prijzen uit op 742 en 635 euro.

Waarschijnlijk beschikt de genoemde Founders Edition over de getoonde reference-koeler, die hoge overkloksnelheden mogelijk moet maken. Volgens Nvidia zullen ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, Palit, PNY en Zotac zo'n kaart uitbrengen.

Vanaf 10 juni zal ook een 'Founders Edition' van de GeForce GTX 1070 beschikbaar zijn voor 449 dollar. Varianten met aangepast pcb zullen bij 379 dollar beginnen. Omgerekend inclusief btw gaat het om ongeveer 477 en 402 euro.

Om de prestaties van de Pascal-kaarten met vr-toepassingen te tonen, heeft Nvidia een virtual reality experience gemaakt: VR Funhouse. Ook komt Nvidia met Ansel, een nieuwe methode om beelden in games vast te leggen en te delen. Met Ansel kunnen ingame-foto's gemaakt worden, waarbij diverse effecten toegepast kunnen worden. Ook claimt Nvidia dat het renderen van screenshots met 'superresolutie' van 4,5 gigapixels mogelijk is. Om Ansel te gebruiken dient de game daar ondersteuning voor te bieden. Onder andere The Division, The Witness, Unreal Tournament, The Witcher III, LawBreakers en Paragon krijgen Ansel-support.

Begin april kondigde Nvidia al de Tesla P100 aan, die van een grotere variant van de Pascal-gpu en hmb2-geheugen gebruikmaakt. De Tesla-kaart is een zogenaamde accelerator voor high performance computing. Deze kan in servers en supercomputers gebruikt worden om gpgu-berekeningen uit te voeren. De Tesla P100 beschikt over een GP100-gpu met 15,3 miljard transistors. De GP104-gpu's waar de nieuwe GeForce-kaarten op zijn gebaseerd, zijn een kleinere variant van deze chip.

Videokaart GTX 970 GTX 980 GTX 980 Ti GTX 1070 GTX 1080 Tesla P100
Gpu GM204 GM204 GM200 GP104 GP104 GP100
Procedé 28nm 28nm 28nm 16nm finfet 16nm finfet 16nm
finfet
Transistors 5,2 miljard 5,2 miljard 8 miljard ? 7,2 miljard 15,3 miljard
Cudacores 1664 2048 2816 ? 2560 3584
Baseclock 1050MHz 1126MHz 1000MHz ? 1607MHz 1328MHz
Boostclock 1178MHz 1216MHz 1075MHz ? 1733MHz 1480MHz
Vram 4GB gddr5 4GB gddr5 6GB gddr5 8GB gddr5 8GB gddr5x 16GB hbm2
Geheugenbus 256bit 256bit 384bit ? 256bit 4096bit
Bandbreedte 224GB/s 224GB/s 336,5GB/s ? 320GB/s 720GB/s
Tdp 145W 165W 250W ? 180W 300W
Stroom-
aansluiting
 2x 6pins 2x 6pins  6pin+8pin ? 1x 8pins nnb

Vergelijking van de nieuwe Pascal-videokaarten met de op Maxwell gebaseerde GeForce 9XX-generatie.

Gerelateerde content

Alle gerelateerde content (30)
Moderatie-faq Wijzig weergave

Reacties (327)

1 2 3 ... 10
Ik sta eigenlijk niet echt versteld van de GTX1080. De grafieken en alles worden natuurlijk zo gekozen dat het enorm spectaculair lijkt, maar als je de zaken even op een rijtje zet, valt het allemaal wel mee. Vergelijken met de voorganger, de GTX980, of die zelfs in SLI is leuk, maar de GTX980 was niet bepaald een geweldige kaart (de GTX970 was veel meer "bang for your buck" en de GTX980Ti was veel sneller). Zeggen dat de GTX1080 sneller is dan een Titan X is leuk... maar dat was een GTX980Ti ook allang. Dat een GTX1080 met 8GB GDDR5X beter is voor VR (hoge resoluties) t.o.v. een GTX980 met 4GB GDDR5 mag toch ook geen verrassing zijn.

En met dit alles moet men niet het forse verschil in clocksnelheden vergeten. Sure, de GTX1080 is volgens NVidia zo'n 50-70% ingame dan een GTX980, maar de GTX1080 is dan wel 43% sneller geclocked. Zet je ze op een gelijke clocksnelheid, dan is het verschil ineens maar vrij klein. Ik denk dat wanneer je een GTX980Ti hebt geclocked op 1.5Ghz of meer, dat een (stock) GTX1080 niet of nauwelijks sneller zal zijn.
Een mooie upgrade lijkt het in het eerste opzicht zeker, maar ik wil eerst eens zijn hoe deze reeks het doet met alle DX12 zaken zoals Asynchrous Computing.
Asynchrous computing was eigenlijk het eerste wat ik opzocht bij het bekend maken van deze kaart.

AMD bouwt dit al jaren in hun core next gpu's alleen tot op heden was Microsoft met DirectX te laks om het te implementeren. Toen is AMD maar zelf Mantle gaan ontwikkelen, niet omdat ze nou zo graag een leading grafische interface wilden hebben, maar puur om Microsoft van hun luie reet af te krijgen en weer eens hun directX te laten updaten. Toen Microsoft dat had gedaan heeft AMD Mantle ook direct weer laten vallen, want hun schaakspel stond immers precies zoals hun het wilden hebben. Namelijk dat DirectX iets bevat welke hun eigen GPU's op een enorme voorsprong zou zetten tegenover Nvidia, genaamd async compute.

Nvidia maakt leuk een melding van dat de 1080 verbeterde async mogelijkheden heeft, maar het blijft mij allemaal een beetje vaagjes. Echt in detail treden ze hier niet over.
Als je de geruchten mag geloven, dan zit het bij deze generatie gpu's er zeker nog niet in als Nvidia er geen rekening mee heeft gehouden.
Chip design gaat niet over een dag of een week, dat kost jaren en om daar zomaar even achteraf nog async computing bij in te bouwen schijnt volgens experts vrijwel onmogelijk te zijn.
Of Nvidia had het al op de planning staan dan zit het erin, maar de kans dat zij op basis van de onthullingen van de laatste tijd dat Nvidia veel slechter presteerd bij directX 12 het nog in hebben gebouwd is vrij klein dan wel ondenkbaar.
Ik wacht nog even af totdat er echte benchmarks zichtbaar worden en de async mogelijkheden uitvoerig zijn getest.
het hoofddoel van mantle was de cpu overhead aanpakken.

nvidia heeft op de een of andere manier een cpu overhead voordeel onder dx11, en minder overhead maakt ook amd cpu's aantrekkelijker voor gaming.

async is ook een mooie feature, maar het levert minder op, op amd gpu's is "aan" ~10% sneller dan "uit" bij ashes of the singularity.
http://www.computerbase.d...-directx-12-amd-nvidia/3/

verminderde cpu overhead kan je (mits de cpu traag genoeg is) wel 60 of 80% opleveren met amd gpu's.
Mantle was gebouwd met enkel als doel een voorbeeld te geven aan de established API's DirectX / OpenGL van hoe het vandaag de dag zou moeten zijn. DirectX 11 had nog steeds enorme cpu overhead en single pass rendering. Doordat AMD met Mantle liet zien dat je veel meer performance uit hardware kan halen door closer to metal te gaan en taken veel meer naar de hardware te verschuiven ipv in de software te laten gebeuren is vooral Microsoft erg wakker geschud en hebben snel directX 12 uit hun mouwen gehaald om niet achter te blijven. Echter door taken dus meer naar de hardware te verschuiven werden ook de verschillen tussen de hardware van AMD en Nvidia meer zichtbaar.
Een belangrijk verschil is async compute welke het mogelijk maakt meerdere frames tegelijk te submitten naar de renderqueue. Waarbij AMD dit al lang in hun core next archtitectuur heeft zitten blijkt bij Nvidia deze mogelijkheid compleet afwezig op hun gpu's. Dit geeft op het moment van schrijven de AMD gpu's in ieder geval een enorm voordeel.
Nvidia had deze queue management altijd veel beter op orde dan AMD in de drivers waardoor nvidia's beter presteerde met minder echter nu met directX 12 de driver optimalisaties minder van belang zijn omdat er veel meer op metal geprogrammeerd wordt komt de ware kracht van de AMD naar boven. Het is al heel lang bekend dat AMD veel meer raw power levert voor je geld echter had Nvidia altijd veel betere drivers.
Nu driver significantie aan het afnemen is, is de vraag alleen of je dan niet beter de raw power van een AMD kaart kan nemen voor je geld ipv een GTX van Nvidia.
Echter lijkt het erop dat ze bij deze 1080 behoorlijk wat raw power erin gestopt hebben. Ik ben erg benieuwd naar de directX 12 benchmarks.
Ik had nog nooit van async computing gehoord na je reacties gelezen te hebben om eerlijk te zijn.
Dit is mij gewoon totaal ontgaan, slecht ook, i know.
Maar als ik het dus goed begrijp kunnen ze hiermee dus veel dieper op de hardware zelf programmeren.
En daar had ik dan weer wel het een en ander over mee gekregen, alleen wist ik niet dat het async computing hete.
Maar je reacties verduidelijkt in elk geval een hoop voor mij.
Mijn dank hiervoor in elk geval, ben ik ook weer up-to-date.
Toppie dus :Y)
Graag gedaan! Wel nog even ter verduidelijking. Dieper op de hardware programmeren is sinds directX 12 mogelijk geworden niet door async compute.

Async compute is een feature welke in ieder geval op AMD core next gpu's aanwezig is. Async compute zorgt ervoor dat meerdere frames tegelijk gesubmit kunnen worden naar de gpu om te renderen. De gpu kan dit dan zo verdelen dat alle shaders in gebruik blijven, dus bijvoorbeeld terwijl hij frame 1 aan het renderen is alvast een deel van frame 2 renderen met de shaders die voor frame 1 niet nodig zijn. Daardoor krijg je een behoorlijke performance winst omdat nu alle shaders altijd in gebruik zijn terwijl voorheen bij sync compute veel shaders ongebruikt bleven omdat die dan voor het huidige frame niet nodig waren. Zie het een beetje als een 1,5 grote auto rijbaan. Voorheen ging er 1 auto tegelijk overheen, maar nu gaat tegelijk met die ene auto ook alvast de helft van die andere auto mee zodat de baan ten volle benut blijft. Dan bij de volgende ronde kan er weer een volle auto plus de helft van de vorige erover waardoor het bijna 2 keer zo snel gaat.

Nvidia heeft zich nog niet officieel uitgelaten, maar uit tests van recent uitgekomen directX 12 games blijken nvidia gpu's deze feature dus niet te beschikken. Of dat komt omdat het gewoon nog niet in de driver zit of omdat de hardware deze mogelijkheid niet heeft is nu nog onduidelijk, maar gezien de lange tijd het nu duurt om deze feature op nvidia te krijgen plus de radio stilte erover van nvidia doet denken dat dit laatste het geval is. Ik hoop het natuurlijk niet gezien ik zelf in het bezit ben van een 980.

Ze geven iig wel aan dat bij deze nieuwe gpu 1080 de feature beter zou werken, maar over volledige ondersteuning spreken ze nog steeds niet. Ze hebben het een beetje verwoord als we zeggen dat hij het ondersteund maar we zetten het zo neer dat als later blijkt dat het niet zo is dat we dan niet misleidend zijn geweest en alleen maar hebben gezegd ondersteund het beter dan de vorige generatie.

[Reactie gewijzigd door ro8in op 7 mei 2016 19:40]

Oké duidelijk.
Dan zijn AMD kaarten dus momenteel in het voordeel inderdaad, en het klinkt ook gewoon erg logisch om dit toe te passen.
Aangezien je GPU dan dus constant ter volle benut wordt, en dan met name de hoeveelheid shader processen die je tot je beschikking hebt.
En juist deze dus constant ter volle benut blijven worden.
Waar dat bij Nvidia dus waarschijnlijk nog niet mogelijk is.
Ja op dit gebied wel, overigens zijn er ook een aantal directX 12 features welke nvidia weer beter ondersteund. Daarnaast is directX 12 ook maar net op de markt en zijn er een hele hoop directX 11 games waarbij nvidia een stuk beter presteerd. Er zijn natuurlijk een hele hoop afwegingen die je moet maken bij je keuze dus om direct te zeggen dat Amd nu de beste keuze is nee.

Maar even kijkend naar puur performance op directX 12 en deze nieuwe 1080 even achterwege gelaten (we kennen de benchmarks nog niet), dus verder niet naar drivers, power consumption, warmte etc dan kan je inderdaad beter voor een AMD kaart gaan op dit moment. Maar alleen als je nu echt perse morgen een kaart moet kopen en je wil perse het beste hebben voor directX 12. Anders zou ik zeggen wacht even de benchmarks van deze nieuwe 1080 af. 600 euro voor een kaart met 2 keer de performance van een TitanX vind ik een flinke statement, ik ben wel erg benieuwd. Zelfs zonder async compute zou je dan nog een stuk beter af zijn dan bij de top AMD gpu van dit moment!
Asynchrous computing was eigenlijk het eerste wat ik opzocht bij het bekend maken van deze kaart.
Dat had ik ook verwacht. Waarschijnlijk schroeven ze de performance op andere manieren op zoals met simultaneous multi-projection voor VR. Het gaat uiteindelijk om de fps en de frametijden of dit nou bereikt wordt met of zonder async compute is natuurlijk wel interessant maar niet per se vereist.
Hoger kunnen klokken is toch net zo goed een prestatiewinst?

Vroeger liepen onze CPU's onder de 100 mhz. Nu op 4000 of meer. Is dat dan ook geen 'echte prestatiewinst'??

Een beetje krom, nietwaar? Of wat dacht je van de ontwikkelingen binnen VRAM. Daar gebeurt letterlijk niets met meer transistors, maar maakt de kloksnelheid en latency de dienst uit. Ook geen 'echte' winst?

Het boeit mij vrij weinig hoe prestatiewinst geboekt wordt, het gaat erom dat het er is.

[Reactie gewijzigd door Vayra op 7 mei 2016 15:33]

Het boeit mij vrij weinig hoe prestatiewinst geboekt wordt, het gaat erom dat het er is.

En zo zal het grootste deel vd markt er ook naar kijken maar voor tweakers blijft het wel interessant waar die winst vandaan komt. Is het echte voorruitgang of alleen maar een leuk nieuw buitenkantje met een opgevoerde GPU? Als mijn stroomrekening ook ineens 40-70% omhoog gaat voelt het toch een beetje als een sigaar uit eigen doos. Dan had ik namelijk ook kunnen proberen mijn eigen GPU over te klokken ipv 400 euro te betalen zodat zij het voor mij kunnen doen toch?

[Reactie gewijzigd door Teigetje! op 9 mei 2016 09:35]

Juist, en als je dan goed leest (of zelfs vluchtig, zie tabel...) zie je dat er een enkele 8 pin PCIE in dit kaartje gaat en het TDP op 180W ligt - minder dan een 780ti dus.

Begrijp je punt dus niet helemaal. Dat deze GPU zuiniger is, staat er gewoon.

[Reactie gewijzigd door Vayra op 9 mei 2016 09:38]

Zeggen dat de GTX1080 sneller is dan een Titan X is leuk... maar dat was een GTX980Ti ook allang.
Nee, de GTX 980 Ti is iets langzamer dan de Titan X, niet veel maar toch.
Bron: http://nl.hardware.info/r...dmark-fire-strike-extreme
Je bent waarschijnlijk vergeten dat je Titan X kaarten alleen als reference modellen kunt krijgen en 980Ti's met 3rd party koelers. Een 980Ti MSI Lightning, Gigabyte Windforce of Zotac AMP loopt rondjes om een Titan X. Daarbij kun je door de betere koeling de GTX980Ti's nog flink harder overclocken, zie bijvoorbeeld hier:

http://www.overclock3d.ne...980ti_lightning_review/13

Met wat overclocking is een 980Ti makkelijk 20% sneller dan een Titan X.
tjah en zou kun je de titan x ook zelf voorzien van betere koeling.
en die dan ook 20% hoger klokken
Ja dat is allemaal leuk en aardig.. maar appels met peren vergelijken is natuurlijk een beetje onnuttig.

Als we even naar het totaalplaatje kijken, dan kunnen we wél nuttige uitspraken doen...

Het totaalplaatje verteld ons dat deze kaart sowieso veel meer transistors heeft, én op een significant kleiner procedé (28nm vs 16nm is niet niks!).
Hoogst waarschijnlijk zullen deze kaarten (met non-reference koelers) dus zeer lekker overclocken... laat staan als je een waterkoelblok op die 1080 zet.
Vooral dat over die multi-projection techniek word ik echt super opgewonden van, want het grootste nadeel van 3 monitor setups is altijd geweest dat je kijkhoek niet klopt.. maar dat gaat nu dus veranderen dus zelfs voor mensen die geen VR willen draaien kunnen toch nog een uiterst immersive ervaring krijgen door correct hun monitor opstelling in te voeren in de drivers, dit zal vooral voor dingen als race spellen of (space) flightsims super interessant zijn!

Ik ben in ieders geval zeer geïnteresseerd in de 1080 en ben benieuwd voor welke prijzen hij daadwerkelijk op de markt gaat komen.. want ik ben wel op zoek naar een nieuwe GFX kaart en als de prijzen echt zo rond de 700 euro komen te liggen dan ga ik hem sowieso overwegen.
ik vind dat jullie allemaal een beetje wazige vergelijkingen maken, waarom vergelijk je de kaarten niet gebaseerd op wat ze kunnen draaien in games? resolutie + settings. dan weet je of je ook wat hebt aan die 20% extra waar je t over hebt. 2560x1440 naar 4K resolutie is toch echt een behoorlijk veel grotere stap dan +20%.

zeer benieuwd naar 1080 benchmarks van games in 4K...
True, maar benchmarks (zoals ze nu gebruikt worden) houden natuurlijk geen rekening met dingen zoals multi-projection, wat wél echt meerwaarde heeft voor VR of multi-monitor toepassingen.
DX12/vulkan ondersteuning is ook zoiets wat heel significant kan gaan zijn. We zullen in der daad af moeten wachten op de benchmarks.
Een kaart mét OC vergelijken met stock settings is ook appels met peren vergelijken. Alles kan een overklok krijgen en de werkelijke prestatiewinst is altijd zo tussen de 5 en 12%. In-game ligt de winst vaak eerder onder de 10%. En dan moet je OC ook nog standhouden als er nieuwe games en drivers uitkomen, en ook dat is helemaal niet gegarandeerd.

[Reactie gewijzigd door Vayra op 7 mei 2016 15:21]

Maarja jij bent dan waarschijnlijk weer vergeten dat het bij de nu aangekondigde 1080 specs ook om referentie modellen gaat

Daar komen dus ook weer geklokte versies van of mensen gaan ze zelf klokken.

Al met al dus weer een prima stap vooruit.
Oy oy oy. Je kan een Titan X wel verkrijgen als non-reference. Mijne heb ik gerefurbished gekocht met reference koeler en daarna een EVGA Hybrid op geramd. Loopt ie nog steeds niet ijskoud, maar 30°C er af bij full load is niet niks. En juist om het te verantwoorden: door de refurbish was deze kaart voor mij goedkoper dan de 980ti, die geen ¤50 extra waard leek.
Het zijn dezelfde kaarten, deze hele discussie slaat nergens op. Enige verschil is het geheugen.

De performance verschillen komen uit de (factory) overclocks en betere stroomregeling. Ook is de 980 ti beter gekoeld doordat er aftermarket koelers op zitten.

De chip is EXACT dezelfde en als je ze gaat vergelijken met de 1080 maakt het niet uit of je de titan x neemt of de 980 ti.
tjah je hebt nog gelijk ook, en dan heft die ook meer cuda cores.
dus het zal wel komen aan de hogere clock.
wat een lage geugen band breedte heft deze kaart trouwens. wat heft grrdx5 dan voor voordeel.
je gooit je klock met ong 30% omhoog, en vervolgens je busbreedte omlaag.
het enige voordeel aan deze kaart wat ik dus nu zie is die 16nm, wat flinke eficientie op levert .
Het voordeel van een smallere bus is het lagere stroomverbruik. Tegenwoordig is performance per watt ook performance. Bij Pascal hebben ze volledig ingezet op energie zuinigheid, daar past een smalle bus goed bij.
klopt, en ook wel logisch Eigen dat het kinder verbruikt.
en dan de frequentie omhoog gooien om zo toch je bandbreetde te halen.
volgens mij is gddr5x ook op lagere procede gebakken. dus dan kun je hoger klokken met minder energie.

ik ben echter zeer benieuwd naar de 4k bench marks
het voordeel van 256 bits is ook dat je 2 gpu's op 1 kaartje kunt prikken straks en die als highend gamerskaart verkopen :)
Ik denk dat ook meespeelt dat deze prestatieverhoging en hogere kloksnelheden mogelijk is met een relatief kleine verhoging in verbruik (43% hogere clocks en 50-70% meer prestaties met een verschil van 15 watt is toch best knap).

Afwachten hoe deze kaarten het met DX12 doet is inderdaad wel goed, AMD heeft daar nu een voorsprong op en het is de vraag of dat zo blijft met de komende Polaris-GPU's.
Het is toch niet bijzonder knap aangezien de GTX 1080 de eerste kaart is op 14 nm en de GTX 980 nog een kaart was op 28 nm. Vooral daardoor is het verbruik nauwelijks veranderd :) .
De GTX 1080 is een kaart op 16 nm. De Polaris-gpu's daarintegen zitten wel al op 14 nm.
16nm en 14nm finfet is een veetje een complex verhaal. Maar uiteindelijk is het niet echt 14nm.
Klopt, het is vziw de eerste NVidia chip met FinFETs.

Volgens TSMC zelf:
TSMC's 16FF+ (FinFET Plus) technology can provide above 65 percent higher speed, around 2 times the density, or 70 percent less power than its 28HPM technology
Wat ik wel belangrijk vind, als ik nu van 2x 980 SLI naar 1x 1080 ga dat ik meer snelheid heb en in plaats van 4x 6-pin power maar 1x 8-pin power nodig heb.
Scheelt heel wat ruimte, warmte en kabels.

[Reactie gewijzigd door l3p op 7 mei 2016 12:49]

Vind dat niet echt een verantwoorde investering.. zou nog zeker een generatie wachten als ik jou was. Maar als je geld hebt.. whatever.
Ik zeg niet dat ik ga investeren of dat ik geld heb.
Als ik zou veranderen scheelt me dat in warmte, ruimte en kabels.
Zover ik uit geruchten heb begrepen zal ook Pascal geen hardwarematige ondersteuning hebben voor Asynchronous Computing. Ze zullen het eerder op brute rekenkracht gooien.

[Reactie gewijzigd door David Regeling op 7 mei 2016 14:04]

De kaart zou zelfs met stockkoeler tot over de 2,1 GHz getild kunnen worden.


Ik zal kijken voor de bron.
Gevonden: tijdens een demonstratie toonde men een GTX 1080 overklokt tot meer dan 2,1 GHz. Hier bij de buren:http://nl.hardware.info/n...sneller-dan-titan-x-in-vr

[Reactie gewijzigd door kobus71 op 7 mei 2016 14:27]

Ik vind het eerlijk gezegd best indrukwekkend.

Een performance increase van 70-80% over de 980 zoals in de bovenstaande grafiek te zien is zal wel cherry picked zijn. Maar laten we er wat vanaf halen en het op 40-50% houden.

Dan zit je nog steeds een stuk hoger dan de 980ti, en de 1070 zou wel eens op 980ti niveau kunnen komen te liggen. Zoals de 970 dat ook ten opzichte van de 780ti deed.

En dat allemaal met veel lager stroomverbruik.

Clock voor clock is het misschien niet zo spectaculair maar dat doet er in principe niet toe, als deze chips veel hoger geclocked kunnen worden zullen mensen die zo'n kaart kopen de kaart ook op die hogere snelheden gebruiken.

Ik hou mijn ogen op de 1070, als potentiële vervanger voor mijn 780ti.

Als die voor rond de ~400 euro 980ti niveau kan bereiken met veel lager stroomverbruik dan ben ik waarschijnlijk wel om. Mocht ik dan later nog meer performance nodig hebben kan ik er altijd nog eentje bij prikken. Wat dat aan gaat is het mooi dat ze de VRAM ook op de 1070 naar 8GB hebben gegooid, dat maakt de kaart in SLI ook gelijk een stuk geschikter voor hogere resoluties.

[Reactie gewijzigd door Rixos op 7 mei 2016 16:26]

Ik denk dat de prijs ook een grote rol speelt, als je straks de GTX1070 kan kopen voor 300 euro en die net zo snel is als een GTX 980ti dan is dat weer een erg mooie kaart.
Ik heb zelf een MSI GTX980Ti die dus inderdaad 1500 stabiel doet, ik ben erg benieuwd hoe mijn kaart zich verhoudt met diverse games ten opzichte van een GTX1080.
Tuurlijk kan je de GTX1080 ook overklokken maar toch, leuk testje lijkt me zo.
Een GTX 980ti is niet sneller dan een Titan X. Het is dezelfde GM200 GPU waarvan er bij de 980ti delen zijn uitgeschakled vanwege yield en fabricagefouten. De 980ti kan daarom nooit sneller zijn dan een Titan X.
De GTX1080 / GP104 is nog steeds de "kleine" chip en niet de grote chip. Dat wordt de GP100. De GTX980 was net als de GTX1080 het snelste model met de "kleine" chip.

De 980Ti zou je tegenover de GP100 moeten zetten.
Apart dat er geen woord word gerept over "simultaneous multi projection", juist wat deze kaart zo speciaal maakt voor multimonitor/vr.

In een single pass kan deze kaart 16 monitoren tegelijk aansturen. Bij VR word het beeld per oog opgesplitst in 4 monitoren die realtime lens-correctie toepassen, doet de kaart zelf en hoeft niet door de SDK van de HMD headset gedaan te worden bijv.

In multimonitor setup word er de perspectief gecorrigeerd zodat er een correct beeld onstaat, grote verbetering voor FOV, deze techniek is bijzonder stoer te noemen. Zie hier een demo tijdens de presentatie.

Dit is waarom deze kaart aanzienlijk sneller dan een 980/X zal zijn voor multimonitor toepassingen.
Goed punt, ga ik nog even toevoegen :)

/Edit: Paar alinea's en afbeeldingen toegevoegd. Een zeer veelbelovende techniek inderdaad. Ben benieuwd hoe dat in de praktijk uitpakt!

[Reactie gewijzigd door Xtuv op 7 mei 2016 09:21]

Vingers crossed, ziet er mooi uit.

Nog een klein detail; Ansel kan "screenshots" maken, maar ook in 360 graden en stereoscopisch []-)
In andere woorden, geschikt voor bekijken in VR screenshots.
Die op desktop (in ieder geval de Vive) en mobile VR (in ieder geval Android) bekeken kunnen worden.
In eerste instantie klonk het voor mij niet zo heel interessant, tot ze VR erbij pakten!

[Reactie gewijzigd door Musical-Memoirs op 7 mei 2016 12:18]

Wel een lekker lang artikel vol details, prima :Y)
En bedankt, een erg goed artikel weer, ik had wat plagiaat (ik had het zelf echt niet mooier kunnen omschrijven) gepleegd en die alinea van je gekopieerd en bij de buren in het forum geplakt omdat iemand zich afvroeg hoe dat nou zat met de performancewinst in VR. En natuurlijk is iemand (die de livestream niet gezien heeft) het niet met je eens. ROFL

[Reactie gewijzigd door dezwarteziel op 8 mei 2016 00:26]

Ik heb mij vannacht ook zitten verwonderen over die Simultaneous Multi Projecten, Ik heb geen flauw idee hoe ze dit voor mekaar hebben gekregen. Zeker bij een multi monitor setup introduceer je een heel nieuw stuk van de scene met alle geometrie die daar bij komt kijken. Het lijkt mij dan ook dat dit gewoon gerenderd moet worden en dat ze niet al standaard heel veel off-screen renderen.

Buiten de techniek, werkt dit dus ook voor virtual displays. Zoals aangegeven voor de VR setup met 4 projecties per display. Nu vroeg ik mij af, kun je dan ook een normaal scherm opdelen in 3 of zelfs meer (virtuele) projecties en daar snelheidswinst uit halen. alsof je een 3 scherm setup heb op 1 scherm.

het blijft een beetje abracadabra voor mij deze technologie.
De virtuele wereld wordt al gerenderd het gaat om het raam waardoor gekeken wordt(perspectief). Dit kan een monitor zijn maar ook een gedeelte van een monitor(VR). Deze techniek is natuurlijk nauw verwant aan de nieuwe camera techniek Ansel. Natuurlijk moet de GPU alle pixels op de schermen wel gewoon renderen. Alleen bij VR levert het een performance winst op omdat de lens vervorming niet gecorrigeerd hoeft te worden.Je kan ook de stream van Nvidia nog eens bekijken JenHsun Huang legt het goed uit. https://www.youtube.com/watch?v=GfTmDsLu9hg

[Reactie gewijzigd door dezwarteziel op 8 mei 2016 00:25]

Dan is nu de grote vraag, bevat de 1070 ook deze "simultaneous multi projection"? Dat zou de 1070 al heel snel de beste bang for buck VR kaart maken. Jammer dat daar nog weinig over gezegd word in de presentaties.
Okee ik weet niet wat er gebeurt vanaf 00:59:00 maar wat en slecht georganiseerd geheel zeg. Dit kan je toch niet maken zo?

Super interessante technieken en dan ga je er zo onprofessioneel mee om. Ik vind het echt jammer dat het op deze manier gebeurt wan dit is echt enorm storend.
Nu is voor mij de vraag: ga ik hem nu kopen of wacht ik tot er een pricedrop komt omdat er nog een 1080Ti met hbm komt.
Ik denk niet dat die voor 2017 komt. Nvidia gaat de Tesla P100 als losse kaart pas begin 2017 leveren, ook AMD komt begin 2017 met zijn Vega-gpu die van hbm2 gebruik zal maken. Het is nog koffiedik kijken, maar een 1080 Ti-variant met hbm2 lijkt me een logische zet. Zeker gezien de Tesla er ook gebruik van maakt.
een 1080 kan never nooit `op hbm2 en op gddrx5 worden uitgebracht.
als hij nu 256 bit breedt is, ga jij dat niet even op dezelfde chip omzetten naar 4096 bit.
(het aantal bit, betekent het aantal draden/sporen/pinnen wat van de gpu naar het geugen gaat)
de gpu met hbm2 zal dan een andere variant worden, redesigned.
Een GTX 980 Ti heeft ook een andere chip dan een 980 (GM200 vs GM204). Nvidia heeft gewoon een Pascal-gpu met hbm2 klaarliggen: de Tesla P100 met GP100-gpu. Daar kan Nvidia in theorie best een (iets afgeknepen) variant van uitbrengen als GeForce-kaart. Het meest 'logisch' is wellicht een nieuwe GeForce Titan-kaart, met flink prijskaartje...
Ik gok idd eerst op een titan variant voor een dikke prijs, ook omdat er in de semi pro markt wel vraag naar is. Een 1080 ti zal idd ook meer afhangen van of ze het nodig binden mbt AMD gpu's...
En hoe zit het met asynchronous computing dat zo belangrijk is voor DirectX12 en waar AMD veel beter in is. Daar reppen ze met geen woord over, dat zegt genoeg denk ik. De marketing van nVidia is natuurlijk altijd al uitstekend geweest. ;)

Desalniettemin wat een kloksnelheden zeg(1607 MHz!) en wat een performancewinst vd 1080 tov de 980. Zomaar eventjes 70% sneller in Rise of the tomb raider. Het was te verwachten met het veel kleinere productieprocede op 16 nm maar dit is indrukwekkend. De 1070 is the way to go want de 1080 vind ik te duur. Ik ben benieuwd wat AMD daar met Polaris gaat tegenover zetten.
Het was te verwachten met het veel kleinere productieprocede op 16 nm maar dit is indrukwekkend.
Dat heeft helemaal niets met elkaar te maken. Kleiner procede geeft minder energiegebruik bij gelijk blijvende omstandigheden. Op hetzelfde oppervlak kan men wel meer transistors kwijt en dus meer rekenunits. Dat maakt de kaart sneller.

[Reactie gewijzigd door PcDealer op 7 mei 2016 23:05]

Maar daar heeft nvidia nauwelijks gebruik van gemaakt. Kijk maar naar het aantal transistors. Nee je zijn gegaan voor slechts een paar extra transistors en een veel kleinere chip.
Dit is zuiniger waardoor de core clock omhoog kan zonder veel extra verbruik. Met mooie marketing weet nvidia dit mooi te brengen. Echter is dit vooral voor hun mooi. Een kleine chip is veel goedkoper te maken. En door de snelheid wat op te voeren is hij sneller en dus een rede om te upgraden. Ofwel meer winst voor nvidia!
Deze gpu is zeker een mooie, maar voor de prijs van een gtx 980ti vind ik hem wel echt te duur.

[Reactie gewijzigd door holhuizen op 7 mei 2016 12:17]

En dus was het te verwachten met het kleine productieprocede. Ik wil best het rekensommetje voor je maken maar dat kan je zelf ook wel.
Ja dat weet ik en dat bedoelde ik.
En hoe zit het met asynchronous computing dat zo belangrijk is voor DirectX12 en waar AMD veel beter in is. Daar reppen ze met geen woord over, dat zegt genoeg denk ik. De marketing van nVidia is natuurlijk altijd al uitstekend geweest. ;)
Dat zegt op zich niets, nvidia gaat natuurlijk niet zeggen: "he kijk eens hoe slecht onze vorige kaarten async compute deden."

Ze hadden wel een slide waar de 1080 gehakt maakt van de titan X in een VR applicatie, dat doet vermoeden dat hij compute+graphics beter trekt dan maxwell.
En hoe zit het met asynchronous computing
Hier wordt wel een vermelding over gemaakt op de Nvidia site:
Superb Craftsmanship. Increases in bandwidth and power efficiency allow the GTX 1080 to run at clock speeds never before possible -- over 1700 MHz -- while consuming only 180 watts of power. New asynchronous compute advances improve efficiency and gaming performance. And new GPU Boost™ 3 technology supports advanced overclocking functionality.
http://nvidianews.nvidia....troduces-geforce-gtx-1080
Had nVidia niet juist al jaren performancewinst op AMD door dit zelf in hun drivers te laten doen, waardoor async compute in dx12 weinig toevoegde? Heb het altijd al vaag gevonden hoe sommige AMD-kaarten op papier veel sneller leken dan ze uitpakten. Als een bedrijf als nVidia hun engineers er wat jaartjes aan heeft laten werken zouden ze dat wel's beter kunnen doen dan MS zelf. Mijn gok; als ik gelijk heb slopen ze voor de 10xx-serie hun eigen tweaks om zo in de dx12-benchmarks beter uit te komen, en is het feit dat AMD nu eindelijk winst uit hun kaarten haalt met DX12 juist een teken dat hun driverteam nog altijd lichtjaren achterloopt.

PS: Ben zeker wel blij dat er in DX12 een manier is waar alle games gebruik van kunnen maken, gaat zeker helpen dit sneller overal te implementeren, maar blijf erbij dat nvidia hier zelf al een tijdje mee bezig was.

[Reactie gewijzigd door Interlace84 op 7 mei 2016 15:36]

Asynchronus compute is gewoon een omschrijving van hoe je omgaat met je data. Een algemeen omschijving.

En je kunt het zowel software matig uitvoeren of met een dedicated stukje hardware. Raad eens wat sneller is ;)

AMD heeft hun hele gcn architectuur er om heen gebouwd en gebruikt dus hardware en nvidia heeft nog steeds geen bewijs geleverd dat ze het nu ook op hun architectuur doen of gewoon weer via software .
En toch is sinds de introductie van dualcore systemen er amper nog een moment geweest waarin AMD zo sterk het voortouw nam als in het Radeon 9800 vs FX5900-tijdperk. Terwijl de specs van vele latere generaties aan kaarten op papier steeds deden kwijlen bleven ze steeds #2 als het erop aankwam. De drivers leken daarbij vaak ook achter te lopen.

nVidia had daarnaast al jaren expertise op threading-gebied opgebouwd aan de Quadro-kant van hun kaarten voor multi-cpu renderworkstations, vandaar dat je tegenwoordig een "Threaded Optimization" optie in je GeForce-driver ziet. Dit geldt alleen voor OpenGL-applicaties voor zover ik weet, maar is daarvandaan overgewaaid (wie weet is het lang geleden opgekochte 3dfx daar indirect nog voor te danken geweest :+ )

Als een bedrijf als nVidia in die tijd R&D-geld over had zouden ze er goed aan hebben gedaan vanaf de eerste dualcores het gebrek aan threading in DX9/10/11 voor D3D zelf te willen compenseren. Just my .02

[Reactie gewijzigd door Interlace84 op 7 mei 2016 17:17]

tja denk toch dat daar een stukje verschil zit in Nvidia vs AMD/ATI als bedrijf. Bij Nvidia heb ik altijd meer het gevoel gehad dat ze de markt volgen en daarop proberen te cashen, en Bij AMD/ATI dat die toch de markt willen verbeteren/innoveren mede door hun open source instelling en technologische vooruitgangen.

Denk niet dat Nvidia iets zoals bijvoorbeeld Mantel had willen ondernemen
Ik zou dan gelijk wachten op de 1180...Ti....1280 dan?
neeik denk dat jij beter kan wachten op de 2018 gpu architectuur van amd. ;)
Ik vind het jammer dat ze de vergelijking met de 980 gemaakt hebben en niet met de 980ti welke veel dichter tegen de prijs aan zit.
980 wordt 1070
980ti wordt 1080
Dit inderdaad. Wilde net hetzelfde typen.

Vergelijking met de 980 is totaal niet relevant, andere pricerange. En ik denk dat het prestatie verschil met de ti nog wel eens flink kan tegenvallen.

En voor de mensen die wachten op het tegenantwoord van AMD, ga er maar vanuit dat die niet komt. Het is al langer bekend dat de eerste Polaris kaarten als midrange weggezet worden. Waarschijnlijk rond de 380 met minder tdp. ( maar dat is iedereen waarschijnlijk tegen die tijd wel weer vergeten )
Er zijn al veel websites die melden dat de 1080 sneller is als de snelste kaart op dit moment de Titan X - dus de 980Ti wordt ook gewoon omver geblazen ;)
Even wachten tot de 1080ti komt? :D Ik ben zelf heel benieuwd hoe de custom pcb's en koelers gaan uitvallen tov van het reference model.
Is de P100 niet de Ti?

Alleen kiezen ze er voor om die in een andere markt neer te zetten zoals auto's maar complexe robotica heeft ook steeds meer vraag.

Ik weet niet of dat een goed teken is en/of de productie allemaal van dezelfde faciliteiten komen.

Wat wel redelijk vaststaat is dat gamers lang hebben gewacht en veel hebben uitgesteld,
maar dat er vanuit de industrie waarschijnlijk een nog hogere vraag is voor dergelijke zeer snelle gpu's.

Het is maar hopen dat het productie-proces goed op orde is en dat ze eventueel makkelijk kunnen schalen want anders zullen er tekorten ontstaan.
Nee, de P100 is echt alleen voor high performance computing bedoeld. De meeste Tesla kaarten hebben ook geen video outputs. Het gaat om de parallele processing power van volgens de specificaties 3584 cudacores.

Waarvoor je 5 jaar geleden tijd moest reserveren op de supercomputer bij Sara kan nu bereikt worden met enkele Tesla kaarten. Denk bijvoorbeeld aan het flinke performance verschil bij bitcoin mining tussen een CPU en een GPU.. Maar ook big-data analyze, weer/klimaat voorspellingen, architectural simulations, etc, etc. Adobe heeft ook GPU acceleratie toegevoegd aan haar Photoshop en Premiere producten. Zeker special effects in Premiere profiteren flink van een GPU..

Maar over een aantal jaren kan dat weer zijn omgedraaid als de kwantum CPU's beschikbaar worden. Recentelijk stond hier op Tweakers een artikel dat IBM quantum computing processor time weggeeft en daarbij zal al 5 qubits beschikbaar..

Daarbij moet je niet raar opkijken als de P100 op de markt komt tegen 2000-2500 dollar. Dat lijkt veel, maar kijk eens naar de prijzen van de e5-269x processor serie.
De stockkoeler moet anders ook aardig presteren.
Hebben ze een overklok mee gedaan tot over 2,1GHz.
Hoe warm het kaartje toen werd weet ik niet.http://nl.hardware.info/n...sneller-dan-titan-x-in-vr
Dan presteert het reference model behoorlijk goed! Hoe zou het watergekoeld zijn? :D
Misschien cherry picked chippie.
Maar toch, met stockkoeler.

Ik kan ook niet wachten op deze kaart, en ga hem dan ook zeker waterkoelen.Elke Herzje wat ik er extra uit kan persen, zal er uit komen.LOL.
Gegarandeerd cherry picked, wat is nou beter voor pr dan hoge cijfers ;) maar uberhaupt de base en turbo zijn al een stuk hoger dan verwacht, en over 2k gaan op een reference model... Met een enkele 8-pin zegt eigenlijk al genoeg. Word wel even sparen, maar het is het zelfs waard om van een 980ti te upgraden :o
Ik denk ook dat de GTX1080 dit keer een stuk sneller is dan de GTX1070.
We hebben bij vorige generatie meerdere keren gehad dat de GTX X70 overgeklokt even snel was als een GTX X80.
Nu denk ik dat het prestatie verschil een stuk groter zal zijn.

Ik zal ook geld moeten weg leggen, maar dit keer is het imo weker het geld waard :)
zou dit voornamelijk komen door het nieuwe gddr5x geheugen? Ik heb het idee dat daarmee de 1080 vooral voor de 1070 uitsprint (natuurlijk ook door de cores etc.) het is jammer dat ze bij de 1070 het opzettelijk niet toe hebben gepast. :( anders had ik wel een 1070 gekocht.
Er zijn al veel websites die melden dat de 1080 sneller is als de snelste kaart op dit moment de Titan X - dus de 980Ti wordt ook gewoon omver geblazen
Je vergeet dat de de 980TI ook al sneller is dan de TitanX, maar je hebt wel gelijk deze kaart is sneller als beide
Op basis van de gegevens cijfers komt AnandTech tot een verbetering van 25% ten opzichte van de 980Ti. Dat lijkt mij reëel. De GTX 1080 heeft iets minder cores, vergelijkbare geheugenbandbreedte, maar wel flink hogere kloksnelheden.
Polaris kaarten als midrange weggezet worden. Waarschijnlijk rond de 380 met minder tdp. ( maar dat is iedereen waarschijnlijk tegen die tijd wel weer vergeten )
Wat ik gehoord heb is dat de grote polaris alles tot en met de 390x gaat vervangen. Dat zou een tegenhanger van de 1070 worden dan. Maar goed, pure speculatie.

[Reactie gewijzigd door haarbal op 7 mei 2016 10:21]

Ik hoop dat Polaris ongeveer rond 1070 prestaties gaat zitten maar dan een prijsje krijgt van 350 euro . Dan kan ik gelijk mijn 970 vervangen. Verwacht dat de 1070 te duur gaat worden en rond 400/450 gaat zitten dus daar kan AMD flink nvidia te pakken nemen en een flink stuk markt percentage terugpakken. Maar we zullen zien. Hogelijk eind deze maand meer details van polaris bij hun presentatie.
Volgens mij was het vorig jaar met de aankondiging van de gtx980 zo dat deze maar enkele percentages sneller was dan de gtx780ti. Wellicht dat nvidia daar van geleerd heeft en nu bewust een "betere" vergelijking maakt met de gtx980
Blijkbaar houden ze de 1080 ti achter de hand en zien ze (imo terecht) de Ti series als aparte producten. Anders vergelijk je twee verschillende appels. ;) Je kunt dus de gtx1080 als de opvolger zien van de gtx980ti. De gtx1080 ti komt later immers. ;)

[Reactie gewijzigd door CH40S op 7 mei 2016 20:40]

Meteen een grote chip bakken op een nieuw proces is lastig en duur daarom pas in 2017 een nieuwe Titan/TI opvolger en nieuwe AMD highend ;)
Ik heb het toch ook niet over het procedé? :?
maar wel over grotere chips (Ti) waarvan jij denkt dat ze die achter de hand houden.
Of heb je het alleen over het labeltjes Ti die ze nu niet erop hebben gebruikt ? Ti versie worden toch altijd pas na de volledige line up gelanceerd ?
Het ging mij alleen om de labeltjes idd. Ti is de aanduiding voor de echte high end kaarten immers, waar Pinobot ook op doelde volgens mij.

[Reactie gewijzigd door CH40S op 7 mei 2016 20:38]

Volgens mij was het oorspronkelijk te bedoeling dat Titan de benaming werd van de high end van nvidia, dat bij Maxwell de 980 TI zo goed uit de verf kwam was ook wel wat vreemd omdat ze hiermee de Titan X concureerden. Wellicht komt er nog geen TI maar wel een nieuwe Titan als highend
De 980 gebaseerd of de GM204 was de vorige mid-range high end.
De 1070/80 gebaseerd op de GP104 is de nieuwe mid-range high end.
NV heeft van de gelegenheid gebruik gemaakt om de prijs op te drijven.

Een Pascal high end kaart komt pas volgend jaar.
Er is voldoende marge voor een echte high end aangezien de GP104 7.2B transistors is en de reeds aangekondigde P100 er 15B heeft. De toekomstige high end kan dus in principe 2xGP104 bevatten.
Nee, de 980 is een GM104 SKU

De 1080 is een GP104 SKU

Kortom, het is dezelfde SKU met een nieuwe architectuur. De 980ti is GM100, de grotere die, en die wordt opgevolgd door de nog uit te komen GP100 SKU.

Dit is elke release zo, ik snap niet zo goed waar al deze verwarring vandaan komt. Business as usual...

[Reactie gewijzigd door Vayra op 7 mei 2016 15:25]

Omdat de 980 de standaard kaart is, en de 980ti de 'bijzondere', en de 1080 wordt dus de opvolger van de 980, en de 1070 de opvolger van de 970.. Een 1080ti komt later alsnog...
Als consument boeit me dat natuurlijk helemaal niets, het enigste wat telt is prijs-prestatie.
Zonde dat het absolute verbruik omhoog is gegaan. Performance-per-watt gaat uiteraard omhoog, dus dat bekt lekker. Maar feit is dat een spelletje spelen gewoon meer energie kost nu, en dat is wat telt. Ben ook benieuwd naar idle verbruik, hopelijk zijn daar wel stappen gemaakt, zeker voor iemand die niet continue gamed zoals ik erg belangrijk.
Je hebt deels gelijk: Nieuwe spellen zullen meer gebruik maken van de mogelijkheden van deze kaart en zullen dus meer verbruiken. Oudere spellen zullen echter minder verbruiken omdat deze kaart efficiënter is dan de vorige generatie en dus zullen alle spellen die je ook met de oudere varianten kan spelen minder verbruiken.
Is dat altijd zo? Naar mijn idee gaat gewoon de fps omhoog en blijft het verbruik hoog. Om die reden zet ik vsync aan, ik heb dan het idee dat ik minder stroom verbruik zonder in te leveren op wat dan ook. Uiteraard alleen als de fps vaak boven de refreshrate zit.
Zodra er een verschil is in fps/graphic fidelity, dan speel je het spel niet meer zoals je het op een andere kaart speelt. Vergelijk het spel op 60 fps met dezelfde instellingen en dan zal de nieuwe kaart (denk ik) efficienter zijn.
Maar heb je dan geen rendement als de GPU core zeg maar 40% gebruikt ipv 100%? Net zoals bij voeding efficiency

[Reactie gewijzigd door BJ_Berg op 7 mei 2016 11:15]

Lagere settings gebruiken? Vsync?

Tal van manieren om het gebruik omlaag te halen.
Aangezien performance per watt is verbeterd, is het goed mogelijk de kaart te downclocken en nog steeds van een (kleinere) prestatie winst te genieten zonder het hogere energie verbruik.
Presies, frame cap erop en klaar!
Het idle verbruik is wat je uiteindelijk in je portemonnee gaat raken inderdaad als de eindafrekening van de energiemaatschappij komt. Mijn PC is nog altijd het langst idle.
Idle verbruik van een GTX970/980 ligt volgens tom's hardware al gauw op zo'n 20W, ik ga toch maar eens mijn power/sleep settings beter instellen ;)
http://www.tomshardware.c...well,review-33038-12.html
20 watt is niks man. Benieuw hoe hoog het verbruik met films afspelen is. Geen htc meer nodig dan.
Maar feit is dat een spelletje spelen gewoon meer energie kost nu, en dat is wat telt.
Voor jou misschien, maar ik verbruik graag 15 Watt meer voor een flinke performance-verhoging. Bekeken op het verbruik van het hele systeem is dat een klein verschil, en naar mijn mening mag een hobby wel wat kosten. Wat voor mij "telt" is performance, zolang het verbruik en de hitte niet al te extreem uit de hand lopen. Ik ben eigenlijk zelfs blij dat Nvidia heeft gekozen voor een iets hoger verbruik, want anders zou deze generatie weer vooral een efficiëntieverbetering zijn geworden in plaats van een nieuwe stap qua performance. Die hoge performance is nodig voor het VR- en 4K-tijdperk naar mijn mening. 180 Watt is ook nog altijd niet extreem overigens; er zijn best wat kaarten die boven de 250 Watt zitten bij load.

Natuurlijk blijft het afwachten hoe goed deze kaarten daadwerkelijk gaan presteren, maar ik sta voor nu achter de keuze om het gebruikte vermogen niet te verlagen en zelfs iets te verhogen om zo meer prioriteit te leggen op de rekenkracht.
Dit is onjuist. Hetzélfde spelletje zal bij gelijke settings en FPS gewoon veel minder verbruiken. Dus de performance per watt gaat omhoog, en gamen wordt zuiniger.

Als je ervoor kiest om geen Vsync of FPS limit toe te passen en zo 'frames weg te gooien' dan gooi je je eigen efficientie het raam uit. Daar kan Nvidia weinig aan doen.
Sorry, maar met prijzen van 600 euro voor een GPU en je maakt je dan zorgen om die paar euro extra per jaar aan energie? 8)7
Ik noem nergens euro's als factor waar ik me 'zorgen' over maak? Ik praat over energie.
Dit is een aardige upgrade en waarschijnlijk na enkele maanden voor dezelfde prijs in de schappen als de voorganger. 180 Watt, dat betekent ook weer wat meer warmte om af te voeren.
Meer ? Juist minder !! De titan x bijvoorbeeld gebruikt alleen al 250 watt. Deze 1080 is dus niet alleen zuiniger, maar ook gewoon tig keer sneller waardoor je juist minder warmte hoeft te verplaatsten omdat er minder stroom gebruikt wordt om een hoger prestatie niveau dan zijn voorgangers te bereiken.
Ten opzichte van de GTX 980 is het iets meer. Performance per watt is natuurlijk wel veel beter bij het nieuwe model :)
ja tegenover de 980 wel alleen presteert de 1080 niet als een 980 maar beter als een titan x, die een tdp van 250 watt heeft, ik zou dus juist zeggen je bent omlaag gegaan met je vebruik
Titanx heeft ook 2 gpu's toch?
Nee, de oudere Titan Z is een dual-gpu. De X is één chip.
Ah zo, ok. :)
Dat beetje extra ben ik wel bereid om op te offeren hoor! :D
165W vs 180W ignoring performance. Dan is een iGPU in Core budged of instap APU veel beter.
Maar kwa Performance Watt verhouding is het zuiniger.

Maar dat is te verwachten bij grote procede stap. Dat je nu veel meer performance zal krijgen per Watt.
Wat n beesten, dit gaat m worden, de 80! Daar zit je dan met je 980ti, 2e hands gelijk de helft minder waard!
Nee hoor, hij is maar iets sneller dan de 980 ti. Net zoals de 980 dat was voor de 780ti.
Dit ligt geheel in de lijn der verwachtingen. Er zit alleen extra geheugen op en die nieuwe features alsmede de opgewaardeerde displayport en HDMI aansluitingen.
Mensen die van een 980ti komen zullen vanwege de nieuwe dingen overstappen, niet vanwege de snelheid. De 980ti daalt ook niet zo veel in prijs (tweedehands). Dat is bij de 780ti ook niet gebeurd. Zeker niet de helft.

De aparte keuze voor geheugen hoeveelheid en het niet beschikbaar maken van nieuwe features bij oudere series is uiteindelijk de reden waarom mensen over stappen. Als ze het redelijk hadden aangepakt had de 980ti al 8gb geheugen gehad, maar dat is een bekend trucje om hem niet al te futureproof te maken. De 780ti had 4 moeten hebben ipv 3, de 580 2 ipv 1,5. Etc.
Dat is ook vaak de reden waarom de nieuwere kaarten uiteindelijk niet proportioneel uitlopen in snelheid, puur omdat de spellen meer vram vragen. Aan de snelheid ligt het meestal niet.
Plus de nieuwere kaarten worden waarschijnlijk (speculatie) actiever geoptimaliseerd in drivers, waar ze de oudere series wat minder tot geen aandacht lijken te geven, behalve bij dingen die een gemene deler hebben, bv SLI profielen maken.
Maar ze voegen iedere keer wel weer mooie dingen toe.
Iets sneller? Heb je de getallen wel gezien?

gtx980 4.4 tflop
gtx980ti 5.6 tflop
gtx1070 6.5 tflop
gtx1080 9 tflop

En Vram is bij veruit de meeste spellen geen issue. Alleen een enkel spel met hoge resolutie textures vraagt zoveel geheugen. Niet iets om de kaarten voor aan te passen, want dat maakt de kaart duurder en minder verkoopbaar aan meer dan 99,9% van de rest van consumenten die dat spel niet hebben.
Als je alleen naar tflop zou kijken zou de 1080 meer dan 2x zo snel zijn als de 980. Terwijl ze zelf aangeven 1,7.
Geheugen heb je nú misschien nog niet helemaal nodig, over een jaar of 2 heb je al bijna weer te weinig.
Mijn 780ti heeft met 3gb nu al te weinig voor de nieuwste spellen. En ja, uiteraard op hoge resolutie en hoge textures, maar dat zie je ook best wel als je de textures omlaag moet schroeven. En dan game ik nog 'maar' op 1440p en nu zit het geheugen al vol bij nog niet eens de nieuwste spellen.
Maar het geheugen is echt niet alleen gebruikt voor textures. Ook antialiasing vraagt goed geheugen. Ik kon zelfs in far cry 3 niet eens 8x aa spelen. Dat is direct een dramatische drop in performance, onspeelbaar.

Dus ja, ik blijf bij mijn antwoord. Ik verwacht dat hij zo'n 15%, misschien 20 sneller zal zijn dan de 980ti in sommige scenario's. Niet echt genoeg om alléén daarvoor over te stappen.

Trouwens, veel benchmarks in reviews maken bijvoorbeeld gebruik van presets in games. En dan pakken ze vaak de hoogste, waar flinke AA en hoge resolutie textures in zitten en dan zie je bij oudere kaarten al snel de performance flink zakken. Dan is een 970 opeens sneller dan een 780ti. Dus. En daar baseren veel mensen hun oordeel op. Niet dat ze überhaupt weten dat ze met een paar mindere instellingen dan toch de vloer aanvegen met de 970, om maar een voorbeeld te noemen.

[Reactie gewijzigd door TJRef op 7 mei 2016 09:17]

Antialiasing kost juist niet veel geheugen. Je komt waarschijnlijk niet boven de 100MB uit. Het kost wel enorm veel rekenwerk. En in de nieuwere kaarten zitten nieuwere technieken om dat sneller te kunnen doen. Geheugen is daar absoluut niet de bottleneck.
Antialiasing kost juist niet veel geheugen.
Dat hangt er vanaf wat voor soort AA je gebruikt.

Als je FXAA of SMAA gebruikt, zal het wel meevallen. FXAA maakt alles meer blurry. Ik vind het niks. TXAA lijkt veel op FXAA, maar geeft beter resultaat bij bewegend beeld. Als je een spel speelt dus. Maar op screenshots is het minder indrukwekkend.

Maar SMAA is een vrij goed compromis tussen goede AA en weinig rekenkracht/memory nodig. Ik prefereer SMAA in de meeste games nu. Ook games die het niet hebben kun je SMAA laten doen. Via injectors als ReShade+SweetFX. Highly recommended.

En dan heb je MSAA, SGSSAA en SSAA.
Die vreten geheugen.
SSAA rendert je beeld gewoon in hogere resolutie. Bv 4xSSAA rendert het plaatje voor je 1920x1080 monitor in 3840x2160. En downsampelt het dan. Dat kost je bakken geheugen, en bakken CPU. Performance verlies van 50-70% voor 4xSSAA.

SGSSAA (Sparse Grid) is iets efficienter. Maar gebruikt nog steeds veel extra geheugen en CPU. Maar het effect is bijna zo mooi als SSAA. Voor oude spellen die het kunnen gebruik ik liefst 4xSGSSAA. Kun je aanzetten via de gratis nVidia iNspector tool.

Ja. Sommige vormen van AA kosten een hoop CPU of memory. Andere vormen van post-processing kunnen ook veel VRAM gebruiken. Zeker als je op een monitor speelt met hogere resolutie dan 1080p.
Reken eens uit hoeveel geheugen je nodig hebt voor 1 4k frame.

FHD is 2 megapixel,
4k is 8 megapixel, 32bit per pixel = 32 megabyte

Maal een paar keer voor buffers, dan zit je nog niet niet aan gigabytes.

Het kost performance, maar niet zoveel geheugen.

[Reactie gewijzigd door gjmi op 7 mei 2016 17:08]

Ik denk dat een renderer meer intermediate geheugen gebruikt dan 1 enkele buffer.
Daarom staat er in mijn bericht: maal een paar keer voor buffers. En dat veranderd de rest van het verhaal niet.
Ik heb even gegoogled.
Eerste hit die ik tegenkwam:
http://www.tomshardware.c...cs-card-myths,3694-5.html

Artikel uit 2014, dus redelijk nieuw. Tom's Hardware, dus niet helemaal de eerste de beste. Zie de laatste graph:
Skyrim peak VRAM usage:
@1080p
no AA - 828 MB vram usage
FXAA - 828 MB
4xMSAA - 970 MB
8xMSAA - 1130 MB

Zoals ik dus schreef: het hangt van het type AA af. Bij 8xMSAA heb je dus een increase van 828 MB naar 1130 MB. Dat is 302MB, of te wel een 36% increase.

Bij 4K wordt het nog erger:
no AA - 1122 MB
FXAA - 1122 MB
4xMSAA - 1695 MB
8xMSAA - 2028 MB

Dat is een 81% increase van VRAM usage.

Dit is maar een test. Niet betrouwbaar dus. Maar toch denk ik dat je niet kunt blijven beweren dat alle vormen van AA relatief weinig VRAM gebruiken.

Of moet ik nog verder googlen ?
"since a modern game will typically have several post-processing effects needing to work with HDR radiance values rather than display colors .. we want to perform tone mapping as the last step in our post-processing chain. This presents a potential difficulty with the approach of tone mapping prior to resolve, since it means that all previous post-processing steps must work with a non-resolved MSAA as an input and also produce an MSAA buffer as an output. This can obviously have serious memory and performance implications, depending on how the passes are implemented."
(Bron: https://mynameismjp.wordpress.com/2012/10/24/msaa-overview/ )

Oftewel afhankelijk van hoe de game in kwestie met post-processing shaders omgaat kan het geheugengebruik bij MSAA wel degelijk exponentieel toenemen. Als je in GPU-Z je geheugengebruik in de gaten houdt bij geforceerd inschakelen 8x MSAA in de meeste nieuwe games met bv een motionblur is het merkbaar.
Huh wat? AA is renderen in hogere resoluties en dat downscalen. Het is juist voornamelijk geheugen gebruik.
As specific anti-aliasing modes (FSAA, MSAA, CSAA, CFAA, but not FXAA or MLAA) effectively increase the number of pixels that need to be rendered, they proportionally increase overall required graphics memory. Render-based anti-aliasing in particular has a massive impact on memory usage, and that grows as sample size (2x, 4x, 8x, etc) increases. Additional buffers also occupy graphics memory.
Ik heb een vrij zwakke kaart met relatief veel geheugen. GTX 760, en die 2GB geheugen is van deze kaart veruit de grootste bottleneck. Ik heb volgens mij nog nooit de GPU zelf op 100% gekregen.

[Reactie gewijzigd door batjes op 7 mei 2016 16:11]

Over 2 jaar ben je al weer 2 a 3 generaties verder. Dat is dan ook de reden om de performance getrapt te verbeteren tegen gunstige investeringskosten. In dit geval hebben ze en een die shrink en een nieuwe finfet technologie gebruikt. Dus het stroomverbruik zal veel minder ongunstig zijn.

Bij de buren zag ik een plaatje dat de 1080 $599 msrp gaat worden.
Ik heb juist het idee dat deze generatie erg lang mee is gegaan. Heb de 970 bij release gekocht en die voldoet nog steeds meer dan prima. Die is grofweg 20 maanden geleden uitgekomen. De 10xx generatie heeft lang op zich laten wachten.
Over twee jaar zijn we denk ik pas één generatie verder. En dan begint het al meteen, de afschrijving. Toen de 9 serie uitkwam werd direct daarvoor ontwikkeld, met hun 4gb in het achterhoofd. En dan zit je daar met je dure snelste van de snelste van de vorige generatie, met maar 3gb.
Maar uiteraard hoort dat er bij, alleen is het gewoon een beetje standaard dat nvidia steeds net wat minder geheugen heeft. Bij lancering meer dan voldoende, maar daarna niet. AMD was al de eerste met bv 4gb en daar hebben die oudere kaarten nu nog steeds profijt van.
Flink wat sneller hoor als ik de tf zo zie. En deze stap is echt wel groter dan de stap van 780 naar de 970/80.
Naja, we zullen wel zien wat de prijzen gaan doen! Maar ik zet mn geld in op n flinke drop, misschien niet de helft, maar wel aanzienlijk. Ik zou nu tweedehands geen 450/500 voor n 980 ti overhebben!
Voor 980Ti performance moet je overigens een 1070 halen en die kost inclusief btw rond de ¤400. Het scheelt dus maar ¤50 met zo'n tweedehandse 980Ti.

[Reactie gewijzigd door Pay op 7 mei 2016 13:23]

Ja maar NIET met een nieuwe Geforce GTX 980Ti, want de goedkoopste kost ¤639,-, en ja dan kan je veel beter voor de Geforce GTX 1070 gaan natuurlijk.

En ik ben niet zo weg van een tweedehandse grafische kaart of MB of CPU, je weet nooit wat je krijgt, het kan wezen dat hij na een maand of zelfs een week stopt met werken, en probeer dan maar is je geld terug te krijgen

[Reactie gewijzigd door AmigaWolf op 8 mei 2016 23:28]

Daar zit je dan met je 980ti?
Dat klopt maar hey ik draai die 980ti ondertussen al een jaar.
en een jaar terug was het echt een beest ik heb er absoluut geen spijt van gehad.
het is gewoon weer tijd voor de komende gen.
980ti is zeker geen straf, heb je gelijk in! Maar zou nu zelf geen ti meer kopen achteraf.
Goh... is dat niet met alles zo wat je koopt? Vooral met computer spul?
Kopen op dit moment, niet een jaar terug ofzo. Maar zoals je zegt, dat is zo.
Ik kan het toch niet weerstaan om mijn 970, al een beest van een kaart, te vervangen door een 1070 of zelfs 1080. Wat een monsters die nieuwe kaarten!
Nu afwachten wat AMD zal brengen. :)

[Reactie gewijzigd door TheTinusNL op 7 mei 2016 07:44]

Ja ik zit dus ook te twijfelen,
970 verkopen en gelijk voor 1080 gaan of goedkoop ergens een 970 op de kop tikken en nog 1 à 2 jaar sli draaien. Aangezien ik geen 4k monitor heb en nog 1080p speel denk ik dat daar voorlopig nog wel mee door kan.
SLI schaalt waardeloos, zou gewoon een nieuwe kaart zoeken. Betaal je effectief hetzelfde, betere prestaties en stabiliteit, minder warmte en dus minder geluid.
SLI schaalt niet zo waardeloos meer. BF4 bv heeft bijna dubbele fps in SLI tov een enkele kaart. Micro-stuttering merk ik niets meer van (ik heb SLI GTX670).
Met de nieuwere games is het tegenwoordig gewoon waardeloos als je SLI neemt, totaal geen ondersteuning. Of je zal dan maanden moeten wachten voor een driver maar zelfs komt der helemaal geen ondersteuning meer. Aangezien DX12 hier verandering in brengt (als ik de geruchten mag geloven) zal ik der nog maar even mee wachten.

Mja NVIDIA en a-sync performance hoor je ook niks over. Ik ben bang dat Pascal dit niet gaat ondersteunen en dat maakt toch een grote beslissing of ik een AMD of een NVIDIA kaart dit jaar ga nemen.

[Reactie gewijzigd door Jeroentjeeuh op 7 mei 2016 09:36]

Mja NVIDIA en a-sync performance hoor je ook niks over.
Hier wordt wel een vermelding over gemaakt op de Nvidia site:
Superb Craftsmanship. Increases in bandwidth and power efficiency allow the GTX 1080 to run at clock speeds never before possible -- over 1700 MHz -- while consuming only 180 watts of power. New asynchronous compute advances improve efficiency and gaming performance. And new GPU Boost™ 3 technology supports advanced overclocking functionality.
http://nvidianews.nvidia....troduces-geforce-gtx-1080
Bovendien geeft SLI in sommige games problemen en Is het vaak beter om single Gpu te gebruiken.
Heb je dan echt nood aan een nieuwe kaart? Ik heb ook een 970 en die voldoet nog ruim.
De 1080 ziet er een fantastische kaart uit, maar als ik de prijzen zie, ga ik toch afhaken. De 1070 zal ongetwijfeld snel zijn, maar het ontbreken van modern geheugen stoort me. Dit is ongetwijfeld om de prijs te drukken, maar toch.

Ik kijk uit naar wat amd hier tegenover zet. Als ook de line-up van amd vergelijkbaar is, sla ik een generatie over en wacht ik wel op de 1170 of zo.
Ja dat is even afwachten wat de systeemeisen worden van bv BF1 want als ik met een 970 deze prima op ultra kan draaien dan wacht ik sowieso nog ff! De 1080 of tegen die tijd een andere kaart zal er pas komen als ik tegelijk een 4K monitor zal aanschaffen!
Ach die 970 is nog wel goed. Ik zou in ieder geval wachten op de volgende generatie. Dan hebben ze het nieuwe proces beter onder de knie en kunnen ze er nog meer uithalen. En dan heb je veel meer waar voor je geld. Als ik de reacties zo lees over de sites, willen mensen hun 970, 980 en 980ti dumpen. Dus misschien is het zelfs interessanter om een 980ti tweedehands te kopen. Ik bedoel, voor FHD heb je daar genoeg aan lijkt me.
Ja dat is natuurlijk ook een optie, ik ga gewoon even afwachten wat de nieuws voor een impact heeft op de gebruikte videokaarten! Het is iig goed nieuws dat er weer genoeg beweging gaat komen met veel verschillende opties. Dit, de aankondiging van BF1 met het mooie weer maakt mijn weekend al goed!
Hopelijk gaan mensen onder de 250 voor een 970 zitten, dan heb je toch nog redelijk wat kracht voor de prijs
Alsbje van je kaart af moet.... PM me :p
Daarvoor verwijs ik je graag door naar de Vraag&Aanbod, niet dit nieuwsbericht ;)
Ik als 1080p gamer en midrange budget koper wacht wel op de gtx 1060 of zou een 970 die in prijs gaat dalen, beter zijn?
Je kan beter wachten op AMD polaris :)
Je kunt beter wachten op de ......... Of op de .......... Of de .........., weet je wat, je kunt gewoon beter wachten.............
Uhh.. ze komen ook binnen 2 maanden.. of te wel nauwelijks later dan NVIDIA.
Klopt dat wel dat de 1080, maar 1x 8pins gebruikt?
Jazeker. Is ook op de foto's te zien. 1x 8pins is goed voor 150 watt. Verder kan er nog 75 watt via het pcie-slot geleverd worden. Ruim voldoende dus voor het tdp van 180 watt.
Waarom deden ze dat niet met de vorige kaarten dan? Inplaats van 6pin+8pin of 2x 6pin.
1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True