Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Broncode Geforce-site wijst op aankondiging Nvidia GTX 1080 Ti volgende week

Door , 76 reacties

Nvidia heeft een countdown online gezet die aftelt naar 1 maart. De teaser vermeldt niet wat de fabrikant dan gaat aankondigen, maar de naam van de video die in de broncode staat vermeldt duidelijk een GTX 1080 Ti, een videokaart waarover al langer geruchten gingen.

De countdown is te zien op Geforce.com, waarbij de letters Ti worden uitgelicht. De broncode vermeldt een video met als naam GTX1080Ti_Countdown__Hero_1920x1080_h264_2mbps.mp4, ontdekte Hardware.info. De video staat in de div met het id 'gdcKeynote' en is op de site vinden in de map GDC 2017, wat erop wijst dat Nvidia de 1080 Ti wil presenteren op de Game Developer Conference. Die vindt volgende week plaats in de Amerikaanse stad San Francisco.

De verwijzing in de broncode is niet de eerste bevestiging van het bestaan van een 1080 Ti. Een vacature van Nvidia noemde die videokaart al eerder bij naam. In november kwam er al eens een gerucht naar buiten met vermoedelijke specs van de kaart. De 1080 Ti zou een gp102-gpu hebben en 10GB aan vram. Daarmee zou hij een stuk krachtiger worden dan de GTX 1080 met een anderhalf keer snellere gpu, maar iets minder dan de Titan X.

Nvidia GTX 1080 Ti in broncode teasersite

Reacties (76)

Wijzig sortering
Neem maar een tweede hypotheek als je hem wilt kopen... zal een godsvemogen kosten!
Benieuwd naar specs en benchmarks ( en ook een beetje naar de prijs )
KIjk gewoon naar de Titan X en haal daar 5% af voor de stock kaarten van Nvidia zelf en +5-15% voor de kaarten van fabrikanten zoals EVGA.
Je kan nu al met 90% zekerheid zeggen dat het dezelfde chip is als de Titan X, met een aantal shader units uitgeschakelt en iets hogere clocks.
Maar als computernoob denk ik dan dat je beter een Titan XP kan kopen en dan een aftermarketcooler of in je loop verwerken (want ik denk dat je van Titan XP gebruikers kan uitgaan dat ze geld hebben voor een waterloop.)
Met een beetje geluk duwt hij de prijzen van de andere kaarten wat omlaag..
Dat is waar ik stiekem ook een beetje op hoop...
Prijskaartje rond de §800-1000, nee dankje!
Dan nog even wachten op Vega :)
Inderdaad.
Ik heb de indruk dat gamen meer en meer als 'premium' word beschouwd.
PC games aan §60 op steam, GPU kaarten al snel over de §500, CPU's die bijna §500 kosten.. :F
(en dat is dan nog niet het beste van het beste).
Nvidia/intel heeft gewoon meer concurrentie nodig.
Juist de tegenovergestelde, high-quality 1080P gaming is nog nooit zo goedkoop geweest.
Een 1060 die is gelijk met een 980, de snelste kaart ter wereld slechts 2 jaar geleden. En met 6GB vram ipv 4GB en dat allemaal voor helft van de prijs van 980 oorspronkelijk

[Reactie gewijzigd door Koning Willy op 22 februari 2017 20:06]

en 4GB Vramm is ook echt hard nodig bij 1080P gaming :X
Oh zeker wel als je ziet wat voor geavanceerde texture packs spellen als download/mod krijgen of al bij de lancering hoogwaardige textures hebben, dat weergeven is zeker niet resolutie afhankelijk, want de textures hebben hun eigen resolutie.
Een vriend speelt met een GTX1080 op 1080P, zo moeilijk is het blijkbaar niet boven de 5-6GB VRAM uit te komen in sommige spellen.
Het is juist beter om teveel ervan te hebben dan te weinig, want ga je dicht tegen de limieten spelen krijg je slechte framepacing door het geswap van geheugen, wat dus overkomt als stutters.

Volgens mij waren er zelfs al spellen die vereisen minimaal 6GB VRAM te hebben voor de ultra texture instellingen, soms kan de instelling dan niet eens gebruikt worden.
Mirror's Edge Catalyst bijvoorbeeld kan al meer dan 7GB VRAM verbruiken met de Hyper instelling op 1080P.

http://www.gamersnexus.ne...chmark-gtx-1080-1070-390x
Mirror's Edge Catalyst – VRAM Consumption
We haven't spent too much time fully validating system RAM and CPU consumption, but had a chance to look at VRAM utilization during our test passes. In just the few minutes tested on each configuration, 1080p / Hyper seems to be nearly maxing-out the GTX 1080 (7455MB consumed). 4K / High had us sitting at 6615MB, with 1080p / Ultra resting more easily at 5020MB.
1060 kan ook prima 1440P doen
Natuurlijk heb je liefhebbers van games op 4K spelen om de hoogste settings op 120fps etc etc. Maar dit soort kaarten zijn ook zeer populair bij de 3D/VFX animatoren, en dan valt zo'n uitgave wel mee, want tijd is geld en als GPU rendering er tig keer sneller doorgaat, why not.

Ik heb zelf 2 1070's plus 2 970's die met z'n 4en enkel gebruikt worden voor rendering. Het is leuk dat gamen dan kan op dat soort settings, maar voor gamen zou ik nooit zoiets aanschaffen. Of het dus duur is, is een kwestie van je af vragen waarvoor je het gebruikt.

Sowieso wordt 'gamen' niet premium, maar 'premium gamen' is altijd al premium geweest :P
Ikzelf heb hiervoor geld weggelegd. Op moment heb ik een oude I7 970 cpu met een Asus Rog Strix 1060 OC kaart. Echter trekt deze kaart het niet als hij een game als Star Citizen of Battlefield 1 speelt in de voorgrond en een OBS stream naar Twitch in 720p@60fps op achtergrond.

Alleen het spel spelen gaat wel, maar daarnaast streamen in 60fps trekt ie dus net niet. Ingame valt fps terug naar ongeveer 30 a 40 fps. Ik gebruik NVENC bij OBS. zodat de CPU de alle ruimte krijgt voor de game. Echter moet de videokaart dan 2 maal zoveel werk doen. Het game coderen op de voorgrond en OBS coderen met NVENC op de achtergrond.

Coderen in OBS x264 zodat ie de CPU gebruikt heb ik ook gebruikt, maar dan stottert het ingame (microlag/mouselag). Als je dan de GPU clocks bekijkt throttled de videokaart niet naar de maximale clock (1620mhz ipv 2104mhz), wat weer resulteert in minder FPS. Als de CPU load bekijkt, topt (wat ik vaag vind) deze niet op 100%, maar ergens rond de 60 a 70%.

Hoop met deze 1080ti via NVENC beide te kunnen gebruiken in 1080p60fps. Zodat de fps ingame nooit lager dan 60fps komt. We zullen zien of ie dat kan trekken.

[Reactie gewijzigd door Oxize op 23 februari 2017 12:01]

Je wint wsl meer als je die oude CPU een upgrade geeft...
Waarom zou ik een CPU gaan upgraden. Als de load bij sommige games eens niet boven de 35% komt. Draai ik daar OBS bij naast, dan zit de load rond 65%. Ik snap je redenering niet.
Zo werkt dat helaas niet, je i7 970 is behoorlijk oud, misschien wel 5 of 6 generaties, en nieuwe CPU's zijn vele malen efficiŽnter per clock cycle en ook per Watt.

Je zult merken dat ondanks dat je nu de 100% niet haalt, je toch een vele malen snellere PC zult hebben, gewoon omdat de meeste software niet goed genoeg geoptimaliseerd is om efficiŽnt gebruik te maken van meerdere cores en threads.
Via Humble Bundle, Bundle Stars en Steam sales koop je erg leuke betaalbare games.

En een prima game pc die games op medium/high op 1080p trekt zal (compleet) ook maar tussen de 600 a 650 euro kosten, GTX 1050 (TI) en RX 460 zijn er leuke kaartjes, en de nieuwe Kaby Lake Pentium heeft weer hyper threading en is vrijwel even goed als de i3 6100 uit de Skylake serie... en die Pentium kost maar §60.

Gamen hoeft echt niet duur te zijn, consoles zijn goedkoper maar een leuke pc hoeft niet meteen duizenden euro's te kosten, voor die §600~650 heb je meestal al betere of hetzelfde graphics dan de huidige consoles.
Ligt er maar net aan wat je eisen zijn. Op 1080p gamen is nog nooit zo goedkoop geweest, helemaal niet met ryzen cpu's van §180 die (vermoedelijk) een i5 6600k kunnen evenaren. En met de instap gpu's vandaag de dag kom je een heel eind. Voor een euro of §550 heb je een vadsige upgrade waar je de komende jaren prima op 1080p mee vooruit kan.
Als je de kast, voeding ect al hebt, wat meestal het geval is.
Wat een onzin. Die prijzen van CPU's zijn al meer dan 20 jaar hetzelfde. Voor de snelste betaal je veel geld, punt.
Er zullen altijd duurdere modellen zijn van cpus en gpus. Ook zijn de 500§ cpus niet bedoelt voor games maar voor video editing.
Gamen, virtualisatie, multi tasken, bestanden multi-threaded inpakken & video editing/encodering/converteren etc. :+
Edit: Livestreams opzetten op dezelfde PC, ligt wel aan de instellingen.

[Reactie gewijzigd door CriticalHit_NL op 22 februari 2017 21:04]

Dat is niet nieuw hoor, de intel extreme reeks was altijd al erg duur, voor een pentium 4 extreme moest je in 2003 ook al rond de 1000 euro neertellen.
Prijskaartje is het probleem niet zo voor mij, want ik doe toch jaren met zo'n kaart, maar inderdaad eerst even afwachten hoe de Vega gaat presteren. Hopelijk zeer goed, want het aanbod aan Freesync monitors is een stuk ruimer dan dat van G-sync monitors en ik ben tevens toe aan een nieuwe monitor :Y)
Tjaa dan heb ik net weer het probleem dat ik hier nog een scherm heb staan met G-sync, dus vraag me af of ik die nu zal verkopen of niet? :?

EDIT: Geen idee hoe bijvoorbeeld Vega met een G-sync scherm omgaat...

[Reactie gewijzigd door HWSHHZ op 22 februari 2017 19:11]

Merk je niet veel van, je hebt dan gewoon voor niks de extra kosten voor gsync module betaald.
Je zou me dus niet aanraden om een Free-sync scherm te kopen?
Linus heeft een jaar geleden het verschil tussen g-sync en free-sync wat betreft imput lag "onderzocht"

https://www.youtube.com/watch?v=MzHxhjcE0eQ

Het verschil zat hem voornamenlijk in vsync aan of uit en dan nog was het volgens mij game afhankelijk.
inputlag is alleen niet waar het om gaat bij beide technieken. Als een monitor een bepaalde techniek herbergt, dan is het natuurlijk wel zo fijn als je daar gebruik van kunt maken.
Ik ging er van uit dat je een gsync monitor had, vandaar dat ik zei dat het niet veel uit maakt. Omdat de gsync module dan gewoon niet in gebruik is. Anders zou ik wel een freesync monitor aanraden omdat de kosten daarvan niet veel hoger zijn vergeleken met een monitor zonder. Volgens mij is het vooral beter als de 'magische' 60 fps van de monitor niet gehaald wordt. Of de 120 bij zulke monitor. Het ligt er dus maar net aan op welke resolutie of framerate je wil gamen.
Ik heb inderdaad ook een G-sync monitor, vandaar ook mijn vraag wat dat bijvoorbeeld uit zou maken als ik een Vega kaart koop.

Dan lijkt het mij beter om even Vega af te wachten, en als ik besluit een Vega kaart te kopen toch maar mijn G-sync scherm te verkopen en een Free-sync monitor te halen...

Of ik moet jouw reactie verkeerd begrijpen?
Nee dat klopt, anders zit je met een nutteloze module waar je toch behoorlijk wat extra voor hebt betaald.

Edit: ik heb zelf overigens geen freesync of gsync, maar aangezien je nu al een gsync monitor hebt ga ik er van uit dat je graag zulke functie gebruikt dus dan is tegen die tijd de verkoop van de oude en koop van een nieuwe met freesync de beste keuze.

[Reactie gewijzigd door svenie3000 op 23 februari 2017 08:00]

Dank, dan binnenkort m'n monitor maar bij V&A aanbieden ;)
Tel daar gerust nog maar wat bij op als dat de MSRP prijs wordt. De huidige NVIDIA line-up is totaal niet te krijgen voor de MSRP :(
§1000-1100 komt dichter in de buurt denk ik :P
Tenzij... Vega....@ Capsaicin...

[Reactie gewijzigd door _XipHiaS_ op 22 februari 2017 18:48]

Laat Vega inderdaad maar zo snel mogelijk komen, binnenkort de 1800X bestellen, en dan zsm Vega er achter aan, AMD build voor de eerste x! _/-\o_
vega zou in mei komen volgens de laatste geruchten.
Broncode? De website zelf heeft gewoon een countdown clock... :/ (www.geforce.com)
met daarin: It's almost "TI"me #ultimategeforce !!!

[Reactie gewijzigd door Stijn Weijters op 22 februari 2017 18:53]

Lees te tekst dan ook die onder de titel staat.
De teaser vermeldt niet wat de fabrikant dan gaat aankondigen, maar de naam van de video die in de broncode staat vermeldt duidelijk een GTX 1080 Ti
(ja ik heb mijn comment tegelijkertijd ge-edit... ik was nog niet klaar :P)
aah oke :P
Ik kan die hele site niet zien.. uBlocked + Privacy badger... :?
Het is een direct through screen en er staat alleen maar die clock (dus voor 4 uur s'ochtends 1 maart) op + wat ik in mijn previous comment edit had geschreven... :D
De broncode is een bevestiging op de TIME...
Toch is het wel goed dat er een snellere goedkopere high end kaart komt.
Het is maar net wat voor jou de definitie van "goedkoop" en "high-end" is. :+
Precies, ik zou persoonlijk dan gewoon direct voor de Titan X(p) gaan. Als ik voor mezelf toch al zo'n enorme uitgave in mijn hoofd verantwoord heb. Wil ik ook echt de top hebben.
Alleen is die zogoed als niet verkrijgbaar...
Probleem is, deze is enkel nu verkrijgbaar via Nvidia zelf & enkel met een koeler welke de kaart niet koel genoeg kan houden om de maximale boostclock te blijven hanteren, hierdoor gaat hij mogelijk minder presteren dan de uiteindelijke aftermarket 1080Ti kaarten, ondanks het gemis van enkele cuda cores en dergelijke.
Nou als je een rib uit je lijf uitgeeft aan een kaart. Kan een waterkoel loop er ook nog wel bij :p
Dat is het eigenlijk sowieso al tegenwoordig, vroeger kocht je zelfs de GTX295 dual GPU en andere high-end GPU's voor rond de §500,-.
Moet je wel waterkoeling willen overigens, want het vergt wel meer onderhoud en kennis, er kleven ook meer risico's aan.
"Goedkopere" = goedkoper dan Titan XP "High-end" = high-end... tja was wel te verwachten!
Wellicht ten overvloede, het gaat hier om de desktop variant. Nu hopen dat de prijs van de overige videokaarten zal zakken :)
Sja, zoiets zat ik me ook af te vragen, zal het uitbrengen van deze kaart de prijzen van de GTX1080 gunstig beinvloeden?

Ik heb geen idee hoe dat destijds met de 980Ti is gelopen.
Heb het vermoeden dat dit pas gebeurd als de concurrentie er een reden tot geeft, of de oude architectuur vaarwel wordt gezegd, in andere woorden, wordt niet meer gemaakt.
Want het blijven maken van oude devices kost meer geld dan het oplevert, ze zijn immers ook minder efficiŽnt.
"Het maken van oude devices kost meer geld dan het oplevert"? Welnee. De eerste chip maakt NVidia een miljard verlies op, en de tweede chip is winstgevend. Dat heb je met R&D kosten, en nieuwe fabrieken.

De belangrijkste reden dat je stop met oude devices is dat die devices concurreren met je nieuwe low-end devices. Hoe moet je de 980 prijzen t.o.v. de 1060?
Eh ja, maar het in stand houden van oude techniek gaat je op den duur meer kosten dan het je gaat opleveren, en zoals je zegt het gaat concurreren met je huidige line-up.
De nieuwere line-up zal dan een stuk meer verkocht gaan worden en beter ondersteund worden, anders krijg je een soort stilstand in de techniek.
En als je wel de oude producten blijft maken terwijl ze niet verkocht worden... dat zal een flinke kostenpost worden.
Ja, zo kan je het ook zien.

Ik wacht het nog maar af. Momenteel voldoet de GTX980 ook nog wel, maar het begint wel eens te kriebelen om over te stappen naar een 1080, alleen die prijzen weerhouden me er nog wel van...
Begrijpelijk, toen de 700 series EOL gingen was de prijs van m'n 780Ti ook naar beneden gegaan van rond de §630,- naar onder de §400,-, de winkels en toeleveranciers moeten hun oude spullen kwijt, en als er een nieuwe serie is gelanceerd koopt iedereen natuurlijk de producten uit die serie.
https://tweakers.net/pric...ce-gtx-780-ti-3gb-oc.html

Alleen of je nu een tweede 980 erbij moet prikken weet ik niet, als je GTX980 nog voldoet zou ik zeggen zing het nog even uit tot begin 2018 voor Volta.
Want als je het zou doen voor de extra performance is het denk ik het eigenlijk niet waard.

De 1080Ti zal waarschijnlijk in de aftermarket versies sneller zijn dan de Titan XP, de Titan XP is zelf al sneller dan GTX980 SLI op 1440P/4K Ultra en zelfs 4K Medium, en vergeet het VRAM niet.
https://nl.hardware.info/...o-gpu-prestatiescore-2016

Je zal dan ook maar het geluk moeten hebben dat Multi-GPU ondersteund wordt, goed werkt zonder bugs of problematische framepacing en de scaling. (ook CPU afhankelijk)

[Reactie gewijzigd door CriticalHit_NL op 22 februari 2017 19:54]

SLI is voor mij niet zo interessant, oculus rift hierzo.
Ah ik liet mij een beetje gaan op het GTX980 vlak, maar inderdaad voordat die prijs van de GTX1080 echt ver omlaag gaat ben je denk ik wel een jaar verder of na de lancering van Vega.
Ah, bedankt voor je reactie!
Als het goed is gaan de huidige 1000 serie dan ook in prijs zakken als deze 1080 TI uit komt?
Zo denk ik ook een beetje, maar ik heb mezelf nooit echt verdiept in de prijzen van videokaarten wanneer nieuwe videokaarten verschijnen. Ik vraag me ook af of Vega invloed kan hebben op de prijzen van de 1000 serie.

Edit: In de broncode staat GTX1080Ti niet meer vermeld. Dit is nu "http://www.nvidia.com/content/events/gdc-2017/Countdown__Hero_1920x1080_h264_2mbps.mp4"

[Reactie gewijzigd door PSPfreaky op 22 februari 2017 23:46]

Waar staat ti eigenlijk voor?
Dit staat voor Titanium, het scheikundige symbool voor Titanium is 'Ti'.
Nvidia gebruikte deze vroeger al in de Geforce 2/3/4 serie GPU's om een soort van GPU 'klassement' aan te geven, zoals je dit hebt met de GT/GTS/GTX GPU's.
https://en.wikipedia.org/...graphics_processing_units
Mocht eens tijd worden Nvidia! De mooie opvolger van mijn oude 980Ti. Ik ga ervan uit dat het bedrag rond de 1000 euro is wat ik ook opzij heb liggen ervoor. Bring it on Nvidia :9
what about AMD? of wil je die niet? Vega zou iets prachtigs moeten brengen (RX 5xx) geruchten zeggen goede dingen (maarja zijn geruchten... :/)
Hoewel de kaarten van AMD prima zijn laten ze je wel een beetje in een leegte vallen mbt physx (niet extreem belangrijk, maar toch wel mooi als het in een game zit) en 3d ondersteuning (voor mij wel een dealbreaker). Hoewel je voor AMD kaarten met externe tooltjes ook wel 3d kan gamen is het toch... tsja.. allemaal wat minder gepolished, en ben je afhankelijk van een externe partij om te zorgen dat je je spellen in 3d kan spelen.
Je levert dus wel wat functionaliteit in, en dat is ook iets om rekening mee te houden.

[Reactie gewijzigd door VNA9216 op 22 februari 2017 20:05]

Precies die 2 redenen heb ik ook om bij Nvidia te blijven. Dat en de drivers die bij mijn laatste Ati(3870)hotfix na hotfix leken te zijn. Wel jammer dat AMD nooit echt goed aangehaakt is qua 3D want Nvidia kan wel wat concurrentie gebruiken.
Ik zou hoe dan ook graag wat meer actie van zowel 3dkaart fabrikanten als game ontwikkelaars zien. Ik had de hoop dat dat met VR ook wel beter zou worden, maar tot dusver schiet dat ook nog niet echt op.

Om me heen zijn er wat echte AMD fans die me continu aan lopen te praten dat ik AMD kaarten zou moeten kopen omdat die beter en goedkoper zijn, maar dat ik dan gewoon functionaliteit mis kan ik ze met geen mogelijkheid aan het verstand brengen. En van die tools als tridef 3d kan je met AMD kaarten wel gebruiken, maar het feit dat je dan iedere keer als je een "steam titel" start steam weer opnieuw op hebt starten, en regelmatig gewoon hebt dat na een driver update of een spel update het spel niet meer start enzo
Dus ik betaal dan wel iets meer, puur voor de extra service (Overigens vind ik het wel jammer dat Nvidia 3d TV play niet gratis aanbied)
Geruchten zijn zoals je zei niet betrouwbaar. De beste aanpak is altijd wachten op concurrentie en het product kiezen dat de beste price/performance heeft.
Verbaasd me niets dat ze voor GDC 2017 in de broncode een teaser hebben van wat ze gaan aankondigen.
Ben ook wel benieuwd wat deze kaart in petto heeft.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*