Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 239 reacties
Submitter: kevinwalter

Nvidia heeft tijdens een eigen evenement op de Game Developer Conference de GeForce GTX 1080 Ti aangekondigd. De videokaart is net als de Titan X gebaseerd op de GP102-gpu, maar heeft hogere kloksnelheden en 1GB minder vram. De adviesprijs van de GTX 1080 gaat omlaag.

De specificaties van de GTX 1080 Ti zijn grotendeels gelijk aan die van de GeForce Titan X. De videokaart is gebaseerd op de GP102-gpu, heeft 3584 cudacores en een tdp van 250 watt. De basiskloksnelheid van de gpu heeft Nvidia niet bekendgemaakt, maar de boostsnelheid is 1582MHz op de door Nvidia gemaakte Founders Edition. Dat is zo'n 51MHz hoger dan die van de Titan X. Mogelijk brengen andere fabrikanten 1080 Ti-kaarten uit met een hogere kloksnelheid. Nvidia demonstreerde tijdens zijn presentatie dat de gpu tot 2GHz overgeklokt kan worden.

Ook het geheugen van de GTX 1080 Ti is sneller dan dat van de Titan X. Het heeft een doorvoersnelheid van 11Gbit/s, ten opzichte van 10Gbit/s bij de Titan X en de GTX 1080. De geheugengrootte is met 11GB echter iets kleiner. Ook heeft de GeForce GTX 1080 Ti iets minder render output units, dat zijn er 88 in plaats van de volledige 96. Op papier is de nieuwe GTX 1080 Ti vanwege de hogere kloksnelheden van de gpu en het geheugen sneller dan de GeForce Titan X die in augustus werd uitgebracht voor ruim 1300 euro.

Nvidia GeForce GTX 1080 TiNvidia GeForce GTX 1080 TiNvidia GeForce GTX 1080 TiNvidia GeForce GTX 1080 TiNvidia GeForce GTX 1080 Ti

Nvidia voorziet de Founders Edition van de GTX 1080 Ti van eenzelfde koeler als het op de GTX 1080 en 1070 gebruikt. Er is echter een aanpassing gemaakt om meer lucht af te kunnen voeren aan de achterkant: de dvi-aansluiting is weggelaten. Er blijven nog drie displayport 1.4-aansluitingen en een hdmi 2.0-poort over.

Volgens Nvidia is de GTX 1080 Ti vanaf eind volgende week wereldwijd leverbaar. In de VS krijgt het topmodel een adviesprijs vanaf 699 dollar. Omgerekend inclusief btw is dat ongeveer 800 euro. Een officiële europrijs heeft Nvidia niet bekendgemaakt. Wel heeft de fabrikant te kennen gegeven dat er geen prijsverschil meer zal zijn tussen de Founders Edition en de varianten die andere fabrikanten maken. Bij de GTX 1080, 1070 en 1060 had de door Nvidia gemaakte Founders Edition een meerprijs.

  GTX 1080 Ti Titan X GTX 1080 GTX 980 Ti
Gpu GP102 GP102 GP104 GM200
Cudacores 3584 3584 2560 2816
Texture units
224 224 160 176
ROPs 88 96 64 96
Kloksnelheid Nnb 1417MHz 1607MHz 1000MHz
Boostsnelheid 1582MHz 1531MHz 1733MHz 1075MHz
Geheugensnelheid 11Gbit/s 10Gbit/s 10Gbit/s 7Gbit/s
Geheugenbus 352bit 384bit 256bit 384bit
Vram 11GB gddr5x 12GB gddr5x 8GB gddr5x 6GB gddr5
Tdp 250W 250W 180W 250W
Introductieprijs $699 $1200 $599 / $699 $649

Tegelijkertijd met de introductie van de GTX 1080 Ti heeft Nvidia bekendgemaakt dat de prijs van de GTX 1080 met honderd dollar omlaag gaat. De adviesprijs is nu 499 in plaats van 599 dollar. Het gaat om de adviesprijs van de goedkoopste varianten die andere fabrikanten maken. Op het moment van schrijven staan de goedkoopste GTX 1080-kaarten in de Pricewatch voor prijzen vanaf ongeveer 625 euro. Vermoedelijk daalt dat de komende tijd. Mogelijk daalt daardoor ook de prijs van de GTX 1070, al heeft Nvidia die kaart geen officiële prijsverlaging gegeven.

Ook heeft Nvidia bekendgemaakt dat er nieuwe varianten van de GTX 1080 en GTX 1060 op de markt zullen komen met sneller geheugen. De GTX 1080 zal komen met gddr5x op 11Gbit/s en bij de GTX 1060 is dat gddr5 op 9Gbit/s. In beide gevallen is dat 1Gbit/s hoger dan de geheugensnelheid van de originele modellen. Op de doos van de videokaarten zal aangegeven staan dat ze sneller geheugen hebben. Wat deze kaarten met sneller geheugen gaan kosten is niet bekend.

GTX 1080 met 11Gbit/s

Moderatie-faq Wijzig weergave

Reacties (239)

Misschien ook leuk om er bij te zetten:
Peak Compute:
-1080ti: 11.4 TFLOPS
-Titan X: 11.0 TFLOPS
-1080: 8.2 TFLOPS
1080Ti: Gimpy drivers voor compute zodat het niet in Quadro/Titan X vaarwater komt.

http://www.anandtech.com/...founders-edition-review/5

[Reactie gewijzigd door BieBiepGTR op 1 maart 2017 09:22]

In dat artikel zeggen ze dat het juist in hardware beperkt wordt.

"However I have to admit that I am surprised that NVIDIA limited it in hardware on GP104 in this fashion"

Of heeft de grotere gp102 de fp16 hardware wel?
Het punt was dat niemand deze chips koopt voor de FLOPS
de x80 ti's zijn populair als pro gpu alternatief bij content creation; 3d renderen, effects, graden etc. Daar is gebrek aan fp16 niet boeiend.
Met een OC Titan X haal je 14 TFLOPS.
Ook geheugen gemakkelijk te draaien op 11 GHz.
Draait normaal zonder problemen ~2Ghz.
Kan iemand mij uitleggen waarom er gekozen is voor 11GB vram? hoe kom je uberhaupt tot 11GB? :?
De chip is dezelfde als op de gtx Titan X (pascal) is gebruikt, namelijk, de gp102. Echter is grofweg 1/12e van de chip uitgeschakeld. Merk immers ook de afname in ROPs op ten opzichte van de Titan X. Hierdoor blijft dus 11 van de originele 12GB vram over.
Door een klein deel van de chip niet te gebruiken, is de productie meestal veel goedkoper, omdat "beschadigde" chips alsnog kunnen worden gebruikt, aangezien niet alle onderdelen nodig zijn om aan de specificaties te voldoen. Dit wordt wel vaker gebruikt om een afgeslankte versie van een kaart uit te brengen, zoals recent ook nog met de gtx 1070 vs gtx 1080. Echter wordt niet altijd een deel van een vram uitgeschakeld (zoals bij de gtx1070). Bij de gtx 970 (afgeslankte gtx 980 dacht ik?) was dit wel zo handig geweest... Die kaart zit nu met 0.5GB traag vram ipv alleen 3.5GB snel vram.
Edit: het heeft dus waarschijnlijk te maken met het feit dat ze de memory controller ook moeten afslanken en het voorkomen van nog een fiasco als bij de gtx970.

[Reactie gewijzigd door Illusfyi op 1 maart 2017 13:29]

Door 1 van de 12 geheugen chips uit te schakelen
Dat ie minder RAM dan de Titan heeft?
Nee helemaal niet. Dit zorgt er voor dat je verschillende producten in verschillende prijs klassen kan verkopen. Zo is een i5 7600k gewoon een mislukt i7 7700k AMD doet het zelfde met hun Ryzen 7 serie. En ook op GPU gebied doen ze het.(r9 290x kapot maken om het als een r9 290 te verkopen).

Of ga je nu ook Intel en AMD oer dom noemen. Als dat het geval is wenst je het beste in de strijd tegen de titanen op de CPU/GPU markt. Het moet immers niet moeilijk zijn om tegen oer domme bedrijven te strijden.

[Reactie gewijzigd door loki504 op 2 maart 2017 09:04]

Normaal zie je toch dat ze een deel van de chip uitschakelen? maar in dit geval dus de geheugenbus/chip? Is dat om dezelfde redenen?

Ik ken namelijk het fenomeen met de chip zelf, maar het gaat nu om het geheugen...

[Reactie gewijzigd door hoi3344 op 2 maart 2017 09:28]

Ja hoor. Gaat net zo makkelijk. Of denk je dat de rx 480 4Gb en 8GB verschillende processen zijn.

http://www.gamersnexus.ne...480-vbios-from-4gb-to-8gb

En dit gebeurt er als je ze softwarematig lockt en niet echt kapot maakt.

[Reactie gewijzigd door loki504 op 2 maart 2017 11:48]

dit was alleen bij de referencekaarten, waarvan ik verwacht dat het door tijdsdruk is onstaan. ik denk dat het makkelijker/goedkoper was om het maar zo op te lossen, wat natuurlijk ook wel vreemd is. je koopt een 4gb kaart en krijgt een 8gb kaart.
De prijs valt me voor een Ti-model eigenlijk nog mee ook, had hoger verwacht namelijk. Ik ben benieuwd wat het prestatie verschil gaat zijn tussen de Titan X en de 'gewone' GTX 1080. :)
De ti is sneller dan de titan x, zoals hierboven al een paar keer is aangehaald en onderbouwd.
Dat vraag ik me sterk af.

Bij de Fury X, ook een kaart die 'over engineered' was op het VRAM front, zagen we dat de bottleneck bij de ROPs kwam te liggen. Deze 1080ti heeft ook een afgeknepen ROP aantal icm een brede bus en snel VRAM. Combineer dat met een lagere base/boost clock als de 1080 (die vrijwel net zoveel bandbreedte heeft en zker tot 2 Ghz komt) en ik denk dat de balans nog weleens minder goed zou kunnen zijn dan we van een x80 TI gewend zijn geweest.

Sowieso doen 11 GB VRAM en dus een asymmetrische VRAM setup bij mij alle alarmbellen rinkelen - dit zijn niet de GPUs die het langst relevant blijven, terwijl dat wel bij een x80ti hoort - de 980ti is bijvoorbeeld nog steeds heel interessant, en zelfs een 780ti komt goed mee dwz wordt niet gebottleneckt op n specifiek onderdeel.

Ik denk dus vooral dat het meest nieuwswaardige aan dit bericht eigenlijk de prijsdaling van de 1080 is, want dat is wl een heel mooi gebalanceerde GPU met een volledige GP104, netjes aangesloten op een symmetrische bus en met meer dan voldoende bandbreedte dankzij gddr5x. Een 1080 haalt maximaal profijt uit de hoge Pascal boost clocks en dus ook uit zijn overklok. Bij de 1080ti kan dat weleens vies gaan tegenvallen.

[Reactie gewijzigd door Vayra op 1 maart 2017 12:33]

De baseclock snelheden zijn niet bekend gemaakt. We weten dus niet of die lager gaat zijn. De boostsnelheid is wel lager tov de GTX 1080, maar dat hoeft niet te betekenen dat het minder goed gaat presteren, of dat de baseclock dan ook lager gaat zijn (en de boost dus kleiner is). Daarom is het ook afwachten wat reviews gaan vertellen over deze GPU.

Aan de andere kant; mocht de GTX 1080Ti wel beter presteren tegenover de GTX 1080, dan is dat op zich best wel knap, als de snelheden daadwerkelijk lager komen te liggen bij de Ti tov de "normale" versie.

[Reactie gewijzigd door CH40S op 1 maart 2017 12:39]

wat is er mis met een asymetrische bus?
Lijkt me dat een asymetrische bus van 352 een sprong voor heeft op een symetrische van 256.
Bij de Fury X, ook een kaart die 'over engineered' was op het VRAM front, zagen we dat de bottleneck bij de ROPs kwam te liggen. Deze 1080ti heeft ook een afgeknepen ROP aantal icm een brede bus en snel VRAM. Combineer dat met een lagere base/boost clock als de 1080 (die vrijwel net zoveel bandbreedte heeft en zker tot 2 Ghz komt) en ik denk dat de balans nog weleens minder goed zou kunnen zijn dan we van een x80 TI gewend zijn geweest.
Ik denk dat het reuze mee gaat vallen, immers zijn alle Cuda cores/TMU's ingeschakeld gebleven, vallen de ontbrekende ROPs mee en gaat de geheugen klok omhoog, nog altijd een klap meer dan de 1080.

Daarbij zijn GPU's juist bij stek het type apparaat dat goed gebruik maakt van veel cores en de belasting hierover verdelen, een lagere kloksnelheid wilt niet zeggen dat ze dan ook een stuk slechter presteren dan een model eronder geplaatst met meer kloksnelheid.
De GTX980Ti had minder Cuda cores en TMU's maar toch presteerde deze kaart soms de Titan X voorbij te gaan.

Overigens heeft Nvidia zelf ook beloofd dat deze tot de 2Ghz te overklokken zijn, dit was ook tijdens de presentatie getoond.
Dit kan altijd meer of minder zijn maar je zult hierdoor wel een stuk meer kracht eruit persen versus een 2Ghz GTX1080.
en zelfs een 780ti komt goed mee dwz wordt niet gebottleneckt op n specifiek onderdeel.
Juist wel, en dat is zijn gelimiteerde frame buffer van 3GB, en daar kom je tegenwoordig al heel snel aan, kleine voorbeelden:
https://cdn.videocardz.co...080-Ti-presentation-7.jpg

Mirror's Edge Catalyst bijvoorbeeld kan al meer dan 7GB VRAM verbruiken met de Hyper instelling op 1080P.

http://www.gamersnexus.ne...chmark-gtx-1080-1070-390x
Mirror's Edge Catalyst – VRAM Consumption
We haven't spent too much time fully validating system RAM and CPU consumption, but had a chance to look at VRAM utilization during our test passes. In just the few minutes tested on each configuration, 1080p / Hyper seems to be nearly maxing-out the GTX 1080 (7455MB consumed). 4K / High had us sitting at 6615MB, with 1080p / Ultra resting more easily at 5020MB.
En dat is ook precies een van de grote bottlenecks van de Fury X welke zelfs sneller is dan de 780Ti.
Je kan beter teveel framebuffer hebben dan te weinig, anders krijg je framepacing problemen door het swappen van geheugen, ook al zit je nog net onder het limiet, er worden constant dingen in het geheugen aangepast.
Dan maakt het ook totaal niet uit of je nu super-snel VRAM hebt of niet, op het moment dat je moet gaan swappen zijn de rapen gaar, dan ben je overgeleverd aan andere overdracht snelheden van informatie in het systeem.
Ik heb dat inderdaad ook gelezen, vraag is echter met hoeveel het sneller is, dat is wat ik bedoel met het verschil. ;) Een verschil hoeft natuurlijk niet per se negatief te zijn.

[Reactie gewijzigd door CH40S op 1 maart 2017 10:39]

Ik las hierboven ergens 10%
Maar geen 34% sneller....
Ja en hij loopt nog op langzamere klok frequentie.
Het is goed dat deze kaart uitkomt het is weer een topsegment wat nvidia hier weer laat zien, het is tevens gunstiger voor de consumenten de 1080 gaat goedkoper over de toonbank.
ik blijf dit toch echt absurde bedragen vinden voor een graka 8)7
Je bent ook niet verplicht om een dergelijke kaart te kopen. Zolang er mensen zijn die het kopen, zal er een markt zijn en is het blijkbaar gerechtvaardigd om dergelijke bedragen te vragen, anders werden de prijzen niet betaald door de klanten. Overigens zijn de Titan kaarten altijd nog een stukje duurder dan de Ti-modellen. An sich is er dus niets nieuws onder de zon qua prijzen.

Dit zijn kaarten (Titan en Ti-modellen) voor die-hard gamers. Dat is momenteel echt een gigantische business, als je ziet wat men ook durft te vragen voor die-hard gaming moederborden (vaak prijzen tussen de 400-600 euro intussen en soms zelfs nog meer, zie bijvoorbeeld pricewatch: Gigabyte Aorus GA-Z270X-Gaming 9). Ook liggen de winstmarges veel hoger dan bij normale moederborden, waar je in feite hetzelfde mee kan.

[Reactie gewijzigd door CH40S op 1 maart 2017 08:44]

Dit zijn kaarten (Titan en Ti-modellen) voor die-hard gamers.
En machine learning. Misschien geen gigantische markt, maar als je Nvidia's inspanningen in die richting ziet (https://developer.nvidia.com/deep-learning), toch ook geen niche meer.
Pascal drivers voor consumententkaarten doen iets raars met hun compute, enkel de Titan X en de workstation kaarten doen het hier "normaal'


http://www.anandtech.com/...founders-edition-review/5
Correctie: dat geldt alleen voor de originele Titan.

GM200 was al flink geknepen op FP64. GP102 (Titan XP en deze 1080 Ti dus) hebben daarnaast ook nauwelijks FP16 capaciteiten. Titan XP en GP102 zijn geen "compute" kaarten. Als je FP16 of FP64 met een non-pro videokaart (non-Quadro/Tesla/FirePro) wil doen kun je beter voor GK110 (originele Titan) of een oudere AMD kaart gaan (Cypress/58xx - Tahiti/79xx). AMD had toen gewoon degelijke FP64 performance. FP16 kun je dan het beste voor Polaris (RX 4xx) gaan omdat die FP16 op 2xFP32 snelheid kan doen.

Eenieder die tegenwoordig claimt dat ze Titan XM/XP of bijbehorende Ti's voor "compute" redenen aanschaffen liegt glashard, want dat kan helemaal niet. Als je het over "compute" hebt wil je bijna zeker ook FP64 en/of FP16 en dat krijg je al jaren niet meer van Nvidia.
kwestie van definitie, imho valt bijv 3d renderen ook onder compute. dat is fp32 werk en daar zijn de gtx'n dus wel prima.
'Iets raars' is misschien veel gezegd. Op de high-end compute kaarten wordt FP16 (half precision floating point), wat eigenlijk vooral/alleen voor machine learning wordt gebruikt, door de hardware op een efficinte manier afgehandeld (dubbele snelheid van de 'gewone' FP32). Op de consumentenkaarten lijkt die unit niet aanwezig (of uitgeschakeld), waardoor FP16 trager is dan FP32. Je kan uiteraard alles in FP32 doen, maar dan is je geheugenvereiste ook dubbel zo groot.

Dat lijkt mij een bewuste marketingstrategie van Nvidia. Je kan op die consumentenkaarten alles (CUDA en aanverwanten zijn op alle kaarten ondersteund), dus je kan beginnen met een minimaal budget, maar voor 'the full monty' ga je toch hun duurste kaarten moeten aanschaffen.
GP100 gebruikt mixed-precision SP's; kunnen 1xFP32 of 2xFP16 doen. GP102 en lager hebben pure FP32 units met daarnaast 1 2xFP16 unit per cluster. Het is dus niet zo dat die units "uitgeschakeld" zijn, ze zijn er gewoon niet ;)
Volgens jouw link heeft dat te maken met de gebruikte GPU en niet de drivers. De 1080Ti gebruikt dezelfde GP102 als de Titan X. En halve precisie is zowat alleen bruikbaar in de KI, enkele precisie heeft meer toepassingen en daar lees ik niets raars over in je link.
Het zal best ook prima werken voor andere doelgroepen, maar primair zijn de Titan- en Ti-serie GPU's bedoeld voor gamers. Dat ze ook interessant zijn voor andere zaken is mooi meegenomen voor nVidia. Al kan ik mij voorstellen dat je voor dergelijke zaken specialistischere hardware wilt.
Zie Werelds in 'nieuws: Nvidia brengt GTX 1080 Ti volgende week uit en maakt GTX ...

Dit klopt dus niet. Deep Learning wil vooral FP16 en dat loopt op deze dingen voor geen meter.
"Gigantische business"
Neen, HPC is een gigantische business. High-End gaming is absoluut niets daartegen.

Hell, AMD heeft met de RX480 bewezen dat midrange gaming net hetgene is waar je omzet en winst gaat draaien. De grotere chips zijn er maar voor de marketing, nVidia verkoopt ze ook liever als Tesla of Quadro hoor.
Is AMD al uit de rode cijfers dan? Omzet geloof ik best, maar marges uit high-end producten zorgen uiteindelijk voor de winst. Zoals je zelf zegt verkopen ze veel liever producten voor de zakelijke markt.

[Reactie gewijzigd door Koeitje op 1 maart 2017 09:19]

Een Nvidia Tesla P100 in HP mezzanine formaat kost tot 14.000EUR per stuk bij HP

Denk jij dat de marges bij de consumentenkaartjes liggen dan?
Nee, maar jij geeft aan dat midrange gaming het gouden ei is. De marges nemen exponentieel toe bij Nvidia, maar bij AMD verkopen ze liever midrange spul?
Ik gaf aan dat HPC het gouden ei is en dat mid-range gaming de cash-cow is.


High end gaming is puur marketing.
Zelfs pro-gaming draait rond midrange hardware.

[Reactie gewijzigd door BieBiepGTR op 1 maart 2017 09:24]

Hangt er vanaf wat jij onder pro Gaming verstaat. Ik zie daar de absolute top in. Mensen die mee doen aan toernooien en daar flink geld mee binnen harken. En die krijgen echt wel best of the best. Of denk je echt dat de top die gesponsord wordt door BV MSI een rx 480 krijgen? Verwacht eerder dat ze een gtx-1080 krijgen dan wel zelf een 1080 kopen. Die willen immers zo veel mogelijk FPS te hebben.
Pro gamers krijgen voor thuis high end hqrdware gesponsord

Pro gamers spelen op toernooien op mid-range systemen die daar gezet zijn door de organisatie zodat iedereen op eenzelfde gecontroleerd systeem werkt.
Dat is alleen nog niet in de cijfers van AMD terug te vinden.
AMD stock price bekeken vanaf 1 Januari 2016 tot 1 Januari 2017?
Ja en die groei is gebaseerd op de toekomst verwachtingen van cpu ryzen en de nieuwe vega gpu. Niet op de mogelijke marges bestaande producten.
HPC heeft hele grote winst marges maar ik denk dat je pc gaming onderschat,

Een duitse website geeft de sales weer van hun grafische kaarten.

RX480: http://www.mindfactory.de...deon+RX+Serie/RX+480.html

GTX1070: http://www.mindfactory.de...fuer+Gaming/GTX+1070.html

Zo goed doet amd het niet hoor.
en hoe eerlijk zijn zij? Volgens steam survey had in september vorige jaar niemand een rx 480..
http://store.steampowered.com/hwsurvey/videocard/

Lijkt mij niet helemaal kloppend.
Je snapt hopelijk wel dat als een datacenter GPU's koopt zez ongeveer 10x meer per GPU betalen en ongeveer evenveel GPU's opkopen in een keer als Mindfactory er per half jaar verkoopt?
Zekers begrijp ik dat maar hoeveel data centers cq super computers worden er nu jaarlijks gebouwd en geupgrade?
Dit zijn de verkopen van 1 web shop, als die al zoveel miljoen omzet heeft op bv de 1070 wat is dat dan wereldwijd?
HPC stelt totaal andere eisen aan de GPU dan dat games dat doen, waar kaarten zoals de GTX- en RX-serie voor bedoeld zijn. HPC is echt een totaal andere tak van sport, je vergelijkt appels met peren.

Feit blijft wel dat gaming booming is op het moment en dat daar grote winstmarges op zitten, omdat consumenten (die sowieso niets met HPC doen) bereid zijn astronomische bedragen ervoor te betalen. Dat is mijn punt.
Het is dezelfde chip en productiecapaciteit moeten ze delen.


Je snapt hopelijk wel dat consumentenvolume in high-end gaming een pak lager ligt dan de high-end aankopen door datacenters?

[Reactie gewijzigd door BieBiepGTR op 1 maart 2017 10:44]

Ik ben geen diehard gamer (Ik game maar gemiddeld zo een 6 uur per week), maar heb wel een goede baan. Ik vind het heerlijk een super PC te hebben, dus koop ik al die nieuwe kaarten zonder aarzeling.
Hier ben ik het niet mee eens, als je kijkt naar de rekenkracht en deze afzet tegenover andere kaarten. Als je puur naar de kaart an sich kijkt, vergeet dan niet mee te rekenen dat de Euro gigantisch in waarde is gezakt (QE).

In 2013 kwam de Titan uit, deze had een adviesprijs van 999 dollar. De hierop gebaseerde GTX780Ti kwam later dat jaar uit voor 699 dollar.

In dollars gerekend is de adviesprijs behoorlijk gelijk gebleven voor het x80 Ti model. Helaas in euro's omhooggegaan:
780Ti $699 (2013) = 630 (incl btw)
980Ti $650 (2015) = 710 (incl btw)
1080Ti $699 (2017) = 800 (incl btw)
En wat veranderd dat aan absurde bedragen? Ferrari's worden toch ook voor absurde bedragen verkocht? Of ben je het daar ook niet mee eens.
Vergelijking met auto's gaat niet op.

Deze Ti heeft 40% meer rekenkernen. De prijs van $699 is iets meer dan 16% hoger dan oude GTX1080 adviesprijs. Relatief betere prijs-prestatie verhouding.

Gecorrigeerde GTX1080 prijs (naar $499) brengt de nieuwe Ti prijs naar exact 40% duurder.

Voeg hieraan toe meer VRAM en de hogere bitbusbreedte (352bit ipv 256bit).

Kortom: je betaalt meer maar het is in verhouding ook een drastische toename. Dat maakt de prijs niet absurd, het is allemaal prima in verhouding naar performance over de Nvidia lijn. De ongunstigste prijs-prestatie verhouding in game-performance termen is de Titan X (pascal) met adviesprijs van $1200.

[Reactie gewijzigd door steff85 op 1 maart 2017 11:12]

Mischien is dit wel de BESTE kaart ooit qua prijs/prestaties.
De prestaties voor (als het 700 euro wordt) zijn echt achterlijk debiel hoog!
Zelfs een 1070 is sick qua performance en de 1080ti doet even tot 2x hoger! Hopakee alsof het niets is

Zelfs de Geforce 8800 Ultra is een grap vergeleken de 1080TI. Even doen alsof het 2007 is en 2017 tegelijkertijd

[Reactie gewijzigd door A87 op 1 maart 2017 15:52]

Waarom zou de vergelijking met auto's niet op gaan? De gemiddelde (normale) auto* heeft 4 cilinders, waar een sportwagen als een Ferrari in elk geval op zijn minst het dubbele heeft.

Voeg hier aan toe, dat de Ferrari motoren hogere toeren draaien kan en de versnellingsbak meer versnellingen heeft (7 of 8 ipv 5 of 6, achteruit niet meegerekend). ;)

De vergelijk met auto's gaat dus prima op.

* Hiermee bedoel ik de modale auto's die rijden op benzine danwel diesel.
Kortom: je betaalt meer maar het is in verhouding ook een drastische toename. Dat maakt de prijs niet absurd, het is allemaal prima in verhouding naar performance over de Nvidia lijn.
En hoezo geldt dit voor een sportauto tegenover een modale auto niet dan? :?

[Reactie gewijzigd door CH40S op 1 maart 2017 13:45]

Gpu kent een vrij lineaire schaling, auto's afnemende meeropbrengst.
Tja, ook een GPU zal vroeg of laat aan zijn max zitten. CPU's hebben immers ook steeds meer moeite met de Wet van Moore.
Volgens mij schaalt de fun-factor bij wagens meer dan lineair :)
De prijzen in USD is namelijk de prijs zonder belastingen, omdat dat per staat verschilt. Uiteindelijk zal het voor sommige staten dus niet veel goedkoper of duurder zijn dan de prijs die wij betalen, afhankelijk van de BTW-regeling in die staat.

[Reactie gewijzigd door CH40S op 1 maart 2017 13:08]

Dat is toch niet nieuw? Ik kan me nog herinneren dat ik een extra maandje maximaal lenen aan mijn studieschuld toevoegde om de allereerste GeForce 256 aan te schaffen. Die kostte in 1999 FL 750,-, wat gecorrigeerd voor vanalles net zo bizar was toen.

Dat neemt uiteraard niet weg dat de meeste gebruikers zo'n bedrag uitgeven voor een totaalsysteem (ik tegenwoordig ook). Als gamen op een PC je grootste hobby is en je investeert daar 750 per jaar in loop je echter niet heel erg uit de pas met bijvoorbeeld een hardloopfanaat die vier paar schoenen per jaar verslijt. Of om nog dichter bij mijn eigen hobby te blijven, voor het geld van een top-of-the-line grafische kaart koop ik geen gitaar (nou gaat een gitaar wel decennialang mee, maar toch wil je ook dan na 2 jaar weer een nieuwe ;)).
Een 8800 Ultra kostte in 2007 ook al 829 dollar. Zo raar zijn de prijzen dus niet.
tja, zelfs midrange is tegenwoordig net zo duur als 'vroeger' highend was...
Kepler was ook prijzig bij release, met een GTX 690 voor 1000 euro en een 680 voor meer dan 500 euro is het verschil al verklaard door de ongunstige euro/dollar koers.

En dus kocht iedereen de 670 destijds, net zoals nu veel mensen zijn blijven hangen bij de relatief gunstig geprijsde 980ti voor het moment van release, of een 970 bij de midrange. Het enige echte verschil is het prijspunt van de 1070, dat lange tijd gelijk lag met de (inmiddels lagere) prijs van de 980ti, en ook gelijkwaardig presteerde. Maar de 1070 is ook vl meer dan 30% sneller dan de 970.

[Reactie gewijzigd door Vayra op 1 maart 2017 12:11]

Ik denk dat je toch even de prijs historie van Ati & Nvidia kaarten moet opzoeken. Zelfs een VooDoo 2 kostte 12000 BEF omgerekend 300 euro en dat is 20 jaar geleden. M'n Ati 9800 Pro 499 dollar.. M'n AMD 4850X2 430 euro (de 4870x2 was 500+).. Nu kan je perfect gamen met een kaartje van 200-250 dollar.
Gelukkig zijn er genoeg goedkopere alternatieven.
Op dezelfde manier is 1 miljoen euro voor een sportwagen ook een belachelijk bedrag, als je voor 500,- ook een schrootbak kan rijden die je van A naar B brengt, en voor 5000,- een bijzonder nette occasion kan scoren.
Dat mag je vinden, maar vergelijk dan ook even de Dollarkoers van een aantal jaren geleden en die van nu, de dollarkoers op 11-01-2010 1,00 Euro was $1,4528, en nu is de Euro 1.05321 Dollar waard, daar zit nogal een gaatje tussen.
Is er nog iets meer bekend over hoe de verkopen gaat betreffende personen die eerder een 980Ti gekocht hebben? Die zouden toch voorrang met kopen van deze kaart oid krijgen?
En waarom zouden die voorrang/korting moeten krijgen?
https://nl.hardware.info/...dt-eind-maart-gelanceerdr

Onder andere onze buren op bovenstaande link, zie 2e zin.

EDIT: Het hoe en waarom weet ik niet, maar zie het toch echt staan in dat nieuwsbericht ;)

[Reactie gewijzigd door HWSHHZ op 1 maart 2017 11:23]

Zover ik weet, zouden die een kortingscode kunnen ontvangen (waarschijnlijk een cashback actie oid), naar mijn weten geen voorrang.
Dat zou wel mooi uitkomen voor mij, hopelijk daar binnenkort dan meer info over.

EDIT: Volgens Nvidia chat support is er geen dergelijke regeling oid, en zouden dat enkel geruchten zijn, die dus ontkracht worden. Zou natuurlijk ook kunnen dat ze niks kunnen/mogen zeggen...

[Reactie gewijzigd door HWSHHZ op 1 maart 2017 09:22]

Het is heel vaak gebleken dat mensen bij de klantenservice van wen bedrijf dingen gewoon niet weten.

Ik zeg niet dat die regeling wel bestaat maar kan zijn dat die persoon die je hebt gesproken gewoon het niet weet.
Dit is niet naar voren gekomen in de press release, maar hou de inschrijvingen op nVidia even in de gaten.
En zolang Ati geen weerstand kan bieden blijven die prijzen van Nvidia absurd hoog helaas :(
ATI?? uit welk jaar kom jij? dat is al heeeeel erg lang onderdeel van AMD, en heeft ook niet meer zijn eigen naam binnen AMD, dat is een aantal jaar na overname ook afgeschaft.
Haha uit 1984 :P Maar ja je hebt gelijk, het is AMD. Ik blijf het echter ATI noemen, en waarom omdat ik dat leuk vind.
Er zit inderdaad nog een ATI grafische kaard in de Macintosh computers van vandaag.

Wat is het heerlijk om mensen met dat soort oude namen op de kast te jagen.

iPhone! Macintosh mobiele telefoon. iPod! Apple mp3 speler. Macbook! Macintosh iBook?
Heerlijke namen!!!!

Ik mis de tijd van de TNT2!!! En raider! :D hahaha
AMD kaarten zijn ook gewoon ATI in mijn ogen.
Blijkbaar een jaren 80 ding.
Als je kijkt naar de bestanden in de graphics driver staat er ook gewoon atixxxx.dll. Het blijft dus gewoon ATI.

[Reactie gewijzigd door Fredi op 1 maart 2017 23:21]

Dus een titan X Pascal 0.8? Zonder grappen en dollen. Ik ben tevreden met mijn 1080 en de Ti zagen velen van ons aankomen. De founders edition mag overigens koeler draaien maar dat zegt niks over de aftermarket koelers van fabrikanten. Wel fijn dat ze zoiets hebben gedaan natuurlijk. Ik zelf zou een founders kopen als ik het geld en tijd had en dan een koelblok erop smijten die evga sowieso uit zal brengen. Ze verkopen nu bijvoorbeeld evga hybrid koelers die met elke founders compatible is (1080) en is zeker ook een 1070 model.
Nee een Titan X pascal 1.0, zo niet 1.0>
is er op dit moment een goedkope betrouwbare manier (converter) om displayport naar dual link dvi (voor 2560x1600) om te zetten?
Euh tijd om je 30" Apple display te vervangen denk ik :P

Maar ja, die is er, bij Apple zelf:

http://www.apple.com/nl/s...aar-dual-link-dvi-adapter

We hebben meerdere oplossingen geprobeerd, maar je komt sowieso terecht bij een dure adapter. De meeste goedkope adapters converteren naar "single-link" DVI wat resulteert tot IIRC max 1920x1200 resolutie.

Als je echt de Apple 30" Cinema Display hebt, kan het ook lonen je display te verkopen (mensen geven er nog veel geld voor want Apple) en gewoon een nieuw 27" 2560x1440 scherm te halen. Nieuwe schermen zijn sowieso zuiniger, wellicht wat beter met kleurtjes, enz.

[Reactie gewijzigd door Gamebuster op 1 maart 2017 09:12]

:) dell 30"

tijd voor een nieuwe idd..

[Reactie gewijzigd door maratropa op 1 maart 2017 11:49]

Volgens mij levert nVidia ook een Display Port naar DVI-D converter (Zie linustechtips video)
Wat niet betekend dat fabrikanten als MSI, Asus, Gigabyte e.d. dat ook gaan doen.
Snap wel, nVidia heeft de DVI Port weggehaald voor hun koeler's luchtstroom. MSI gebruikt een geheel andere soort koeler (Twin Frozr) en hoeft niet perse de DVI poort weg te laten.
Voordeel is dat de GTX 1080 en de 1060 nu ieder geval wat goedkoper worden. Al is de prijsverlaging bij de 1060 6gb nog niet bekend (250->200?). Als ie daar op uitkomt zou dat een mooie prijs/kwaliteit verhouding zijn.

Nu heb ik zelf al vorig jaar een GTX 1060 gekocht met de gedachte dat ik maar beter een 1060 ipv een 1080 kan hebben omdat de klap bij een prijsverlaging wat minder hard aan komt. Op dat moment 80 meer betalen komt wat minder hard aan dan 200.

[Reactie gewijzigd door CapTVK op 1 maart 2017 09:45]

Ik denk niet dat nVidia de prijs van de 1060 gaat verlagen. Die hebben ze al eerder en voor een lagere prijs moeten introduceren door de RX480 ;)
Ik vind het wel bagger dat de 1080 Ti net als de 1080 en 1070 weer duurder moet zijn dan de 9 generatie. Ik bedoel, the sky is the limit in Nvidias optiek. Is ook wel logisch als AMD (nog niet) met ze kan concurreren in de high-end. Maar toch, damn...
Als de cijfers die Nvidia gaf een beetje kloppen, levert deze xx80TI wel een stuk meer prestatiewinst op t.o.v. de xx80 daaronder in vergelijking met voorgaande series. (Nvidia gaf zelf aan: 780 vs 780ti +18%, 980 vs 980ti +25%, 1080 vs 1080ti +35%) en met de $50 hogere MSRP is hij nog geen 8% duurder dan de 980ti was bij introductie.

Natuurlijk blijft 800 veel geld... Hopelijk kan AMD nog iets aan de prijs veranderen.
Als de cijfers die Nvidia gaf een beetje kloppen, levert deze xx80TI wel een stuk meer prestatiewinst op t.o.v. de xx80 daaronder in vergelijking met voorgaande series.
Dat is het argument ja, maar jij en ik weten allebei dat Nvidia met zulk soort onzin weg kan komen omdat ze in het hogere segment weinig concurrentie hebben. Een prijsverhoging ben je alleen gedwongen om door te voeren als bedrijf als je verlies en/of investeringen zijn toegenomen. De prijsverhoging in dit geval is een kwestie van 'niet omdat het moet, maar omdat het kan'. Er is voor Nvidia op dit moment klip en klaar geen incentive om de waarde/ voor de klant te laten stijgen.
met de $50 hogere MSRP is hij nog geen 8% duurder dan de 980ti was bij introductie.
Percentages zijn relatief. Is ook niet relevant in mijn optiek om het te reduceren tot een percentage, want een bedrag van 50 blijft 50.
Eerst was het 500 voor beste GPU, maar al die kaarten hadden standaard vaak al problemen! Extreme hitte of prestaties die redelijk goed waren maar zeker niet van ''DAMN dit is wel heel ziek''

De GTX 480//580...680 etc waren niet van o o o dit is absurd snel. Nu kan je kiezen uit een bloedsnelle 1070 of zelfs nog flink sneller . Ik weet nog dat iedereen moe werd van de 7970 en480- 580 en 680 omdat er maar niets beters kwam en de kaarten snel tegen gingen vallen qua performance. 500 euro was toen ook een hoop geld voor zowel AMD als Nvidia. Tja nu betaal je 800 voor 1080ti maar je hebt dan wel iets speciaals!

[Reactie gewijzigd door A87 op 1 maart 2017 22:16]

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Samsung Galaxy S8+ LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One (Scorpio) Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*