Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 217 reacties
Submitter: Thekilldevilhil

Nvidia heeft de 'Nvidia Titan X' aangekondigd, een videokaart met de GP102-gpu die op de Pascal-architectuur gebaseerd is. De kaart verschijnt 2 augustus voor 1200 dollar en is dan de krachtigste videokaart in de line-up van Nvidia.

Nvidia heeft voor de Nvidia Titan X bij de GP102-gpu 3584 cudacores ingeschakeld, aanzienlijk meer dan de GP104 van de GTX 1080 en evenveel als bij de GP100 van de komende Tesla P100-accelerator.  De kloksnelheid van de kaart bedraagt 1417MHz met een boost naar maximaal 1531MHz.

De gpu communiceert via een 384 bits brede bus met 12GB gddr5x-geheugen. Daarmee is het na de GTX 1080 de tweede kaart die Nvidia met gddr5x, dat sneller is dan gddr5, uitrust. De interfaces van de kaart betreffen displayport 1.4, hdmi 2.0b en dl-dvi.

Met zijn adviesprijs van 1200 dollar is de kaart duurder dan vorige Titan-kaarten. De vorige kaart in de reeks, de GTX Titan X, bracht Nvidia voor 1000 dollar uit. Ook is de kaart 500 dollar duurder dan de GTX 1080 Founders Edition.

Nvidia bracht de eerste Titan in 2013 uit. De kaarten zijn bedoeld voor veeleisende gamers maar worden ook gebruikt voor workstations.

Nvidia Titan X

Specificaties Nvidia-videokaarten
  Nvidia Titan X GTX 1080 GTX Titan X GTX Titan
Cuda-cores 3584 2560 3072 2688
Tmu's 224? 160 192 224
Rop's 96? 64 96 48
Corekloksn. 1417MHz 1607MHz 1000MHz 837MHz
Boostkloksn. 1531MHz 1733MHz 1075MHz 876MHz
Tflops 11 tflops 9 tflops 6,6 tflops 4,7 tflops
Geh. kloksn. 10Gbps gddr5x 10Gbps gddr5x 7Gbps gddr5 6Gbps gddr5
Geh. bus 384-bit 256-bit 384-bit 384-bit
Geh. hoeveelheid 12GB 8GB 12GB 6GB
FP64 1/32? 1/32 1/32 1/3
Tdp 250W 180W 250W 250W
Gpu GP102 GP104 GM200 GK110
Transistors 12 miljard 7,2 miljard 8 miljard 7,1 miljard
Productieprocess TSMC 16nm TSMC 16nm TSMC 28nm TSMC 28nm
Introductiedatun 02/08/2016 27/05/2016 17/03/2015 21/02/2013
Adviesprijs (dollar) $1200 $599
(Founders $699)
$999 $999

Nvidia Titan X

Moderatie-faq Wijzig weergave

Reacties (217)

aks dit de topkaart is qua prestaties van nvidia, met welke amd-kaart kunnen die dan vergelijken? of is dat schier onmogelijk?
Amd zijn current lineup bied geen concurrentie tegen deze titan x. Volgend jaar brengt amd (opnieuw) een serie gpus uit. Tot die tijd heeft nvidia een open markt zonder enige concurrentie en kunnen ze elke prijs vragen die ze willen
AMD brengt eind dit jaar nog de RX490 uit, tegenover de 1080. Tot die tijd hebben ze de Radeon Pro Duo die, net als deze Titan, meer is gericht op ontwikkelaars en speciale workload, dan op gamers. Desalniettemin moet die kaart in theorie wel ongeveer gelijk presteren :P

Over het algemeen presteren Titan-kaarten sowieso niet bijzonder veel beter dan het topmodel uit de consumentenserie. Als je gewoon wil gamen doe je er verstandiger aan om 'gewoon' een GTX1080 te halen, of wellicht te wachten tot de 1080Ti.

[Reactie gewijzigd door Richh op 22 juli 2016 08:47]

Deze Titan X wordt zonder twijfel een heel pak sneller dan de GTX 1080 (eventjes een 1000-tal extra shaders maakt ook voor games een groot verschil!), net als de vorige Titan X een heel pak sneller was dan de GTX 980.

De kans is wel heel groot dat nVidia hetzelfde trucje terug uit de hoed tovert en binnen enkele maanden een GTX 1080 Ti aankondigt, gebaseerd op dezelfde GP102, die dan nagenoeg even snel is in games als deze Titan X en voor dezelfde prijs als de GTX 1080 nu.

In dat opzicht is de nieuwe Titan X inderdaad geen zinnige investering, maar het is wel sowieso de snelste kaart die beschikbaar zal zijn de komende tijd en hij zal sowieso een pak sneller zijn dan de GTX 1080. Vergeet niet dat die laatste eigenijk gebruik maakt van wat historisch gezien nVidia's mid-range chips waren, de Gxx04-reeks.
Ik vraag mij af of deze GP102 hardwarematige async compute heeft, anders mag AMD wel gaan uitkijken met Vega. Ook maakt nVidia gebruik van GDDR5X geheugen, Vega gaat HBM2 gebruiken. Hopelijk voor AMD is HBM2 in die tijd genoeg in prijs gedaald om een concurrerende kaart tov nVidia aan te bieden, anders gaan ze zichzelf weer in de voet schieten dat ze Vega niet verkocht krijgen door een te hoge prijs, zeg maar zoals de Fury(X).
De 1080 Ti zal wel alle shaders (3840) ingeschakeld hebben en hoger geklokt worden. Zeker ook vanwege de custom ontwerpen van partners van nVidia.
Meestal is juist de titan degene die alles heeft ingeschakeld, en heeft de ti minder cores.
Er zit niet echt een duidelijke lijn in de Titans. De 780ti bijvoorbeeld was weer de uitzondering op jouw regel en dat is pas kort geleden. Sinds Kepler is de Titan van alles verloren dat hem uniek maakte.

De enige duidelijke lijn in de Titan serie is dat ze allemaal zwaar overpriced zijn en blijven. Een halo product en je bent gek als je er geld in steekt tenzij je die zeldzame 1% bent met een use case ervoor.

[Reactie gewijzigd door Vayra op 22 juli 2016 11:53]

Deze heeft dus ook geen double precision?
Nee dat lijkt me niet, Pascal voor Geforce is als architectuur namelijk compleet uitgekleed en dient puur voor gaming, bewuste keuze van Nvidia.

P100 is een ander verhaal, maar de Titan is een P102.

Wat in-depth info: http://vrworld.com/2016/0...-nvidia-geforce-gtx-1080/

[Reactie gewijzigd door Vayra op 22 juli 2016 15:10]

Ik ken iemand die zo gek is.

Die heeft een setup met een intel core i7 5960X, 64 GB RAM + 2 titans in SLI.

Die wil gewoon het beste van het beste
Ja en voor een titan koop je een heel nieuw systeem.
Ik heb twee weken terug een nieuwe ultrawide monitor gekocht, 3440x1440 @ 100hz, mijn GTX980 hoor ik elke keer snikken en jammeren (figuurlijk gesproken) omdat ie tussen de 60 en 80fps pushed.. ik wilde dus zeker wel een grafische upgrade.. ik ga alleen wel wachten op de 1080Ti. Het zal me namelijk niet gebeuren dat ik weer een miskoop doe, want de 980Ti is vele malen beter dan de flop 980 was.. als ik toen een 970 had gekocht en die overclocked had was ik voor een smak minder geld ook klaar geweest

[Reactie gewijzigd door infernal_nl op 22 juli 2016 09:23]

Dat had je enigzins kunnen weten toen je die GTX980 kocht aangezien de generatie ervoor er ook al een Ti versie uitgebracht is van de GTX780.. Ik zal zolang dat zo is bij Nvidia nooit meer een gewone *80 versie kopen van ze.. Altijd wachten op de Ti of anders voor de *70 serie gaan als je minder geld kan/wil uitgeven.. De huidige GTX1080 zie ik ook "overbodig" worden zodra de 1080Ti er is..
De 1080Ti zal $999 gaan kosten gezien de huidige prijzen. Ga je dat er voor uitgeven? :/
Dat zal van verschillende zaken afhangen.. o.a. blijf ik gamen op mijn huidige 27" 2560x1440 144Hz monitor of ga ik naar een nieuw 4K of 21:9 scherm? Hoe doet mijn 980Ti het nog in de nieuwste games en hoeveel sneller is een 1080Ti en is dat snel genoeg voor de settings waarmee ik wil kunnen spelen? Dat weeg je dan allemaal af en kijk je of je dat de investering in je hobby waard vindt.. Maar 1000 euro is inderdaad wel belachelijk veel geld voor een videokaart (al gaat de opbrengst van de oude kaart daar nog vanaf), mijn huidige 980Ti (08-2015) kostte "slechts" 750 euro en de GTX780 (01-2014) daarvoor 450 euro.. Dat zijn toch behoorlijke stappen omhoog qua prijs helaas..

Wordt dus echt tijd dat AMD wakker wordt en Nvidia serieus tegenstand gaat bieden in het top highend segment wat hopelijk de prijzen weer zal drukken.. Al vind ik 300 euro voor een GTX1060 ook niet echt goedkoop ondanks dat er een RX480 bestaat..
Dan waarom niet wachten op de 1160 of 1170. Zo lang je natuurlijk altijd blijven afwachten. Het is niet alsof de Ti versie op het zelfde prijspunt zal zitten. En ook niet alsof de prijzen aanzienlijk zullen dalen.
precies dit ! ik snap nooit waarom mensen altijd voor de overpricede '80 serie gaat. Waarom zoveel geld neerleggen voor een kaart die maar een beetje sneller is dan een '70 ? koop gewoon een '70 of een Ti.
Klopt, je koopt alleen een *80 kaart als je echt niet nog even kan wachten op een Ti versie..

Daarna is een *80 nagenoeg overbodig.. Dat blijkt ook wel uit het feit dat hij nadat de Ti er is amper tot niet meer verkocht wordt omdat de mensen met een budget voor een *60-*70 gaan en de mensen die het snelste willen ongeacht prijs voor een Ti..

Maar Nvidia kan dat ook om zeep helpen als de prijs van een Ti te gek wordt (1000+ euro) en het verschil in prestaties met de gewone GTX1080 niet groot genoeg.. Iets snellers dan een GTX1080 heb je eigenlijk ook niet nodig voorlopig zolang je niet op 4K resolutie speelt..
Welke monitor heb je gehaald en heeft die ook GSYNC?
Ik van de week de ROG Swift 279 opgehaald voor mijn GTX 1080 en speelt als een zonnetje !
Netjes! welke games en welke FPS haal je zoal? de PG348Q heeft wel iets meer pixels om te pushen(1,25 miljoen meer) maar dan heb ik alsnog een beetje een beeld..
Ik zit in BF4 ( wat ik op het moment het meeste doe ) heerlijk met 140+fps terwijl ik nog een oud x58 MB heb
Netjes! Ik zelf had die ook op het oog. Maar neig ook naar de Acer predator in de 34 of 35 inch.

Nog eventjes afwachten totdat ik uiteindelijk de upgrade van mijn gtx 275 ga maken. :+
Ik kan je uit ervaring vertellen: ga niet voor de 35" (Z35 neem ik aan) dan kan je namelijk gewoon pixels tellen.. die heeft een res van 2560 x 1080 wat gewoon te weinig is op zo'n groot scherm. De Acer Predator X34 is kwalitatief erg slecht momenteel, in december komt een X34P uit die hoogstwaarschijnlijk beter zal zijn maar dit is nog de vraag. Ik wilde zelf de X34 kopen maar ben daar op het laatste moment toch vanaf gezien omdat er veel issues waren, geen 100hz halen, scanlines van de gsync module, ips glow, backlight bleed etc etc.. die verhalen hoorde je weer minder in kamp Asus. De monitor die ik zelf te 'gamery' eruit vond zien heeft mijn stem gewonnen en heb ik besteld. Ik heb nog nooit zo'n mooi beeldscherm mogen ontvangen, geen enkele dode pixel, geen ips glow of backlight bleed, geen gsync scanlines en gewoon 100hz overclockbaar. Asus heeft me echt over gewonnen hiermee!

En ja.. wat betreft die gtx275.. ik neem aan dat je niet gamed met zo'n fossiele kaart? :)
Dan kan je gewoon een GTX1060 nemen, zelfs een GTX960 als je echt alleen maar kantoorwerk erop doet of films kijkt..

[Reactie gewijzigd door infernal_nl op 22 juli 2016 14:02]

Ik game anders ook nog op een Radeon HD4890 uit hetzelfde tijdperk, en het is pas recent dat ik merk dat een upgrade echt noodzakelijk wordt. Zelfs niet eens zozeer vanwege de performance: Ik speel voolopig nog altijd op 1080p, en dan vooral indiegames en oudere titels als Starcraft 2 of Homeworld Remastered (draait nog als een zonnetje), maar vooral omdat de drivers sinds 2013 niet meer geupdate worden en ik regelmatig vreemde crashes heb in Windows 10 die in de logs duidelijk ATI-gerelateerde errors weergeven.

"Fossiel" is dus voorlopig wat misplaatst, maar de kans dat ik binnen enkele weken een RX 480 heb is wel vrij groot ;)
Fossiel is niet misplaatst, maar eerder subjectief. Voor mij is een game van 2 jaar; oud. Voor jou niet, ik zelf ben een sucker for graphics, dus een game van 4 jaar terug vind ik al lelijk bij wijze van.. I know.. heel verpest 8)7 maar dat is hoe ik rol helaas.. en voor de snel bewegende tech wereld is zo'n kaart wel fossiel in die begrippen :9
Is inderdaad eerder subjectief te noemen, want ook ik ben zeer gevoelig voor de graphics van een game, maar dan blijkbaar op een andere manier dan jij. Als ik denk aan de mooiste games van de laatste jaren denk ik niet aan de grote engines van triple A-games (UE4, CryEngine), maar aan esthetisch knappe games zoals Limbo, The Journey of Ori and the Blind Forest. En de meeste daarvan draaien zelfs goed op hedendaagse IGP's, en die zullen er binnen 5 jaar ook niet lelijker uitzien. Games die minder op 'design-graphics' mikken (bv. GTA of Call of Duty) verouderen inderdaad veel sneller.

Groot voordeel voor je portemonnee: Al het geld dat niet naar hardware gaat zijn weer extra games die je kan kopen ;)

[Reactie gewijzigd door darkjeric op 23 juli 2016 10:36]

Lijkt me inderdaad heerlijk om games die ik leuk vind voor een tientje op te pikken of voor ¤30.. ik koop 'helaas' triple A games inderdaad, kan niet wachten op Battlefield 1 bijvoorbeeld. Wél koop ik 90% van mijn games om de dev's te supporten, de overige 10% zijn of hele oude of inderdaad indiegames (Turmoil bijvoorbeeld, erg cool!)
Over het algemeen presteren Titan-kaarten sowieso niet bijzonder veel beter dan het topmodel uit de consumentenserie.
Dit is het topmodel van de consementenserie. Waarover heb je het?
Zonder concurrentie is wel een rare aanname.
Op het low en midrange gebied zijn deze er wel. Alleen in de topsector hebben ze geen antwoord. En aangezien deze markt een heel stuk kleiner is (niche), gaat het in dit geval voor nVidia om prestige. Wij hebben de snelste (voor een klein fortuin).
nvidia heeft op het gebied van videokaarten van ¤500 en hoger geen noemenswaardige concurrentie van AMD. Nu hoeft dit geen ramp te zijn, want de gemiddelde prijs van een videokaart ligt zo rond de 300 euro als je naar verkoop cijfers kijkt. De markt voor high end videokaarten is niet enorm, maar groot genoeg dat het de moeite waard is de kaarten te maken. Het is alleen dat het grootste deel van de verkopen in de prijsklasse van de RX480 en GTX1060 zit.
Dat is helemaal geen rare aanname, BartmanNL zegt specifiek dat hij het 'titan x' segment bedoelt, en daar is Nvidia de enige, dus zonder concurrentie.
Het nieuwsbericht gaat over de Titan en die heeft inderdaad geen concurrentie. Niemand heeft het over low en midrange.
De vraag was dan ook met welke AMD kaart je de Titan X kon vergelijken. Niet of AMD nog kon concurreren met NVIDIA.
Die reactie had ik al 4 keer voor je gehad.

In mijn laatste deel reageer ik hier wel op door te zeggen dat AMD geen antwoord heeft op de highend sector. Maar dat dit een niche markt is.
Dus eigenlijk boeiend...maar voor de marketing top natuurlijk. Wij zijn de snelste.
Tweakers post in omgekeerde volgorde, mijn reactie was de eerste. Kijk eerst even naar de tijd van de berichten voor dat je gaat zeuren. Er was geen "voor mij"

Zal ook wel de reden zijn dat er bij mij bericht wel een discussie is ontstaat er bij de rest niet.
Ik was niet aan het zeuren. Ik stelde iets vast. in jouw geval onterecht.

In omgekeerde volgorde dus. Dat is eigenlijk voor het eerst dat het me opvalt. En loop al wat jaartje mee hier.
Bedankt voor de tip

Goed gedaan!!! _/-\o_ _/-\o_ _/-\o_ _/-\o_

[Reactie gewijzigd door jqv op 24 juli 2016 23:35]

Zijn opmerking klopt gewoon, de vergelijking waar hij op reageert gaat over AMD (in het algemeen) en Nvidia (in het algemeen) en niet over een specifieke kaart van AMD die tegenover de Nvidia GTX 1080 zou moeten staan. En dat was waar de vraag/discussie juist over ging...

Lijkt me dus vanzelfsprekend dat hij bedoeld dat hij een antwoord geeft op een vraag die niet gesteld was, en dat is gewoon correct...

Kan nu ook wel de AMD en NVIDIA SOC's met elkaar gaan vergelijken dan vergelijk je ook de 2 merken maar het heeft niks meer de met de discussie te maken...

[Reactie gewijzigd door watercoolertje op 22 juli 2016 10:01]

Er worden wel degelijk een kaart genoemd en of daar concurrentie voor bestaat... er wordt specifiek de Titan X genoemd en wat AMD daar tegenover heeft staan.

BatmanNL vraagt en waar die discussie begon:
Amd zijn current lineup bied geen concurrentie tegen deze titan x
En linksom of rechtsom, of je nu vraagt naar de merken in het algemeen t.o. elkaar of specifieke kaarten tegen elkaar afzet, dat is vragen naar wat de (eventuele) concurrentie is.
Misschien gewoon antwoord geven op de vraag, want die is toch wel helder mag ik hopen...

Het product van AMD dat tegenover de Titan zou moeten staan, is wellicht de Fury met waterkoeling. Kortom het hoogst geprijsde reference product van dit moment. Momenteel heeft AMD daarin alleen oude GPU's, maar de Titan X is ook nog niet uit en AMD's Polaris line up is ook nog niet compleet.

Kortom, we kunnen nu allemaal wel denken dat Vega de 'Titan killer' wordt, maar de kans is aanwezig dat een top-end Polaris GPU ook best een eind komt. Op dat moment kun je ook qua prijs/performance zeggen dat AMD relatief 'de beste kaarten' heeft.

En als het écht om pure GPU kracht gaat, dan moet je er momenteel de R9 295x2 tegenover zetten. Die komt eigenlijk aardig in de buurt van de GTX 1080. En dat is niet eens een hele rare gedachte omdat Nvidia op Maxwell geen dual-GPU bracht en ze dat met Pascal waarschijnlijk ook niet gaan doen. We zeiden een jaar geleden ook niet van Nvidia 'dat ze geen antwoord hadden op de 295x2'... toch? Dat was namelijk heel lang de echte king of the hill.

Dus wat nou geen concurrentie... geen recente GPU. Dat is alles. We vergeten geloof ik dat de enige single-GPU die geen concurrent heeft momenteel, de GTX 1080 is, en dat is een kaart die voor 650-700+ euro over de toonbank gaat wat veel te veel is als je ziet wat je krijgt. Nvidia 'doet een Titan' met de 1080 en zet 'm veel te hoog in de markt - laten we de eerste Titan > 780 > 780ti paniekreactie niet vergeten toen AMD nog wél een direct antwoord bracht :) Ik sluit een veel goedkopere maar bijna identieke 1070ti dus ook niet uit - er is ruimte voor tussen de 1070 en de 1080.

De GTX 1070 is qua performance niet zo ver verwijderd van een Fury namelijk. Het is helemaal niet nodig om op elk prijspunt van je concurrent een direct antwoord te hebben, er is toch al geen hond die een Titan koopt.

[Reactie gewijzigd door Vayra op 22 juli 2016 17:11]

Het is helemaal niet nodig om op elk prijspunt van je concurrent een direct antwoord te hebben, er is toch al geen hond die een Titan koopt.
Wie koopt er dan nog een AMD GPU om mee te gamen?? Geen hond toch:
http://store.steampowered.com/hwsurvey?l=dutch

Marktaandelen in de gamer user base:
NVIDIA GeForce GTX 970 5.05%
NVIDIA GeForce GTX 960 3.42%
NVIDIA GeForce GTX 750 Ti 2.85%
NVIDIA GeForce GTX 760 1.95%
NVIDIA GeForce GTX 860M 1.46%
NVIDIA GeForce GTX 650 1.45%
NVIDIA GeForce GTX 660 1.44%

Bij AMD zijn een er een aantal oudere reeksen die nog enigszins een user base hebben:
AMD Radeon HD 7900 Series 1.42%
AMD Radeon HD 8800 Series 1.38%
AMD Radeon HD 7700 Series 1.30%
AMD Radeon HD 7800 Series 1.06%
Was de 7000-reeks van AMD nog enigszins populair (totaal bijna 4 procent), kelderde het al hard omlaag met de 200-reeks:
AMD Radeon R9 200 Series 1.30%
AMD Radeon R7 200 Series 0.41%
Met andere woorden, geen hond gebruikt die R9 200 reeks nog.
Komen we bij de nieuwere reeksen van AMD aan, wordt het nóg dramatischer:
AMD Radeon R9 380 Series 0.22%
AMD Radeon R9 390 Series 0.21%
AMD Radeon R7 300 Series 0.18%

De 200-reeks van AMD is momenteel minder dan half zo populair als de 7000-reeks. De 300-reeks van AMD is momenteel minder dan half zo populair als de 200-reeks. Met andere woorden, iedere generatie wordt AMD weer minder en minder populair. De populariteit van Nvidia wordt juist iedere generatie groter en groter. De GTX 970 zet in z'n eentje een hele respectabele 5.05% neer. De concurrent de AMD Radeon R9 390 Series blijft op 0.21% steken. De GTX 970 van Nvidia is dus grofweg VIERENTWINTIG keer zo populair als de directe concurrenten van AMD.

De Polaris GPU's en Pascal GPU's zijn nog veel te kort uit om ze mee te nemen in de analyse, maar niemand verwacht eigenlijk dat AMD het tij weet te keren. Alles wijst erop dat ook deze generatie Nvidia de grote olifant is en AMD het kleine mugje.

Vormt AMD dan wel echt respectabele concurrentie in het low to mid-budget segment? Eigenlijk niet, toch? Als vrijwel niemand het meer gebruikt. En de populariteit met iedere nieuwe reeks verder keldert en keldert. De AMD-concurrentie bestaat alleen op papier, helaas ontbreekt de user base.

[Reactie gewijzigd door dusty-2011 op 22 juli 2016 23:04]

Alsof ze dat gewoon niet ook doen.

Nvidia heeft nooit op prijs geconcurreerd met AMD en zijn altijd duurder geweest
Haha, dat geloof je toch zelf niet.
AMD heeft nog niet eens een kaart die tegen de 980 Ti uit de vorige generatie op kan... Beste prijs / performance verhouding wil AMD nog weleens winnen, maar voor de beste top-end performance moet je bij Nvidia zijn.

[Reactie gewijzigd door Wolfos op 22 juli 2016 09:12]

Kuch, Fury X, kuch...
Dus een kaart die op het moment 13de staat op passmark is concurrentie voor een gloednieuwe kaart die waarschijnlijk de nummer 1 positie gaat overnemen?

Ik vind dat wat krom ;)
Ik had het over een concurrent van de 980ti. Op 4k is de Fury X zelfs een aantal procenten sneller. Ik had het uiteraard niet over de rivaal van de 2016 Titan X. Dat wordt waarschijnlijk een Vega variant.
Ik dacht dat dat een dual GPU kaart was van rond de ¤1000 maar dat klopt dus niet. Nee, die komt inderdaad wel in de buurt.
Eigenlijk met de Fury kaarten van AMD.
Deze bestaan op dit moment nog niet in de huidige generatie en zijn volgens mij nog niet aangekondigd. Alleen de 490 is nog aangekondigd welke zich boven de huidige op de markt zijnde RX480 zal plaatsen.
Momenteel onmogelijk. En daarvoor was de titan altijd het snelst voor gaming(ook direct het duurst).
Het is wachten tot nvidia met de 1080ti komt met aftermarket koeler en AMD met zijn fury(als ze nog steeds zo heten). Amd heeft als eerst zijn <250 euro kaarten aan het uitbrengen. En hoopt dat HBM 2 geheugen het gaat wezen voor high end videokaarten.
Met een RX490 en een tweedehands auto :+
De Radeon Pro Duo. Maar de RX490 zit er al aan te komen, die gaat concurreren met de GTX 1080. Titan serie is eigenlijk een zakelijke Tesla videokaart die boven het high-end segment zit, dat zie je dan ook aan de prijzen (1399 euro).
Hier heeft AMD geen antwoord op, net zo min dat ze dat ooit hebben gehad voor dit soort topkaarten van nvidia.. Ja, pas heel veel later wanneer ook nvidia al weer betere kaarten uit brengt.

maargoed, dat hoeft ook niet natuurlijk, AMD richt zich niet op deze groep...

[Reactie gewijzigd door SuperDre op 22 juli 2016 10:26]

Is het niet voordeliger van gewoon 2 GTX 1080 te kopen dan 1 Titan X ? Die is misschien maar 10% sneller maar kost wel het dubbele 8)7
Dat ze allebei '100 km/u' kunnen rijden, betekend helaas niet dat ze samen 200 km/u halen. Los van het stroom gebruik, zijn er ook steeds minder spellen die SLI goed ondersteunen, dus wellicht is het voordeliger qua geld, maar qua prestaties waarschijnlijk niet...
Dit is meer het geval van de ene kan '100 km/u' rijden maar voor het dubbele van die prijs kan je '110 km/u' tijden. Dan is het toch voordeliger dat je 2 van '100 km/u' koopt. Je kan dan langer rijden. Als de ene kapot is gebruikt je de andere. Ik vindt gewoon qua prestaties het verschil niet immens groot is tussen de 1080 en de titan X om zo'n hoge prijs te vragen.
Ligt aan je doeleinde denk ik, een GPU is niet alleen voor de gamer bedoeld. Dat een gamer er misschien maar 110% uithaalt vergeleken de 1080 is natuurlijk ''zinloos'' qua prijsverschil.
Als ik zie wat bijv de titan en fury qua snelheden haalt op gebied van minen (bepaalde coins) dan is dat verschil wel iets meer dan 110%... En dan moet de nieuwe reeks nog uitkomen de resultaten die ik gezien heb zijn van de ''oude'' titan en de ''nieuwe'' 1070-1080.

Ik begrijp de prijs wel, en dan is de kaart denk ik niet eens echt ontwikkeld voor de miner, maar alleen die groep haalt al meer dan 110% winst.

Sommige mensen denken nu eenmaal dat de gamer de enige doelgroep is (de quadro / titan / fury en etc lijn is nooit echt ontwikkelt voor de gamer dacht ik).
Kijk maar hoeveel sommige quadro kaartjes kosten, sommige kosten nog altijd 200-300 euro 2e hands, denk je dat je daarmee op 1080p kan gamen met alles op het laagst? Moa denk het niet :).
Deze lijn spreekt naar mijn weten een totaal andere groep aan dan de gamers.. Ja tuurlijk als een gamer het beste van het beste wilt en niet naar het geld hoeft te kijken dan is ook de Titan voor de gamer een optie (10% extra is 10% extra...). Er is gewoon nog een hele wereld buiten het game wereldje :)

[Reactie gewijzigd door LopendeVogel op 22 juli 2016 11:16]

Als je SLI aan durft (iets dat zelfs NVIDIA niet echt meer ziet zitten) dan wel ja :+
Dual SLI ziet Nvidia nog steeds zitten, sterker nog ze zijn hier juist vanwege VR nog steeds geld in aan het stoppen.
Ik heb 2x 1080 FE in SLI en dat koste wel meer dan zo'n Titan X.

Ik ben wel benieuwd naar de benchmarks van deze Titan X tegenover 2x 1080 in SLI :)
tja de FE is dan ook 100$ duurder :P . En volgens de chart in de post zijn de specs hetzelfde.
Ik ga nog wachten tot de 490X beschikbaar is en de niet FE versie. Daarna een goeie keuze maken.
True, maar achteraf wel blij dat ik de FE had gekozen. Dit aangezien de prijzen van de 1080 van Asus ea merken vrij hoog bleven en zelfs duurder waren dan de FE versie.
En zo zet de golf van prijsverhogingen zich door, ben wel benieuwd hoe snel deze kaart wordt.
Pak de rekenmachine erbij en bereken de rekenkracht, bij de zelfde architectuur kun je dan redelijk goed de prestaties berekenen als er geen bottleneck in de kaart blijkt te zitten.

De meeste custom GTX 1080 versies lopen op zo'n 2GHz en daarmee hebben ze 10Tflops aan rekenkracht, vergelijkbaar met deze nieuwe Titan en daarmee is de Titan dus amper sneller als de klokfrequentie niet hoger wordt dan 1531MHz.

Lijkt er dus vooralsnog niet op dat deze kaart dus interessant voor gamers is, daarnaast komt er vanzelf wel weer een Ti versie van deze kaart welke waarschijnlijk iets van 400$ goedkoper is en ook nog sneller.

Van de Ti versies zullen ook custom kaarten mogen komen met betere koelers, tegen een betere prijs welke ook nog eens beter overklokken en dus wel een stukje sneller kunnen zijn als deze Titan. nVidia heeft niet voor niks deze kaart zonder enige bombarie geïntroduceerd, ding valt gewoon tegen.

[Reactie gewijzigd door -The_Mask- op 22 juli 2016 09:24]

Ehm ja, je vergelijkt nu OC vs niet-OC. Het kan ook zo zijn dat de Titan X gewoon 1.9ghz haalt.
Overigens is het 11 TFLOP bij 1531mhz en 3584 cudas

[Reactie gewijzigd door DoubleYouPee op 22 juli 2016 09:00]

2GHz is de standaard frequentie van sommige custom GTX 1080 versies, niet de opgegeven frequentie, maar echt de standaard frequentie en niet de overgeklokte frequentie. Dit is een reference aka Founders Edition en van een Titan komen geen custom versies zoals ik al aangaf, klokfrequentie zal in de praktijk bij deze kaart dus zonder overklokken rond de 1500MHz zitten en daarmee weinig interessant zijn. Is niet voor niks dat het een stille launch is.

En nee het is minder dan 11Tflops, iets minder.

[Reactie gewijzigd door -The_Mask- op 22 juli 2016 09:23]

Niets houd je tegen om zelf een aftermarket koeler op een Titan te zetten en dan (hoger) te OC.
Deze Titan of de vorige Titan met reference koeler vergelijken met andere kaarten met dikke 3rd party koelers en hoge OC is niet helemaal eerlijk natuurlijk.
Misschien niet, anderzijds ook wel, want die andere kaarten kan je fabrieksaf al zo kopen. Een eigen OC is niet nodig, terwijl je bij de Titan wellicht eerst een hoop toeren moet uithalen om hetzelfde te bereiken (qua koeling en snelheid). Laten we zeggen dat het een kaart is voor de enthousiasts en stock gewoon voor de mensen die veel rekenkracht nodig hebben.

Trouwens opvallend vind ik de naam. Straks hebben we dus een nVidia GTX Titan X en een nVidia nVidia Titan X. Niet erg duidelijk, enige verschil is dat de nieuwe kaart geen GTX voorvoegsel meer heeft. Wel vreemd dat ze daar niet een betere naam voor konden bedenken.
Ik vond de 10xx serie nou ook niet echt een uitblinker in originaliteit qua naamgeving :)
Nee dat ook niet, maar iig nog duidelijk waar men het over heeft. 2x nagenoeg dezelfde naam is wel verwarrend.
Nee hoor, we hebben de GTX Titan X en de Nvidia Titan X. Dat zijn de correcte namen. Geen Nvidia Nvidia Titan X hoor.
1531*2*3584 = 10.97 TFLOP.
Gewoon 11...

[Reactie gewijzigd door DoubleYouPee op 22 juli 2016 11:21]

1080 -> (2560 * 2 * 1,607) = 8228 GF tot (2560 * 2 * 1,733) = 8873 GF
Titan -> (3584 * 2 * 1,417) = 10157 GF tot (3584 * 2 * 1,531) = 10974 GF

Dat zijn de opgegeven stock base en boost clocks. Dat is 23,4% tot 23,7% verbetering.

Als je kijkt naar de vorige Titans; met name de vorige Titan X (echt waar, Nvidia?) zie je dat deze niet zo heel geweldig overklokken, hooguit 20%. Dus al haal je dat hier ook kom je uit op 1531 * 1,2 = 1837 -> (3584 * 2 * 1,837) = 13171 GF. En dan is de grote hamvraag of hij dat vast kan houden, wat waarschijnlijk niet het geval is.

[Reactie gewijzigd door Werelds op 22 juli 2016 11:58]

Ik vind vooral het ontbreken van HBM2 erg tegenvallen. Zeker voor dit bedrag.
Tja, als het beschikbaar was zou het er wel opgezeten hebben, maar ofwel HBM2 levert problemen op (mijn gok, gezien zowel AMD als NVidia er nog niks mee uitgebracht hebben) of NVidia krijgt het niet goed werkend. Hun eerste samples GP100 met HBM2 schijnen rond te zwerven, maar ik wacht nog op benchmarks ;) Idem met AMD, ze laten dingen zien, maar totdat 'onafhankelijke' sites er iets van publiceren zie ik het als vaporware.
De Tesla P100 heeft wel HBM2 geheugen.
nieuws: Nvidia kondigt Tesla P100-accelerator met Pascal-gpu en 16GB hbm2-geh...
Dus ik neem aan dat het gewoon goed werkt en dat er op dat technisch vlak geen problemen zijn. Ik denk eerder dat er misschien maar beperkte aantal hbm2 chips beschikbaar zijn en dat het ook nog duur is en lastiger te implementeren omdat de bus 4096 bit breed is, wat natuurlijk een ander pcb, en chip?, vereist.
De GP100 heeft wel HBM2, maar niemand heeft nog een GP100. De paar exemplaren die rondgestuurd zouden zijn hebben nog geen scores laten lekken, en misschien zitten ze wel met houtschroeven in elkaar... Nobody knows...
Er zijn wel benchmarks van de Tesla P100, een paar wetenschappelijke benchmarks natuurlijk, waar ook een GTX 1080 in is meegenomen. Hoe dit zich in games gaat verhouden is misschien moeilijk af te leiden, maar het is een kleine indicatie van de snelheid.
http://wccftech.com/nvidia-gp100-gpu-tesla-p100-benchmarks/
Ik denk dat het bijster weinig uitmaakt als je al zoveel bandbreedte hebt. Tussen GDDR5 en GDDR5X zag je op hoge resoluties wel iets verschil (Fury serie). Of dat een architectuur dingetje is kan ik overigens niet uitsluiten. Helaas zijn er nog geen kaarten met HBM2, anders kon je ze mooi tegenover GDDR5X zetten.
Wie zegt er geen custom Titans verschijnen. Wel appels met appels vergelijken.
Ik zeg dat, omdat die niet gaan komen.
Ik vind die "golf van prijsverhogingen" anders wel mee vallen. Dit is een product voor een zeer kleine niche markt. Als je kijkt naar de prijs van de mid- tot highend kaarten, dan is de prijs prestatie verhouding zelden zo goed geweest.
De prijs/prestatie hoort ook steeds beter te worden. Anders is er geen reden om de nieuwe generatie te verkiezen boven de oude. Wel is het zo dat de kaarten per segment stevig duurder zijn geworden bij Nvidia. Ik heb mijn msi 960 gekocht voor ¤220. Dat zal met de 1060 mij niet lukken. Maar een naam is maar een naam. Misschien wilt Nvidia alles vanaf 1060 als meer high-end neerzetten. De prestaties zijn best goed
De 1060 is geprijst als een 970 bij launch, de 1070 als een 980 bij launch en de 1080 als een 980TI bij launch.

Alle kaarten zijn dus qua positie omhoog geschoven qua prijs in vergelijking met de voorgangers. De 1080TI zal wel de prijs krijgen van de oude Titan X.
onzin.
de prijs voor mid range en high end is ieder jaar duurder geworden en dat heeft geen snars met inflatie te maken.
8 jaar geleden betaalde je net onder de 400 euro voor een high end kaartje en 16 jaar geleden was dat 300 euro.
nu ben je gewoon een gestoorde 700 euro kwijt voor high end en 470 voor een mid range kaartje.

De prijzen zijn gewoon anderhalve generatie opgeschoven.
De ati rage pro was ten eerse in guldens (1999) en zeker geen 1100 gulden zoals jij beweerd maar de prijs die ik heb kunnen vinden staat voor die kaart op 180 dollar.
Wat dus een schijntje is in vergelijking met de door jou beweerde 500 euro.

Daar komt bij dat de de 9800 pro pas in 2003 uit kwam (4 jaar later en dus geen 1 jaar later) op dat moment was de euro dollar echange rate zo dat de kaart een ADVIES prijs had van 375 dollar oftewel 320 euro toendertijd.
Nu blijven de prijzen kijhard hangen op de adviesprijs od zitten er zelfs BOVEN toen was de prijsdaling zo snel dat ik hem toen voor 280 euro bij alternate heb besteld en 2 maanden later was hij al gezakt naar 250 euro.

Dus voor je random wat post beter controleren of het wel klopt.
En de titan en fury reeks zijn zeer gewild voor minen (nee niet bitcoin, andere coins). Geloof best dat meer miners dan gamers hem kopen maar goed heb daar uiteraard geen bron van.
Naar mijn idee zijn de Nvidia kaarten altijd inferieur geweest aan AMD kaarten als het op minen aankwam, dus is de Titan daar niet zo'n goede koop voor. Of is dit in de afgelopen paar jaren veranderd?
Ja dat is verandert, zie bijv lbry credits, X13 coins doen het volgens mij ook nog altijd beter met nVidia. Maar goed het is per coin verschillend welke wel of niet goed met nVidia omgaat. Daarnaast zijn de Titan en Fury reeks gewoon de top of the line qua gpu's om te minen. Een miner zal er naar mijn idee meer aan hebben dan een gamer.

@rickyy

Bestaat coinwarZ nog ja? haha.... Ook lekker out to date die info, ben weer eens naar die site gegaan.. Dacht dat ze wegens non activiteit niks meer deden.. Maar goed kijkend naar alle advertenties zullen ze toch nog wel wat verdienen aan die site :P. Maar ik heb even gekeken, alle info klopt niet echt meer, ja ethereum is nog rendabel, ik denk op nr 1-2, lbry nr 1-2. Rest die daarboven staan kan je allemaal wegstrepen, zijn allang niet meer rendabel.

Kijk ook maar op miningrigrentals.com

Ook de nieuwe lijn van nVidia laat de nieuwe lijn van AMD in het duister achter (althans, voorlopig en weer miner/coin afhankelijk).

[Reactie gewijzigd door LopendeVogel op 22 juli 2016 08:36]

Mh/s versus prijs zijn deze kaarten niet echt interessant. De terugverdientijd is zo groot dat je nooit je geld eruit haalt, zeker omdat je een premium voor dit soort kaarten betaald.

De sweet spot lijkt momenteel een gebruikte 290/390 te zijn die je voor iets meer dan een RX480 op de kop kan tikken. De extra powerdraw wordt teniet gedaan door de hogere Mh/s, en je kan deze kaarten efficiënter maken door bvb 80mV te undervolten.
Nee hoor echt niet...
Ik heb een rig nu van de 290 (hobby), maar ik zie er liever een aantal fury's of titans staan hoor hell yeah haha:D

Iemand die ik ''ken'' haalt bij lbry volgens mij rond de 650-700Mh/s met de fury, ik haal 80-90Mh/s met de R9 290. Ik undervolt altijd met 100, memory clock gaat ook standaard omlaag.

Meeste winst valt nog altijd uit je OpenCL te halen, maar goed dan moet je wel OpenCL van binnen en buiten kennen (en dat doe ik niet jeeeeej), dan haal je nog eens zo'n 30-50% extra qua snelheid ;)

Gewoon even een simpel voorbeeldje :)

Maar goed wat is de 2e hands prijs van een fury of een titan?
De r9 290 is rond de 150 euro 2e hands dus daar zit zeer zeker een verschil in.

Maar goed hoe goedkoop kan je een fury of titan regelen, hoe zit het met je stroom.. Verschillende factoren kunnen ervoor zorgen dat een fury of titan toch wel degelijk meer winst op ''jaar basis'' zal bezorgen.

Dan nog blijf ik erbij dat een titan meer geschikt is voor een miner dan voor een gamer.. Een gamer kan net zo veel FPS krijgen met een leuke 1080 die goedkoper is (helft ofzeu?)

[Reactie gewijzigd door LopendeVogel op 22 juli 2016 08:52]

Welke coins als ik vragen mag? Als ik op coinwars kijk zie ik niks dat profitable is.
Klopt, omdat er gewoonweg teveel mist op die site. Staan maar een paar algo's en dat is 't, site kan je op dat gebied voor zulke vragen/antwoorden beter links of rechts laten liggen.
Die kunnen dan beter de dedicated kaarten kopen die al langer op de markt zijn..
De prijs maakt deze dingen juist minder interessant. De oorspronkelijke Kepler Titan had dan wel betere FP64 performance, maar dat had de vorige Titan X niet en deze hoogstwaarschijnlijk ook niet. Dan komt het dus op FP32 aan en dan zit je te kijken naar hooguit 25% meer performance voor 100% hogere kosten.
De prijs maakt deze dingen juist minder interessant.
Voor welk doel?
De oorspronkelijke Kepler Titan had dan wel betere FP64 performance,
de Pascal serie is als Max verstappen op gebied van minen (ligt aan het circuit waar je op rijd :D ).

Ik verwacht ongeveer 180% van de snelheid die een 1080 momenteel geeft, maar let op, ik verwacht dat... We moeten nog zien wat die gaat brengen.
In vergelijking met het stroom, moa moa we gaan het zien..

Daarbij zullen nog wel meer doelgroepen profijt hebben van de titan / fury reeks dunkt mij.
Waar denk jij dat die extra 80% vandaan moet komen?

Op papier heeft deze tussen de 23% en 24% meer dan een 1080.

En de prijs maakt deze minder interessant voor minen, want daar ging jouw comment over. Voor games is dit ding volledig irrelevant, behalve dan voor de e-peen van blinde fanboys. Maar zelfs voor minen is een 40% hoger TDP met 100% hogere aanschafprijs niet rendabel als je er nog geen 25% performance uit haalt. Dit ding staat tot de 1080 als de 980 Ti tot de 980 stond. De vorige Titan X was in verhouding tot de 980 beter dan deze is vergeleken met een 1080.

Het geheugen en de bandbreedte zijn leuk en aardig, maar dat is niet wat je nodig hebt voor mining.

Wat mine jij waar Pascal het zo veel beter in doet dan? Want Pascal heeft niets dat Maxwell niet heeft op dat gebied.

Edit: ik heb het dan even niet over MHS/W vergeleken met Maxwell, dat is uiteraard beter. De MHS/W van deze ten opzichte van een 1080 zal echter niet beter zijn; ik denk eigenlijk slechter.

[Reactie gewijzigd door Werelds op 22 juli 2016 11:38]

oa lbry credits haalt een flinke boost uit de Pascal kaarten en laat AMD ver achter zich. Ik kan niks met een R9 290 rig vs de nieuwe nvidia kaarten.
Volgens mij geld dit ook voor all X13 coins (maar zit weinig interessants tussen).

Waarom de pascal kaarten als een speer gaan vergeleken welke andere kaart dan ook durf ik niet te zeggen, ik weet alleen dat het een feit is dat ze als een speer gaan... De nieuwste amd kaarten slaan helemaal kant noch wel met oa lbry credits, daar waar catalyst 15.x niet werkt op de nieuwste amd kaarten, net de versie die je nodig hebt om optimaal te kunnen minen en overclocken.

Maar again voor de mining resultaten zullen we moeten wachten, dat is nu alleen speculeren en aannames doen (wat ik dus ook gewoonweg aan het doen ben).

[Reactie gewijzigd door LopendeVogel op 22 juli 2016 12:33]

Dat kan ik wel verklaren, de huidige LBRY algoritmes zijn niet bijzonder efficient (voor een GPU). Het is van origine een CPU algoritme, dus het is niet "breed" genoeg om goed gebruik te maken van een GPU. Nvidia kan daar beter mee om gaan omdat zij alles sowieso liever seriëel hebben. Het is dan ook vooral de kloksnelheid die het hem doet :)
Hmm het is een mix algo.

Als ik bijv de cpu miner gebruik voor LBRY dan haal ik met een I7 2600 ongeveer 0,4Mh/s
Met de GPU haal ik momenteel gemiddeld 85Mh/s.

Heb je veel verstand van de ins en outs van OpenCL maak je daar weer 120-140Mh/s van (zoals de miner developers).

De 1060 en 1070/1080 vliegen daar als een speer, vorige generaties niet.

Nja ik underclock eerder voor betere snelheden, core iets omhoog, volt iets omlaag, mem clock ook iets omlaag.

Maar goed er spelen zoveel aspecten mee, doe ik dit met de nieuwste catalyst (alleen mogelijk bij de nieuwste amd serie) dan sla ik kant noch wal met minen.
.... je weet hopelijk dat catalyst niet meer bestaat en dat het Crimson nu is? -_-
http://support.amd.com/en...esktop?os=Windows+10+-+64

Catalyst, crimson, 1 pot nat. Maar ik zal de volgende keer wel zeggen catalyst 15.x en crimson 16.x (om het iets onhandiger te maken)

[Reactie gewijzigd door LopendeVogel op 23 juli 2016 01:15]

uh nee catalyst en Crimson is niet 1 pot nat lol. Zijn compleet verschillende platforms. CCC is gebaseerd of .Net en Crimson op QT.
Je wist gelijk waar ik het over had toch? Het is niet dat ik "auto" zei maar "lepel" bedoelde.

[Reactie gewijzigd door LopendeVogel op 24 juli 2016 17:54]

Tja ... met die "logica" is zeker windows 1 pot nat met Linux of Unix? :P
Poeh het is mij iets te warm voor dat bijdehandse gedoe haha
De oorspronkelijke Kepler Titan had dan wel betere FP64 performance, maar dat had de vorige Titan X niet en deze hoogstwaarschijnlijk ook niet.
Deze heeft 44 TOPS aan "int8", voor deep learning.
https://blogs.nvidia.com/blog/2016/07/21/titan-x/

Geen idee of dat bij de andere pascals ook uit staat overigens.

[Reactie gewijzigd door haarbal op 22 juli 2016 17:31]

Beetje een wassen neus. Het gaat hier om instructies, geen ALU's. int8/fp32, 44/11 - zie je het verband? ;)

Dat klinkt dus heel indrukwekkend, maar ze doen in feite exact hetzelfde als met hun FP16 support.

Zal morgen eens opzoeken wat de verschillende precisie rates zijn op de laatste architecturen. GCN3 en GCN4 deden namelijk ook iets met FP16, maar ik weet niet meer wat. Plaats ik wel in het Nvidia topic ;)

[Reactie gewijzigd door Werelds op 23 juli 2016 01:38]

Met zijn adviesprijs van 1200 dollar is de kaart duurder dan vorige Titan-kaarten. De vorige kaart in de reeks, de GTX Titan X, bracht Nvidia voor 1000 dollar uit.
Wat op zich niet raar is. De nVidia Titan X is de high-end kaart van het moment en de GTX 1000-serie is ook hoger geprijsd dan dat de GTX 900-serie dat destijds was.

Gaat nog leuk worden, als volgend jaar de GTX 1080 Ti uitkomt. ;) Dan zal er vast ook in het nieuwsartikel komen te staan, dat hij X euro duurder is dan de GTX 980 Ti.

[Reactie gewijzigd door CH40S op 22 juli 2016 08:37]

Hij zal duurder zijn.

Mensen schijnen ook te vergeten dat AMD zoiets heeft geïntroduceerd als de APU. En Intel is gevolgd met betere geïntegreerde graphics. Steeds krachtiger geïntegreerde graphics maken het basissegment grafische kaarten overbodig. Terwijl daar wel wat aan te verdienen viel gezien het grote volume.

Dus terwijl Nvidia telkens meer winst wil draaien om de aandeelhouders gunstig te stemmen, ziet het een belangrijke bron aan inkomsten verdwijnen. Dus proberen ze hogerop meer te verdienen. En ze kunnen daar meer proberen vragen, zeker als er geen concurrentie is van AMD in dat segment.

Tenzij AMD dom is, zouden ze beter mee op de kar springen en zien hoeveel meer marge ze kunnen pakken, terwijl ze nog steeds Nvidia proberen te undercutten qua prijs.

[Reactie gewijzigd door Jack77 op 22 juli 2016 09:20]

Een beetje kort door de bocht m.b.t. tot integrated graphics. Dit speelt al veel langer, sinds Sandybridge is een graka voor een internet/office PC niet nodig, echter iedereen die een beetje wil kunnen gamen/videobewerking doet heeft er nog een nodig.
Echter een vluchtige blik op kant en klare desktops en laptops laat zien dat fabrikanten er nog steeds graag een dedicated card in stoppen. Dit zal met name te doen hebben met perceptie van de klant ("wow er zit een echte AMD/Nvidia in).

Als je het mij vraagt heeft de consument enerzijds last van de perikelen bij AMD, welke in het hoge segment (met de meeste marges) te weinig of te laat concurrentie bieden. En anderzijds van de toch wel grote stappen die Nvidia de laatste paar jaar weet te maken. De kaarten zijn ook echt een stuk sneller, zie stappen van 760-960-1060.
Klantperceptie is "sneller dan 970, zelfs 980" voor 20 euro meer dan een 970..."dat is niet duur".
Uiteindelijk bepaalt de markt de prijs, een MSRP is alleen een startschot. Dus ja, AMD kan proberen mee te liften, maar ik zie om me heen toch bijzonder veel mensen die het wat te gortig vinden met kaarten van over de 500 euro voor 'budget high-end' 1070.

Dus ik geef die strategie niet veel kans. Je kan er ook bijna vanuit gaan dat de 1070 en de 1080 nog zeker een euro of 50-75 gaan zakken, nog voordat er een nieuwe release komt van eender welk kamp.

Vwb integrated graphics; ja, deels waar, maar overschat het niet. Het blijft gewoon zwaar ondermaats, zelfs mét lage settings. Voordat de APU zover is dat er écht van gaming prestaties gesproken mag worden zijn we nog wel een paar jaar verder. Een A10 is nou ook niet bepaald een snelheidsmonster, hoe vaak AMD 'm ook opnieuw refreshed. Een APU heeft één enorm probleem en dat is het package TDP en de koeling die er vervolgens op moet, plus de eisen aan het moederbord. Dat ging met de FX procs al niet geweldig en dat was puur CPU, en AMD laat met Polaris vooralsnog geen efficiency slagen zien waar ik van opkijk - mid range zit nog altijd op de 150-160watt en die heb je niet graag in je socket erbij.

[Reactie gewijzigd door Vayra op 22 juli 2016 17:24]

Het verschil tussen de adviesprijs van de nieuwe Titan X en de oude is wel groter dan het verschil tussen de 1080 en de 980: $1200 tegenover $1000 (20%) in plaats van $600 tegenover $550 (~9%). Het grote verschil in prijs tussen de 980 en de 1080 komt vooral door de zwakke Euro - de adviesprijs van de 1080 komt met huidige wisselkoersen uit op zo'n ¤658, waar de adviesprijs van de 980 destijds neerkwam op zo'n ¤515. Daarmee komt de 1080 dus dichter in de buurt bij de oude 980 Ti qua prijs, maar dat is niet echt de schuld van Nvidia.

[Reactie gewijzigd door Mitsuko op 22 juli 2016 16:40]

Wel jammer dat je nu toch gauw 140 euro boven de adviesprijs moet betalen :+
De goedkoopste 1080 is op dit moment te krijgen voor ¤686 (inclusief verzendkosten), dus dat is ¤28 boven de adviesprijs in Euro bij de huidige wisselkoers. Wel is het zo dat slechts 2 opties onder de ¤700 uitkomen, en 15 uit de 40 opties waarvan de prijs bekend is onder de ¤750 uitkomen, dus het loopt snel op. Daar zitten echter wel de Founders Editions kaarten tussen, waarvan de adviesprijs $100 hoger ligt (adviesprijs van ¤768 bij de huidige wisselkoers). Wat mij betreft kan je dus beter nog even wachten tot de schaarste afneemt.

Overigens zit ook de 1070 nog boven zijn adviesprijs op dit moment: de goedkoopste optie is ¤467, waar de adviesprijs bij de huidige wisselkoers uitkomt op ¤417 (naar boven afgerond). Dat is dus een groter gat (¤50) en al helemaal reden om nog even te wachten.

[Reactie gewijzigd door Mitsuko op 22 juli 2016 16:48]

Mjah ik wil wel reageren, maar dat is lastig met al dat geedit. Want mijn reactie was van iets wat nu niet meer in je tekst staat.

Edit::Doe het dan zo door iets toe tevoegen of streep iets door.

[Reactie gewijzigd door Xfade op 22 juli 2016 22:30]

Sorry, een slechte gewoonte van mij. Enige aanpassing in mijn oorspronkelijke reactie was een verandering van ¤650 naar ¤658 omdat dat beter klopt. Had je het gelezen als ¤550?
Dat zou kunnen, geen idee meer. Wel leuke info verder :)
Is dit dan eindelijk de kaart om alles op de hoogste settings op 4k te kunnen gamen? De 1080 haalt helaas niet overal de 60fps op 4k.
Vraag is alleen of je daar tussen de 1200 (adviesprijs) en ~1500 dollar / euro voor over hebt en je dus op het moment nog geen zekerheid hebt, aangezien er geen benchmarks zijn. Zolang die er niet zijn kun je niet zeggen of deze GPU dat wel of niet kan.

Ik moet ook eerlijkheidshalve toegeven dat ik dat hele gebeuren rondom 4K niet zo begrijp, leuk, een resolutie zo hoog, maar men verwacht wel (en dat gebeurd al langer) dat er ook maar gelijk genoeg GPU-performance is om dat ook in games te halen. Vooralsnog is het vooral marketing praat voor early adopters.

[Reactie gewijzigd door CH40S op 22 juli 2016 08:44]

Hangt van de game af denk ik. De GTX1080 haalt in sommige games net mooie resultaten. De nieuwe Titan preseteert marginaal beter, maar ik denk dat er voor een goede gameplay het afwachten is. Misschien wel een mooie stap voor VR.
Zie de 1080 op 4K: http://www.trustedreviews...rks-and-conclusion-page-2
Mogelijk, totdat de volgende game uitkomt die uitgaat van nog meer rekenkracht... Je bent met een grafische kaart nooit helemaal 'bij'.
Denk het wel, ik zit op 4k met mijn 980ti en het is wel te doen om 60fps te halen.

Wel te doen, als wanneer overgeklokt op 1450 dan moet ik nog dingen uit zetten en eventueel de resolutie wat verlagen naar 3840x1944 of 3840x1728, voor respectievelijk 10 en 20% minder vertical resolutie. Dat geeft wel een leuk ultrawide gevoel.

Dus als deze titan 40%-50% sneller is dan een 980ti dan moet het lukken om behoorlijk op 4k60 te draaien.
Nu wel, maar voor nieuwe games over een jaar? Denk het niet.
Ik heb zelf de 'oude' Titan X en een 4K monitor.
Wat ik doe is ik maak custom resoluties aan.
3K is bij voorbeeld maar 9/16 van het aantal pixels en nog groot genoeg op 31 inch.
Heb ook een resolutie uitgerekend waarbij de diagonaal 27 inch is.
Ik heb de 4K monitor eigenlijk voor m'n DSLR gekocht, vandaar.
Deze is sneller aangekondigd dan verwacht! Had liever al de 1080ti aagekondigd zien worden, maarja zo is het verloop van Nvidia nou eenmaal niet. Wil een nieuwe pc bouwen met custom water loop, en het zijn net deze nieuwe kaarten waarop ik aan het wachten was. 1200 Dollar (En dus nog meer eurotjes) is toch wel erg veel. 1080ti zal dit jaar denk ik niet meer komen? Dan wordt het misschien toch een 2de handse 980ti of een 1070 als tussenstap.
Ze zouden wel erg dom zijn bij Nvidia om gelijk met de launch van de Titan er een Ti versie bij te lanceren. Die Ti's presteren altijd gelijk, misschien hier en daar een paar procent minder dan de Titan voor een véél lagere prijs.
= minder winst voor Nvidia als ze gelijk een Ti zouden brengen.
Als tussenstap zou ik dan voor een GTX1070 gaan, de goedkoopste kosten nu zo rond de 470 euro.. Het prijsverschil met een 2e hands GTX 980Ti waar men nu ook nog meer dan 400 euro voor vraagt is te klein.. Bovendien is de GTX1070 iets sneller en zal waarschijnlijk minder snel in waarde zakken op de korte termijn dan de 980Ti waardoor het verschil qua geld nog kleiner wordt..

Maar het blijft altijd een beetje gokken met dat soort zaken.. Als je nog even kan wachten is dat het beste.. Het is nooit echt heel slim om in een periode van overgang in generaties een nieuwe videokaart te kopen (hogere prijzen etc).. Beste tijd zal rond eind dit jaar zijn vermoed ik, dan weten we waarschijnlijk ook meer over een mogelijke GTX1080Ti..

[Reactie gewijzigd door Inflatable op 22 juli 2016 12:58]

Ik draai nu 2x 970 sli wat vaak meer dan genoeg is voor 1440p, maar wil terug naar 1 kaart. Het ligt een beetje aan de scaling van de aankomende games of ik ga kiezen voor een tussenstap zoals de 1070. No man's sky en BF1 staan op mijn lijstje, dus we zullen zien.
BF1 staat ook op mijn lijstje.. Ik hoop stiekem op een 1080Ti bundle met BF1, dan weet ik het wel.. :P

Voor 1440p is een 980Ti of 1070 genoeg om de performance van 2x970 te vervangen..
Voor wie is deze kaart nou eigenlijk bedoeld? Over een paar maanden is er een 1080ti die even snel is als deze kaart, en volgend jaar is er een 1180 die beide kaarten compleet verpulverd voor de helft van een Titan X.

Dus wat is nou de meerwaarde van een Titan X. Gewoon omdat het kan?
Klopt, en het jaar daarna komt de 1280 die de 1180 compleet verpulverd.
En het jaar daarna komt de 1380 die de 1280 compleet vervpulverd.
En het jaar daarna......

What else is new?
Deze kaart is bedoeld voor mensen die niet verlegen zitten om duiten, poen, knaken.
Deze kaart is bedoeld voor mensen die op dit moment het neusje van de zalm willen, ongeacht de prijs. En ja, die mensen zul je altijd blijven houden.
Ik ben geen expert op het gebied van grafische kaarten maar er zit een verschil tussen workstation en gaming taken voor een GPU, de manier waarop en waarmee berekend wordt voor games en bijvoorbeeld een wiskundige berekening werken heel anders. De TITAN X is een workstation georiënteerde kaart waarmee je (als voorbeeld) password databases kunt kraken door alle pasworden te ont-hashen (erg leuke informatieve video met 4 titans https://www.youtube.com/watch?v=7U-RbOKanYs)

Het kan dus zomaar zijn dat de 1080Ti sneller/beter is in vergelijking tot gamen en FPS behalen, maar technische berekeningen weer een stuk minder dan de TITAN X.

[Reactie gewijzigd door infernal_nl op 22 juli 2016 10:12]

wat je zou kunnen omschrijven als een "workstation" element is als deze titan weer aanzienlijke FP64 performance heeft, wat waarschijnlijk niet zo zal zijn. Maar ook met "workstation" taken wordt FP64 vaak niet gebruikt. Er is niets echt "workstation" aan deze titan en waarschijnlijk zal er ook geen groot verschil zijn met de 1080 ti die nog moet komen.

ECC vram wat high end quadro's en tesla's hebben is ook een pro feature, maar dat ontbreekt ook. Deze titan x zal gebaseerd zijn op de high end 6000 quadro die dat wel heeft.

De extra vram kan wel erg handig zijn.

Qua gamen, niks daalt harder dan een titan in waarde :)
Een hoop werk waarvoor je een workstation zou aanschaffen heb je geen FP64 nodig en kun je prima met FP32 af. Alleen als je bijvoorbeeld ongelooflijk nauwkeurige interacties of systeem staten zou willen gebruiken is FP64 enigszins nuttig. Maar het merendeel gaat met FP32.

NVIDIA weet dit en heeft een tijd twee reeksten naast elkaar gehad. Die met Maxwell (M6000 en lager) en met de GK110B, die uitkwam toen maxwell al uit was. Die laatste zit bijvoorbeeld in de tesla K80 en is specifiek voor de mensen die echt FP64 nodig hebben.

Dus deze Titan zou voor een meerderheid zomaar eens een veel betere aankoop kunnen zijn dan de P100 accelerator. Niet alleen omdat hij goedkoper is, maar vooral omdat hij zo te zien zelfs een hogere FP32 heeft door de hogere clocks. Mocht je meer dan 12GB vRAM nodig hebben (of echt per se 720GB/s doorvoer...) dan ben je alsnog de l*l. Die P100 is echt verschrikkelijk duur... Maar ik drijf een beetje af...
dat was idd mijn strekking ook, fp64 is vaak niet nodig :)
Gewoon omdat het kan inderdaad.. Het beste wat Nvidia kan leveren op gaming videokaarten gebied voor mensen die het weinig uitmaakt wat het kost.. De 1080Ti (als die komt, ik hoop het wel) zal er dicht tegenaan zitten qua performance net als bij de vorige generaties, maar even snel zal hij nooit zijn (stock).. Hopelijk is die 1080Ti dan wel weer een stuk "goedkoper"..

[Reactie gewijzigd door Inflatable op 23 juli 2016 02:08]

Meen je nu echt dat er in de toekomst kaarten uitkomen die sneller zijn dan de huidige of pas aangekondigde? Je verwacht het niet.
1080 Ti komt waarschijnlijk lente/zomer volgend jaar, niet over een paar maanden tenzij high end vega dit jaar nog komt. Volta is 2018.
Is dit vergelijkbaar als toendertijd met de gtx295 ?
Nope, de 295X was iirc een dual gpu kaart. Meer vergelijkbaar met, de titan reeksen. :+
Nee, de 295X2 was een dual GPU kaart, dit is een single GPU oplossing. Dit is vergelijkbaar met een 390X of een 1080, alleen dan sneller en duurder.

De 295X2 is vergelijkbaar met de Titan Z, alleen dan goedkoper en sneller.

Lezen blijft lastig... Maar streep 295X2 door en vervang door GTX295 en het klopt nog steeds.

Overigens was hij de 295, 2xGTX275. Maximaal aantal shaders als een 280, bus en memory van een 260.

[Reactie gewijzigd door Thekilldevilhil op 22 juli 2016 13:38]

Hij heeft het over de GTX 295 van Nvidia, 2 GTX 280's in 1 kaart, en niet de r9 295X2 van AMD.
Het heeft allemaal geen zin om achter deze kaarten te hollen... al die fabrikanten blijven maar om de zoveel maanden nieuwe kaarten uitbrengen.
Om de zoveel maanden?
Meestal ieder jaar een nieuwe serie, al dan niet een rebrand van de oude met een verbeterde architectuur. Meestal gaan de nieuwe architecturen een kaar ef 1,5 a 2 mee.

Dus zo snel gaat het nu ook weer niet.
Jullie praten over twee verschillende dingen, Ozturk7070 bedoelt dat er nieuwe modellen uit blijven komen, jij jqv, bedoelt de architectuur die inderdaad langer blijft met meerdere van dezelfde naam modellen.
idd voorheen als je een kaart had gekocht had het een bepaalde waarde, maar nu blijven die dingen maar uitkomen.. het begint steeds meer minder interessant te worden.. Elke keer een nieuwe kaart om de haverklap die 1 fps meer genereert bwv....
Dus je koopt nooit een kaart?
jahwel, maar heb destijds een GTX 580 Twinfrozr 2 gekocht en deze werkt nog gewoon goed.. het probleem is dat de waarde van je kaart gelijk al na 6 maanden 30 40 % waarde verliest..je blijft maar achter de feiten aan

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True