Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 136 reacties

Nvidia heeft de GeForce GTX Titan Z, waarvan enkele details eerder al uitlekten, officieel aangekondigd. De monstervideokaart herbergt twee gpu's met in totaal 5760 cores die het grafische werk op zich nemen.

De GeForce GTX Titan Z werd door Nvidia-ceo Jen-Hsun Huang getoond op een eigen conferentie van Nvidia. Het bakbeest heeft twee GK110-gpu's aan boord die elk kunnen rekenen met 2880 cores, oftewel 5760 cores in totaal. Ook is 12 gigabyte aan geheugen aanwezig. De rekencapaciteit van de kaart bedraagt 8 teraflops.

Volgens Nvidia is de kaart geschikt voor het spelen van games op een 5k-resolutie of meer dan één monitor. Bovendien wordt het apparaat niet warm tijdens gebruik en is de kaart relatief stil, stelt het bedrijf. Wanneer de GeForce GTX Titan Z in de winkel ligt, is onduidelijk, maar zeker is wel dat er flink wat voor moet worden neergeteld; de adviesprijs in de Verenigde Staten bedraagt 3000 dollar.

Tijdens de conferentie toonde Nvidia ook een nieuwe gpu-interface aan de wereld. NVLink, zoals de nieuwe interface heet, moet pci-express 3.0 vervangen en vijf tot twaalf keer zo snel zijn als pci-express 3.0. De GeForce GTX Titan Z is voor zover bekend nog niet van de interface voorzien.

GeForce GTX Titan Z

Moderatie-faq Wijzig weergave

Reacties (136)

Handig met het iray renderen van zeer grote projecten :)
Vooruitstrevend! Alleen maar omdat het kan. Is dit niet verschrikkelijk overkill. Ook leuk voor je energierekening denk ik.
Overkill qua performance valt wel mee als je, zoals het artikel al zegt, op 5k resolutie wil gamen of met meerdere schermen. Bang for buck is een heel ander verhaal.
Vooruitstrevend
Euh... 2003 wil graag even een goed gesprek met je aan gaan ;)
2 en zelfs 4 GPUs op 1 kaart was een decennia terug ook al in het nieuws, ook op consumentenkaarten (op CAD gebied kwam het wat meer voor, naast rijen en rijen aan geheugen)
Hij zal qua verbruik nog (relatief) meevallen t.o.v. bijv dual R9 290x etc
Nou ik denk dat niet want er staat 2kwatt dus 2000 watt nodig maar je hebt wel gelijk dat de amd kaarten meer verbruiken dan nvidia normaal
Ah gewoon ff kracht stroom aansluiten :P
Kan iemand mij uitleggen waarom de gemiddelde videokaart en ook de high-end kaarten dus, zo duur zijn?
ten eerste de gimmiddelde videokaart ligt zo tussen de 100 en 300 euro en zijn dus niet zo duur

dit is een render kaart niet speciaal gemaakt voor gaming dus ook voor andere doeleinde
dit betekent dus ook dat men betere ondersteuning krijgt en betere drivers/features daar betaal je dus ook dik voor
Omdat er helaas nog steeds idioten zijn die het betalen.

Zolang mensen geen besef van geld hebben of gewoon teveel geld hebben blijven dit soort prijzen sociaal geaccepteerd en dus bestaan.

[Reactie gewijzigd door computerjunky op 25 maart 2014 18:54]

Dus eigenlijk houden ze de prijs kunstmatig hoog?
Als mensen niet meer betalen gaan de prijzen idd vanzelf zakken totdat het product niet meer winstgevend is en dan stoppen ze met de verkoop.

Maar als ik zo ff snel google had nvidia in Q`1 2013 bijna 78 miljoen netto winst een stijging van meer dan 3% met Q4 2012 dus er zit nog zat rek in de prijs van nvidia producten en dus word het puur hoog gehouden doordat mensen het ervoor betalen.
En nvidia is fors duurder dan amd voor dezelfde preformance + physx.
amd had laatste kwartaal 89 miljoen dollar nettowinst en daar zijn investeringen en kosten van afgetrokken dus ook zij maken zat winst al ebben die ook een serieuzere cpu afdeling dus waar de winst vandaan komt is moeilijk te zeggen.
Waarschijnlijk niet van de CPU afdeling want die gaat op en neer tussen een klein beetje winst en een klein beetje verlies draaien. Waarschijnlijk komt de meeste winst uit de GPU afdeling...
De reden dat de prijzen zo hoog zijn zijn niet de variabele kosten, want om een chip te maken ben je ongeveer een euro kwijt. De grootste kostenpost zit in de constante kosten: De R&D is gigantisch en de machines om de chips te maken zijn nou ook niet echt goedkoop. Hierdoor kunnen de prijzen zo sterk zakken na een paar jaar, omdat de constante kosten dan terug verdiend zijn en ze op een high end GPU (denk aan GTX780-ish) waarschijnlijk maar ¤150 of minder aan kosten hebben (koeler, ram etc).

[Reactie gewijzigd door TweakingRens op 25 maart 2014 19:38]

Die hoge winst van AMD zit hem in de release van de nieuwe consoles! Over het hele boekjaar 2013 nog steeds een dik verlies.

"Het bedrijf genereerde namelijk in het vierde kwartaal van 2013 aardig wat inkomsten door de release van de PlayStation 4 en de Xbox One. Het totale inkomen van AMD in het eerdergenoemde kwartaal komt namelijk neer op een slordige 865 miljoen dollar. In het laatste kwartaal van 2012 stonden deze inkomsten nog gelijk aan een bedrag van 326 miljoen dollar, waardoor de chip-maker opgelucht adem kan halen. Over het gehele jaar werd er namelijk nog een stevig verlies geboekt, omdat de PC-markt op z’n zachtst gezegd niet in zijn hoogtijdagen verkeert op het moment. Dit kostte het bedrijf zo’n 22 miljoen dollar, maar de release van de next-gen consoles maken het verlies dat is geboekt op deze potentieel instortende markt dus enigszins goed."
als je 89 miljoen netto winst hebt is dat heel weinig als je dat weg streept tegen ruim 10.000 medewerkers.

http://www.amd.com/us/abo...es/labor-performance.aspx

als je als bedrijf even wind tegen zou hebben, ben je die 89 miljoen in 2 a 3 maanden alleen al kwijt aan loonkosten,...dus zat winst zal ook wel meevallen.
Netto is netto en dus niet bruto.
Daar zijn de vaste lasten dus al vanaf.
Het enigste wat ze daarvan zullen gaan betalen is de research voor de volgende generatie producten en investeringen in et productieproces of andere investeringen.
En die kunnen het volgende jaar gewoon weer gedeeltelijk afgeschreven worden en kan dus de winst vergroten of het verlies verkleinen.

De totale omzet van amd was meer als 800 miljoen en daar hebben ze dus alle salarissen van betaald.
Loon is kosten post dat is al van de omzet afgetrokken voor de winst berekening.
@ computerjunky & SG

Jullie missen zijn punt. Hij wil gewoon aangeven dat 89 miljoen niet zo veel is en dat het (bijvoorbeeld) zowat gelijk staat met 2-3 maand salarissen dat ze moeten betalen. Nergens geeft hij aan te zeggen of denken dat salarissen dat jaar zelf nog van die 89 miljoen betaald moesten worden.
Dus inderdaad, zoveel winst is het dan toch ook niet he.
Helpt misschien ook niet dat Nvidia en AMD samen in feite een duopolie bezitten. Als ze allebei hun prijzen goed hoog houden is er niemand die de prijs kan drukken.

Maar natuurlijk telt ook de marktwerking zoals jij het beschrijft.als niemand gek genoeg was om zoveel geld neer te tellen gingen de prijzen rap omlaag. Nu zie je al vaak dat kaarten bij release heel duur zijn en bijna de volgende dag al de helft goedkoper zijn. Volgens mij kunnen die kaarten dus ook wel veel goedkoper, maar er zijn zoveel gekken die toch wel de hoofdprijs voor de kaart betalen dat de producenten net zo goed eerst even op deze personen kunnen cashen.
Als je weet dat er vorig jaar 14 miljoen dedicated gpu's over de balie gingen verdeeld over bijde amd en nvidia (merendeel amd) en dat bijde bedrijven bij elkaar 158 miljoen winst maakten op deze 14 miljoen kaarten en dat er van die 14 miljoen videokaarten bijna 80% low end was kan je wel raden hoeveel winst er op de high end kaarten zit.

Dat ze veel goedkoper kunnen is een feit en een beedje econoom zal je ook vertellen dat je dan misschien niet eens minder winst totaal maakt. je moet alleen meer werk verzetten voor dezelfde winst.
Je zal immers meer units verkopen en dus meer moeten produceren.

maarja dit geld voor alle producten tegenwoordig.
Het maken van een goedkope auto kost nog geen 2500 euro en toch betalen we er bijna 10 ruggen voor en gaat zon karretje dus gaat het gewoon 4x over de kop door belastingen enz enz.
De hele GPU markt is een oligopolie. Zeker als je alleen kijkt naar het x86 platform. Daar is het alles Intel, nVidia en AMD/ATI.
Als het een embedded GPU is dan kan je er bijna gif op innemen dat het een Intel GPU is, dedicated is het alles nVidia en AMD.

Wat dit soort kaarten trouwens ook exorbitant duur maakt is dat het waarschijnlijk allemaal cherry-picked GPUs zijn.

Stel je maakt je GPU met 16 SMs, maar specificeert je top model met 15, dan kan je een boel GPUs die ergens een issue in een van de SMs hebben toch nog verkopen, je zet de defecte SM gewoon uit. Er hoeft maar 1 transistor van de tig miljoenen gaar te zijn om een hele SM kreupel te maken, dus een beetje marge inbouwen is wel wenselijk.
Nu hebben ze een aantal GPUs waarbij alle 16SMs foutloos zijn en ze allemaal aan gezet kunnen worden. De spreekwoordelijke foutloze diamant en die zijn extra duur.

Persoonlijk vind ik het wel mooi dit soort kaarten. Gewoon dik driedubbel de hoofdprijs pakken om het potje voor de R&D afdeling aandeelhouders nog wat extra te spekken.
Omdat het de snelste kaart ter wereld is en ze echt alle cores enabled hebben. Dus dit zijn manycores (gpu's in dit geval dus) waar ze 0 SIMD's hebben uitgeschakeld en waar de volle bandbreedte richting de andere gpu ook ok werkt. Die zijn lastig te drukken hoor.

Vermoed kostprijs snel 250 dollar per gpu voor 2880 cores. Dus 500 dollar kostprijs alleen aan GPU's. Dan nog wat rommel erbij wat niet zo heel veel kost, hooguit paar dollar.

Dan is dus een verkoopprijs van 1000 dollar, wat normaal voor de snelste kaart gevraagd wordt, niet haalbaar.

Het moet namelijk minimaal 4x over de kop. 100% winst minimaal voor Nvidia en 100% winst voor de winkelier. Dan nog salestax eroverheen.

Dus 1900 dollar was een realistischere prijs geweest voor deze kaart - maar ze romen vast de markt eerst af.

Op het moment dat je een dubbele GPU released met minder dan die 2880 cores per chip en/of iets lager geklokt, dan knalt die productieprijs ineens omlaag van 250 dollar naar misschien wel 50 dollar per chip.
De 'gemiddelde' videokaart is vrij duur omdat GPUs relatief grote chips zijn, en dus complex. Zowel duur om te ontwerpen als duur om te produceren. Ook het geheugen dat er op gaat, is relatief duur (veel meer bandbreedte dan gewoon DDR3 geheugen... bij goedkope videokaarten wordt er dan ook veel bespaard door weinig geheugen erop te doen, en weinig bandbreedte/kloksnelheid).
High-end kaarten zijn nog eens extra duur omdat daarvoor alleen de hoogste 'bins' van GPUs en geheugen gebruikt kunnen worden (alleen GPUs die dusdanig zuiver zijn dat alle shader units goed werken, en ze ook nog eens op de hoogste kloksnelheid kunnen werken zonder dat ze te heet worden). Die GPUs zijn dus relatief schaars, dus duur (bij de meesten worden de niet-werkende shader units uitgeschakeld, en op een lagere snelheid geklokt, en dan als lager model verkocht).
Voor het geheugen ongeveer een vergelijkbaar verhaal: alleen het snelste geheugen, dus duurder. Vaak zit er ook meer geheugen op die kaarten, nog duurder.

Hier is het prijsbeleid dus op ingesteld: ze kunnen relatief weinig high-end kaarten maken, dus die maken ze relatief duur, zodat er veel winstmarge op zit. Op die manier spreiden ze de kosten van het ontwikkelen van een serie GPUs met een soort exponentiele functie: hoe minder ervan gemaakt/verkocht worden, hoe hoger de prijs, en dus hoe meer er per kaart terugverdiend wordt aan investering.

[Reactie gewijzigd door Scalibq op 25 maart 2014 19:05]

Waarom is een 7-serie van BMW duurder dan een 3-serie?
Absurd voor dat geld kan je 4 high end 780 TI kaarten in SLI zetten en een nieuwe moederbord en een 4770k CPU en 16 gb ddr3 2400 of hoger in je pc bouwen en dan hou je nog geld over ook...

Oftewel meer dan 11.520 rekenkernen die hoogst waarschijnlijk ook nog eens op hogere frequentie draaien

[Reactie gewijzigd door computerjunky op 25 maart 2014 18:51]

Wat je helemaal vergeet, is dat deze kaart 4x zoveel geheugen heeft, op hogere resoluties kom je met 3GB niet ver!

[Reactie gewijzigd door mimang op 25 maart 2014 19:06]

Maar doordat games de fps om en om berekenen heft je geheugen 2x zo lang de tijd om het beeld te vullen geheugen te dumpen enz enz. dus ondanks dat het maar 3 gb blijft werkt het wel efficienter mdat het maar de helft van de workload krijgt en dus meer idle time heeft om de volgende frame te laden.

En overigens werkt 3 gb voor 2560x1600 meer dan snel zat zeker met high end gpu's die een geheugendoorvoor van meer dan 250 gbps halen.
voordat 4k schermen een acceptable prijs hebben en standaard zijn zijn we minimaal 5 jaar verder en deze kaart is over minder dan 2 jaar al afgescheven en verouderd.

https://www.youtube.com/watch?v=0nHKqbNX4fs
guild wars 2 op max met 5400x1920 reso nooit onder de 80 fps.

[Reactie gewijzigd door computerjunky op 25 maart 2014 19:14]

- Deze kaart is niet bedoeld voor 2560x1600... Kijk eerder naar meerdere 4K schermen.

Daarnaast, als jij 4 780Ti's, of 1 Titan Z hebt draaien ga je hoop ik echt niet spelen op 1440p... Dan hoop ik voor jou dat je echt een 4K scherm hebt!

- Die 780Ti is net zo snel afgeschreven, dus hoe kun je dat nou als argument gebruiken?
Wie heeft er nou meerdere 4k schermen deze dingen beginnen bij 1500 euro er zijn maar een handvol mensen die dat kunnen betalen en dus is het geen interessant product.

En 4x 780ti is niet net zo snel afgescheven omdat het veel sneller is dan de nieuwe titan.
Titan (Z) heeft ook andere doelgroep. Het is niet puur gericht op gamen. Ook iemand die niet het geld heeft om ¤2000+ uit te geven aan een Quadro workstationkaart.
Maar wat ik niet snap is dat ze constant met 12GB adverteren.. Het is toch altijd maar de helft effectief bij dit soort kaarten en SLI? (6GB effectief dus?)

ZIjn er progjes die wel effectief van de 2x 6GB gebruik maken?

Het is overigens wel haalbaar, 12GB per single kaart.. de Quadro K6000 is een Titan in ander jasje.. en die heeft een single core met 12GB }>

Zou t btw met de Cuda rekenkernen ook zo zijn, of wordt er wel van beide clusters gebruik gemaakt dan? :?
Hoe het bij die dual core kaarten zit weet ik niet maar wel interessant om ff uit te zoeken hehe.
Technisch gezien maar 2x. Beide kaarten hebben elk maar 6 GB tot hun beschikking.
Ik heb liever 860 kaarten :)
860 is notebook/laptop en in de verste verte niet zo snel.
Ik hoef ook geen desktop 2x 860 in je laptop. En je gaat als n speer.
^ +1 helemaal gelijk heb je computerjunky
Knetters, dat is nogal wat. Maar de prijs moet wel flink lager worden wil dit aantrekkelijk zijn- en willen ze kunnen concurreren met AMD als het om hoge resoluties gaat. Dat doet AMD echt heel goed op het moment.
Op dit moment is het gewoon '' Kijk eens wat wij kunnen maken '', om zo in de belangstelling te staan, wat leidt tot meer reclame.
Uiteindelijk was dit ook wel de logische volgende stap op het pronkgebied bij Nvidia na hun Titan, een dubbele Titan.

Net zoals de oorspronkelijke Titan: mooi ding, ziet er mooi uit, klinkt prachtig en gaat als een trein, maar met mijn budget doet ie niks, misschien over een aantal jaar als tweedehands.......
Waarom 1k uitgeven aan een titan als je voor 500 euro een 7990 (kon) kopen? Sneller,goedkoper...
De titan is natuurlijk aan prachtige kaart maar zowel deze als de eerste versie zijn veel te duur.
t.o.v. de gtx780 was hij maar marginaal sneller en wel ruim 300 euro duurder.. je betaald voor de naam.
de titan was bedoeld voor budget developers en video renderingen die geen 5000 euro willen neer tellen voor een beetje degelijke render kaart...
dat hij ook goed was voor gaming was mooi mee genomen

als je het al gaat vergelijken doe het dan in de juiste context

de drivers voor de titan zijn dus ook veel stabieler en hebben meer features voor kleuren correctie daar betaal je voor

[Reactie gewijzigd door firest0rm op 25 maart 2014 19:12]

Zover ik weet is dit een 'Enthusiast card'.

Voornamelijk bedoelt voor mensen die enthousiast zijn en geld zat hebben!
Wil je gaan renderen ben je toch beter af met een Tesla of Firepro lijkt mij
Titan is dan ook geen gamers kaart.
En toch staat er "Volgens Nvidia is de kaart geschikt voor het spelen van games op een 5k-resolutie of meer dan één monitor. Bovendien wordt het apparaat niet warm tijdens gebruik en is de kaart relatief stil, stelt het bedrijf."

Het mag dan wel niet voor gamers zijn, maar Nvidia is dan wel weer slim genoeg om hem zo te adverteren. Of misschien is alleen dat stukje overgenomen in he artikel. Ik vind het eerder gewoon een videokaart voor enthusiasts die gamen, en zelfs daarvoor was de eerste titan niet eens zo goed. Nvidia's prijzen zijn atlijd al te hoog geweest, hoe goed hun producten ook mogen zijn.
En wie denk je dat er nu het warmst lopen van zo'n kaart bij Nvidia? Juist ja, gamers. Anders waren er toch geen zotten die twee van die prijskaartjes in hun pc steken om wat te gamen...
Eigenlijk wel benieuwd wat de verkoopcijfers zijn van gamers tov professionals tov amateurs (mensen die hetzelfde doen als professionals -dus niet gamen- maar op een kleinere schaal en als hobby). Kan best zijn dat professional verkopen heel wat hoger liggen want die hoor je er nauwelijks over.
Ach, niet per se slecht, als je het mij vraagt. Ik vind het wel mooi als ze zichzelf eens helemaal pushen om iets extreems te maken, en het zou mooi zijn als technieken uit deze kaart de weg vinden naar lower-end kaarten.
Dit is onzin de hele gpu chip famililijn deelt de architectuur.

Het is gewoon modulariteit. een bigger chip binnen dezelfde chip familie, heeft gewoon veel meer van diezelfde architecture logic blokken dan low budged chipje.
Misschien, maar ik bedoelde deze opmerking meer in het algemeen. Een beetje zoals in hoe functies vanuit de F1 naar personenauto's gekomen zijn. En ik hoop dus dat iets dergelijks ook gebeurt met videokaarten.
Dat bedoelt SG ook: er wordt 1 architectuur ontwikkeld, waar high-end, midrange en low-end producten van worden afgeleid.
In een low-end kaart zitten over het algemeen dus gewoon dezelfde nieuwe technieken als in een high-end kaart van die generatie.

In dit geval loopt deze kaart zelfs een generatie achter: deze kaart is nog gebaseerd op Kepler, terwijl nVidia al de 750Ti verkoopt met de nieuwe Maxwell-architectuur (die vooral qua performance-per-watt een behoorlijke sprong maakt).

[Reactie gewijzigd door Scalibq op 25 maart 2014 21:46]

Volgens mij is er weinig technologie uit de F1 in de autowereld terecht gekomen. De techniek die ze begin jaren 90 gingen gebruiken (wat eigenlijk letterlijk Ayrton Senna in 94 zn dood betekende) werd het seizoen daarop meteen weer verboden. Techniek als tractiecontrole, ABS etc. Allemaal technieken die al sinds 1978 in de autowereld beschikbaar waren.

Zo ook de turbo's die ze in de jaren 70/80 gebruikte bestonden al eeuwen.
Knoppen op je stuur, HUD's, nieuwe schakelbakken ( DSG.)
In formule 1 hebben ze alles verfijnt en efficienter en robuster gemaakt. Geloof me, er is heel wat techniek uit de formule1 in de huidige motor techniek gekomen. 20 jaar geleden kon je zelf nog met schroevendraaier en sleutels aan de gang. Tegenwoordig heb je heel wat apperatuur nodig om aan een motor iets te kunnen doen. Ju kunt niet meer tunen door aan een boutje te draaien.
en hoe komt dat? Formule1
AMD was afgelopen week aan het teasen met een dual Hawai. Nvidia had deze waarschijnlijk al klaar liggen om het dual Hwai feestje te bederven. Gewoon een Halo-product. Meer moet er niet achter gezocht worden. En mooi meegenomen mochten ze door de ontwikkeling ervan wat bijgeleerd hebben.

En intussen kunnen ze de aandacht afleiden van het feit dat Maxwell nog weer wat later zal zijn.

[Reactie gewijzigd door Jack77 op 25 maart 2014 19:11]

Maxwell is er anders al wel, in de vorm van de GTX750(Ti). Wellicht nog niet op het beoogde proces en als high-end kaart. Maar toch...
Dat is niet de Maxwell-variant waarop de wereld zit te wachten. De GTX750-reeks is eerder een proof-of-concept-and-production, vind ik.
Zeer mooi speelgoed, zou er graag een willen hebben. (haha wie niet)

Maar 3000 dollar, jah..

Zijn er overigens al benches waarbij meerdere Titans het mogelijk maken om goed te spelen op 4k resolutie? Volgens mij waren ze nog net niet snel genoeg daarvoor?
Jemig wat een beest van een kaart, echter een ding: 2800 + 2800 != 5760 of ben ik nu gek geworden
Typo, het zijn 2880 cores.
Bij dit soort kaarten gaat het niet om het directe commerciële succes. Het niet direct in geld uit te drukken goede imago als fabrikant met de snelste kaart is veel belangrijker. De "midrange" kaarten verkopen hierdoor een stukje beter en hier wordt het gros van de omzet gehaald.
Prijs zou zo'n $2999 zijn :o

Er zijn 2880 cores per GPU

http://blogs.nvidia.com/blog/2014/03/25/titan-z/

[Reactie gewijzigd door Dragunov op 25 maart 2014 18:50]

Niet nog een propriétaire standaard erbij plz :(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True