Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia kondigt Titan V met Volta-gpu aan

Nvidia heeft een nieuwe kaart in zijn Titan-serie aangekondigd. De Titan V is net als de Tesla V100-accelerator voorzien van een GV100-gpu, die op de Volta-architectuur gebaseerd is. De kaart heeft een adviesprijs van 3000 dollar.

De directeur van Nvidia, Jen-Hsun Huang, presenteerde de Titan V tijdens de NIPS 2017-conferentie. Hij toonde de goudkleurige kaart, die verder over hetzelfde ontwerp en koeler met vaporchamber als de voorganger, de Titan Xp heeft.

Het gaat om de eerste kaart voor pc's met een op de Volta-architectuur gebaseerde gpu, de GV100. Deze chip met omvang van 815mm² en 21,1 miljard transistors, gebruikt Nvidia ook voor zijn Tesla V100-accelerator. Net als bij die kaart benadrukt Nvidia de deeplearningprestaties. Dankzij de aanwezigheid van 640 zogenoemde tensor-cores, zouden de prestaties voor het trainen van deeplearningnetwerken op 110 tflops liggen.

Ten opzichte van de Tesla V100 heeft de Titan V minder geheugen: 12GB hbm2 versus 16GB hbm2. Ook is de geheugenbus met 3072 bits minder breed dan die van de Tesla, die een 4096bit-interface heeft.

De Titan V is een dualslot-kaart met drie keer displayport en hdmi. De tdp ligt op 250W en de kaart betrekt zijn voeding via de 8+6-pins connector, waarbij Nvidia het gebruik van minstens een 600W-voeding adviseert. De kaart krijgt van Nvidia een adviesprijs van 3000 dollar, omgerekend en met btw is dat 3078 euro. Het bedrijf richt zich op de professionele consumentenmarkt met de Titan-kaarten.

Nvidia Titan vs Tesla-specificaties
  Titan V Tesla V100
(pci-e)
Tesla P100
(pci-e)
Titan Xp
Cuda-cores 5120 5120 3584 3840
Tensor-cores 640 640 - -
Core-kloksn. 1200MHz ? ? 1485MHz
Boost-kloksn. 1455MHz 1370MHz 1300MHz 1582MHz
Geheugen 1,7Gbit/s hbm2 1,75Gbit/s hbm2 1,4Gbit/s hbm2 11,4Gbit/s gddr5x
Geh.-interface 3072-bit 4096-bit 4096-bit 384-bit
Geh.-bandbreedte 653GB/s 900GB/s 720GB/s 547GB/s
Geh.-hoeveelheid 12GB 16GB 16GB 12GB
L2-cache 4,5MB 6MB 4MB 3MB
Single precision 15 tflops 14 tflops 9,3 tflops 12,1 tflops
Double precision 7,5 tflops?
(1/2 rate)
7 tflops
(1/2 rate)
4,7 tflops
(1/2 rate)
0,38 tflops
(1/32 rate)
Tensor-prestaties
(Deep Learning)
110 tflops 112 tflops N/A N/A
Gpu GV100
(815mm²)
GV100
(815mm²)
GP100
(610mm²)
GP102
(471mm²)
Transistors 21,1 miljard 21,1 miljard 15,3 miljard 12 miljard
Tdp 250W 250W 250W 250W
Formfactor pci-e pci-e pci-e pci-e
Koeling Active Passive Passive Active
Productieprocedé TSMC 12nm FFN TSMC 12nm FFN TSMC 16nm FinFET TSMC 16nm FinFET
Architectuur Volta Volta Pascal Pascal
Introductiedatum 07/12/2017 Q3'17 Q4'16 07/04/2017
Adviesprijs $2999 ~$10000 ~$6000 $1299

Tabel samengesteld door AnandTech

Door

Nieuwscoördinator

160 Linkedin Google+

Submitter: caesar1000

Reacties (160)

Wijzig sortering
Gaan we weer, een hoop comments die beweren dat "Titans" voor "prosumers" bedoeld zijn. Dat geldt alleen deels voor de eerste generatie Titans (Kepler, GK110) en deze. Titan X (Maxwell, GM200), Titan X (Pascal, GP102) en Titan Xp (Pascal, GP102) bestaan enkel en alleen omdat het kan. Een prosumer wil één of meerdere van de volgende dingen:

- Geoptimaliseerde drivers voor professionele toepassingen
- Bakken geheugen
- ..met ECC
- FP64 (Dual Precision) performance

De latere generaties Titans hadden niets van dat alles. 12 GB was de beste eigenschap. Als het je om FP64 gaat, dan is zelfs een 5870 (jawel, dat AMD ding uit september 2009) nog twee keer zo snel als Titan Xp. De eerste generatie had wel nog FP64, maar 6 GB geheugen was dan weer relatief beperkt. Als een budget Quadro werkte hij op papier wel, hoewel je de drivers niet had en een Quadro dus nog steeds sneller was.

En dat laatste is waar het om gaat. Nadat AMD de grens tussen consumer en prosumer deed vervagen, kwam Nvidia ineens met driver 385.12 op de proppen. Daar zaten een aantal van de Quadro optimalisaties in waardoor Titans magisch veel beter presteerden in enkele "pro" toepassingen. Het is te hopen dat Nvidia die trend door zet, want $3000 voor een huis-tuin-en-keuken kaart is nog altijd erg veel geld, vooral met slechts 12 GB geheugen.

Deze Titan is nog vreemder dan de vorige. FP64 performance is wellicht nog steeds ruk, je mist nog steeds ECC, 12 GB geheugen is zoals gezegd niet bijzonder veel. Als je met DL bezig bent kan het wel interessant zijn, daar ben je minder afhankelijk van driver ondersteuning. Als dat laatste echter weer zonder de Quadro optimalisaties is dan is $3000 toch nog prijzig, ook al ben je bezig met DL.

Edit: zie dat de 7,5 TF FP64 inmiddels bevestigd lijkt te zijn.

[Reactie gewijzigd door Werelds op 8 december 2017 10:55]

Meh dit is echt bullshit. Met deze kaart heeft Nvidia:
  • De hoogste FP64-performance
  • De beste FP64/prijs verhouding
  • De hoogste Tensor FP16-performance
  • De beste Tensor FP16-prijs/kwaliteit verhouding
Over het geheugen is nog niks bevestigd, het zou heel goed kunnen dat het wel gewoon ECC is. Ja 12 GB is minder dan 16 GB en de bandbreedte is iets lager, maar deze kaart is dan ook een vijfde van de prijs. Nvidia heeft al aangegeven dat deze kaart gewoon compatible is met de reguliere compute en deep learning frameworks.

Met de Titan V is dit echt weer een hybride GeForce- en Tesla-kaart, in tegenstelling tot de Maxwell en Pascal varianten van de Titan.
Deep learning is IDD geen broodje marketing aap verhaal en 12 GB heb je dan ECHT nodig.

[Reactie gewijzigd door A87 op 8 december 2017 18:25]

12 GB heb je dan niets aan, veel te weinig ;)
Denk er wel aan dat de Tensor cores slechts beperkt ingezet kunnen worden. Die doen slechts 4x4 FP16 matrices, dus daar moet je code wel op aangepast zijn.

Verder zeg ik ook juist dat deze kaart het meest "prosumer geschikt" is van alle Titans, maar het blijft nog steeds een vreemd product, want ze hebben inmiddels ook bevestigd dat deze gewoon op GeForce drivers draait. Voor compute maakt dat geen ruk uit, maar het betekent ook wel weer dat er een deel van de prosumers niet bijster veel aan heeft.
Is deze kaart nu fors sneller dan een 1080ti? Voor de consumenten die geld als water hebben?
Nee. Tenzij je de kloksnelheden (en spanning) fors op gaat schroeven, wat de koeler hoogstwaarschijnlijk niet aan kan (even los van het feit dat het stroomverbruik dan uiteraard de pan uit rijst). Ik betwijfel of er veel headroom is.

Op papier heeft hij out of the box zo'n 25% meer rauwe FP32 performance. Dat vertaalt zich zelden 1:1 naar prestaties in game; bij dit ding eens te meer zo, omdat scheduling nog een stuk lastiger zal zijn.
De kaart heeft 33% meer cores en ene clocksnelheid die 20% lager ligt. Als je de clock omhoog kan gooien dan is hij absoluut wel fors sneller.

Daarbij is het de vraag hoe de Volta architectuur zich verhoudt tot de Pascal architectuur.

[Reactie gewijzigd door Hukkel80 op 8 december 2017 12:20]

Met welke cijfers reken jij?

De core clock is 1200 MHz, de boost clock 1455. Voor een 1080 Ti liggen die op 1480 en 1582 respectievelijk (ik zal max boost voor het gemak negeren); dat is 19% en 8,1% trager respectievelijk. Het aantal SP's is 5120 tegenover 3584; dat 42,9% meer.

Op de boost kloksnelheden geven Titan V en een 1080 Ti dan dus respectievelijk 14899,2 GF (14,9 TF) en 11339,8 GF (11,3 TF). Dat is 31,4% sneller. Neem je echter de max boost van een 1080 Ti dan zit je al op 1645 MHz en 11,8 TF. Dan heb je het al over slechts 26% sneller op papier.

Het grote verschil is echter de chip zelf: GP102 is 471mm², GV100 is 815mm². Dat is een 73% groter oppervlak dat van spanning en koeling voorzien moet worden. De spanning ligt in GV100 waarschijnlijk al even hoog als in GP102, zo niet hoger - ondanks het verschil in kloksnelheden. Grote kans ook dat deze onder volle belasting niet veel verder dan die 1200 komt.

Die 1455 haal je hoogstwaarschijnlijk niet onder volle belasting, waar je met een 1080 Ti probleemloos 1645 haalt zonder te knoeien met powerlimits.

Kan hij sneller zijn? Zeker. Met die koeler met de specs zoals gepresenteerd echter niet. Daar krijg je die 815 vierkante millimeters van z'n leven niet mee gekoeld. Ik weet ook niet of we waterblokjes kunnen verwachten hiervoor.
Ik rekende ten opzichte van de Titan Xp. Niet de 1080ti. Ik vond dat meer passend, maar is uiteraard debatable.

En je neemt niet mee de overgang in architectuur. Die toename weet je niet. Alleen Nvidia. En die roepen al maanden en maanden dat Volta sneller is.
Ook bij de koelcapaciteit is maar de vraag of jouw aanname klopt. En een waterkoelblok zal wel komen, al is het maar voor de status van de bedrijven erachter.

Maar goed uiteindelijk gaat het om de vraag of hij flink sneller zal zijn. En de specs geven aan dat hij daar de potentie voor heeft. Jouw berekende 25% dan maar als minimale toename nemend. Maar een verbeterde architectuur en wat gepruts aan de clocks en je praat als snel over een behoorlijk hogere performance toename.

Is dat 3k waard? Voor mij n iet in ieder geval. Maar deze kaart afdoen als een niet grote toename is denk ik wat kort door de bocht.
Kan ook, dan wordt de vergelijking nog schever. Een Xp haalt de 12,2 TF op max boost.

Verbeteringen in de architectuur weten we nog helemaal niets van, maar vooralsnog lijken die er nauwelijks te zijn. Er zijn inmiddels wel wat vergelijkingen tussen P100 en V100 te vinden en hoewel er daar op papier 50% meer FP32 performance te halen is, komt dat er in de praktijk niet uit. In de meeste gevallen komt het tussen de 20% en 40% uit. Alleen met een neuraal netwerk dat heel breed op FP16 opereert zie je echt winst met V100. Verschil tussen Titan V en V100 is er niet. Het is allebei GV100, dus daarmee

Die 25% als minimaal nemen is juist de verkeerde aanpakken. Die 25% van mij is theoretisch. Dat komt er zelden helemaal uit. Enige verdere winst zou uit gaming-specifieke winst moeten komen, wat niet in dit ding gaat zitten. Daarvoor zullen we op GV102 moeten wachten. Het enige wat er in GV100 zit dat *misschien* iets van winst op zou kunnen leveren voor graphics is de verfijnde scheduling. Echter zit dat op warp niveau, wat in het geval van graphics eigenlijk al te laat is.

Er wordt veel te veel verwacht van een product zoals dit. Dit heeft slechts één doel en dat is hun tensor cores de markt in te drukken. Dit ding is een goede manier om dat naar meer potentiële kopers te doen, zonder hen daarbij meteen $10k in het rood te forceren.

[Reactie gewijzigd door Werelds op 8 december 2017 14:17]

We zullen het eens moeten worden dat we het niet eens zullen worden.
Ik verwacht een behoorlijke performance toename.

Al ben ik het wel eens met de 10k in het rood :)
Daar zijn we het inderdaad over eens :+

Wat ik je wel met 100% zekerheid kan zeggen is dat enige resultaten met betrekking tot graphics op dit ding helemaal niets zeggen over wat we voor consumenten kunnen verwachten. GV102 zal er heel erg anders uit zien, dat verschil wordt groter dan tussen GP102 en GP100 ;)
Draaien al die pascal GPU;s niet gemakkelijk op minstens 2000mhz, en de meeste zelfs rond de 2100?
Over het algemeen wel, maar dan gaat het verbruik ook een stukje mee omhoog uiteraard ;)

Vooralsnog ga ik er van uit dat het daadwerkelijke verbruik van Tesla V ongeveer gelijk komt te liggen met GP102, tussen de 250W en 300W onder volle belasting, maar wel met hogere temperaturen. Vandaar die relatief lage clocks en vandaar ook dat ik verwacht dat hij onder FP32 belasting niet veel boven de 1200 komt.
Als FP64 zo ruk is misschien is Volta dan ook helemaal niet bedoeld FP64 toepassingen?
Ik zie dat de 7,5 TF FP64 inmiddels bevestigd is, althans, de meeste sites zetten er geen vraagtekens bij.

Maar nee, GV100 is vooral voor DL bedoeld. Daarom is dit ook zo'n vreemd product.
Nee joh ook de recente titan's zijn prima prosumer gpu's, dat lijstje wat jij noemt doet er vaak helemaal niet zo toe

https://www.onestopsystem...rator-geforce-gtx-titan-x
https://www.thinkmate.com/systems/servers/gpx/titan-x
https://exxactcorp.com/ne...TITAN-X-GPU-Platforms.php

compute is compute, fp64 is vaak helemaal niet nodig, ecc ook niet, speciale drivers ook niet.
Dat Titans op die manier gebruikt worden wil niet zeggen dat ze dat ook de beste keus voor dat doel maakt. Het een "prosumer" product noemen betekent dat het ding iets biedt voor prosumers dat de gangbare consumenten producten niet bieden. Dat doen ze niet of nauwelijks. Sterker nog, ze bieden dingen waar je in sommige gevallen helemaal geen boodschap aan hebt, zoals display outputs, wat het verbruik omhoog krikt. Afhankelijk van je doel geeft een stel Ti's of daadwerkelijke prosumer producten als een Tesla of Quadro meer waar voor je geld.
Het lijkt me logischer dat als ze zo gebruikt worden het ook de meest logische keuze in die situatie is :p

De 1080ti ligt idd dicht tegen de titan xp aan door z'n hoeveelheid vram maar globaal kan je zeggen dat voor een beetje meer geld dan de -ti je extra compute en vram met de titan in huis haalde. De stap naar meer vram of meer compute is daarna veel groter.

En nu is er geen quadro of xx80 -ti met de compute van een Titan V dus kunnen ze lekker vragen wat ze willen :)
Blender Cycles op GPU compute is puure FP32 load, ik heb dan ook profijt bij een sloot FP32 cores.
Hier zouden de titans in uit moeten blinken, maar als je goed naar de specs kijkt is de 1080Ti eigenlijk een Titan x pascal met 1gb minder maar een stuk goedkoper, en presteerd zeker beter met OC.

Deze Titan lijkt meer voor deep learning bedoeld maar ik denk dat de markt daarvoor momenteel nog kleiner is dan voor CUDA workloads, zeker voor die prijs, waar je eigenlijk vier 1080Ti's van kan halen.

Ik merk ook dat CUDA een compleet andere soort load is en ik de clocks veel verder kan pushen dan wat stabiel zou zijn voor gaming, wat zeker helpt in renders die meer dan een paar uur duren.
Titan V biedt wel:

"Users of TITAN V can gain immediate access to the latest GPU-optimised AI, deep learning and HPC software by signing up at no charge for an NVIDIA GPU Cloud account. This container registry includes NVIDIA-optimised deep learning frameworks, third-party managed HPC applications, NVIDIA HPC visualisation tools and the NVIDIA TensorRT™ inferencing optimiser"
Het wordt onderhand wel écht belachelijk wat NVidia voor de high-end kaarten durft te vragen, drie duizend euro voor een videokaart!!
Is dus 2.5x zo veel als de voorganger van deze kaart, wat een gekkigheid.
Dat komt omdat de chip bijna 2x zo groot is als een Titan XP (815mm²) vs (471mm²).
Dit komt waarschijnlijk door de aanwezigheid van die tensor cores.
Hierdoor dus niet alleen bijna 2x zoveel silicon nodig maar het is ook moeilijker om een chip te krijgen zonder fouten.
Voor consumenten dus totaal niet aantrekkelijk.

[Reactie gewijzigd door DoubleYouPee op 8 december 2017 09:06]

Deze kaart is dan ook niet voor "ons" gemaakt om mee te gamen.
Dat zeg ik ook niet, staat in het artikel ook netjes vermeld onder de noemer 'professionele consumentenmarkt'.
Laat niet staan dat als je ten opzichte van de vorige generatie van je product, de prijs maal 2.5 keer over de kop gaat, men een beetje raar ervan staat te kijken.
Laat ik voorop stellen dat 3000 dollar natuurlijk veel geld is, maar de Titan V is volgens mij niet de opvolger van de Titan Xp. De grafische prestaties van de V zijn niet veel anders dan die van de Xp; de normale single precision en geheugen prestaties zijn nagenoeg hetzelfde. De verschillen zitten in de double precision prestaties en de single precision prestaties voor de tensor cores. Double precision wordt eigenlijk alleen voor bepaalde GPGPU applicaties gebruikt en tensor cores zijn er voor kunstmatige intelligentie.

De Titan V is vooral een 'goedkopere' versie van de Tesla V100. Waar die laatste waarschijnlijk vooral door giganten zoals google, amazon en facebook zal worden gebruikt (en die ze ook al lang en breedt hebben aangeschaft, want voor hen is een paar maanden achterlopen te kostbaar) zal denk ik de Titan V eerder voor kleinere bedrijven en onderzoekers worden gebruikt (zoals die nu ook vooral Titans en 1080TIs gebruiken en geen Quadro/Tesla).

Single precision voor deep learning is wel bijna 10 keer zo hoog als bij de Titan Xp dus als je het zo bekijkt is $3000 helemaal niet zoveel; 10 1080TIs kosten nog veel meer!
Als je een workload hebt die met een GPU als deze gebaat is valt dit bedrag waarschijnlijk reuze mee. Voor het trainen van neurale netwerken bijvoorbeeld is ieder stukje performance welkom. Ik weet niet hoeveel bonus men in de praktijk krijgt van de bijgeleverde accelerator maar als het redelijk is spaart dit al veel koffiepauzes uit :9
Hou er ook rekening mee dat bijv. de die van deze GPU bijna 2x zo groot is als die van de vorige generatie. Dat zal er voor zorgen dat de yields (bruikbare die's per wafer) ook flink lager zullen want ten eerste haal je veel minder die's per wafer, maar ook de kans op een onherstelbare fout in een die zal flink toenemen, wat er voor zorgt dat de prijs per die flink toeneemt. Al met al is de GV100 gewoon een veel duurdere GPU om te fabriceren dan de GP102.

Tel daar nog wat kleine zaken bij op als de overgang naar HBM2 en het is vrij logisch dat een kaart als deze op dit moment relatief duur zal zijn t.o.v. zijn voorganger.
Dat kan op de professionele markt, een product moet zijn investering waard zijn en het moet een voordeel hebben t.o.v. de concurrentie. Bedenk ook dat een paar duizend euro een investering van niets is, daar kun je waarschijnlijk een werknemer een maand van betalen. De kaart is sneller, maar is de TDP gelijk gebleven. Je spaart dus ook nog stroom. Verder is de kaart een stuk goedkoper dan de Titan V100, ik vermoed dat de presaties niet veel schelen.
Toont aan in wat voor nesten AMD momenteel zit met Vega denk ik. Ik denk dat het HBM2-geheugen de prijs vd Titan V fors opdrijft en Vega maakt daar ook gebruik van. Ik vraag mij af of AMD wel winst maakt op hun Vega-kaarten momenteel. De Tensor-cores gaan ook wel hun duit in het zakje doen.

[Reactie gewijzigd door Fredi op 9 december 2017 03:11]

Er is wel al vaker gemeld dat de Volta chips veel moeilijker zijn te maken en veel duurder. dit is de grooste reden waarom we nog geen nieuwe GPU lineup hebben na bijna 16 maanden

https://www.dvhardware.net/article67059.html
Artikel over de de V100 chip
Nou, NVidia liet tijdens een bespreking van de kwartaalcijfers (als ik het me goed herinner, iig een vergadering met aandeelhouders) duidelijk merken dat het zichzelf in de voet zou schieten wanneer het op korte termijn Volta breed zou uitrollen omdat Pascal eenvoudigweg nog veel te goed presteerde. Zonder echte concurrentie van AMD levert het NVidia veel meer op om Pascal te blijven verkopen dan om met zichzelf te concurreren met Volta.
Als een generatie kaarten langer op de markt blijft is dat ook goed voor de consument.
Je investering blijft immers langer up to date :)
Zolang de 4k schermen vrij duur blijven zie ik ook weinig reden overigens.
Als een generatie kaarten langer op de markt blijft is dat ook goed voor de consument.
Je investering blijft immers langer up to date :)
Zolang de 4k schermen vrij duur blijven zie ik ook weinig reden overigens.
Gebrek aan concurrentie is nooit goed voor de consument omdat je altijd meer betaalt voor minder kwaliteit/functionaliteit. Concurrentie drijft prijzen omlaag en kwaliteit omhoog. Hoe een gebrek aan concurrentie tot een betere investering zou leiden snap ik absoluut niet.

4K schermen blijven langer duur omdat alleen mensen met geld voor een 1080(TI)/Titan ze willen hebben. Als instap-GPUs in 4K kunnen renderen is de markt voor 4K schermen opeens 10 keer zo groot en verschuift ook daar de concurrentie van concurreren op kwaliteit naar concurreren op prijs.

[Reactie gewijzigd door Dorstlesser op 8 december 2017 13:35]

Twee zijden aan het verhaal.
Enerzijds is het voor de normale consument zo dat bij weinig concurrentie zijn/haar computer lekker lang mee gaat, omdat de software zich ook weinig door ontwikkeld en oude platformen nog steeds onderhouden worden. Dus als Jan Doedel in 2010 ofzo 700 euro uitgaf voor een computer werkt dat ding 6/7 jaar later nog steeds als een speer voor allerdaagse taken. Die zal al die nieuwe technieken als 4K een worst wezen en met hem 80/90% van de rest van de wereld zolang z'n computer maar niet verschrikkelijk onwerkbaar wordt.
Dat kun je zien aan het AMD vs Intel verhaal van de afgelopen jaren waar Intel de touwtjes in handen had en 5/6 jaar lang maar enkele procenten verbetering per generatie leverde.
Zo was dat bijvoorbeeld in 2004 wel even een heel ander verhaal toen ze wel concurreerden. Als je toen diezelfde investering van 700 uitgaf had je binnen 3/4 jaar later een computer die zo traag als dikke stront door een trechter was.
Mijn portemonnee vind lekkerder om maar eens in de 10 jaar een bedrag van 1000eu uit te hoeven geven om op rozen te zitten ipv 1000eu om de 2 jaar.

Anderzijds is het stagneren van innovatie inderdaad slecht voor de economie en de veeleisende gebruiker. Maarja als bedrijf (NVidia in dit geval) wil je natuurlijk wel zo makkelijk mogelijk je geld verdienen.

[Reactie gewijzigd door Yooo Kerol op 8 december 2017 19:52]

Mijn portemonnee vind lekkerder om maar eens in de 10 jaar een bedrag van 1000eu uit te hoeven geven om op rozen te zitten ipv 1000eu om de 2 jaar.
Als er meer concurrentie was geweest had je niet eens in de 10 jaar maar eens in de 15 jaar 1000 euro hoeven uitgeven. De reden dat computers nu langer meegaan is ondanks een gebrek aan innovatie niet door een gebrek aan innovatie. Je moest 15 jaar geleden veel vaker een nieuwe PC kopen omdat PCs toen nog niet konden multitasken, nog niet alle kleuren konden weergeven, nog geen hoge resoluties aankonden etc. Elke upgrade van je hardware leidde tot meer responsieve software. Dat is nu al 10 jaar gewoon niet het geval. Word en Chrome werken niet beter op een systeem met een Threadripper 1950X dan op een systeem met een core i3 van 2 jaar oud. 15 jaar geleden was dat wel anders. Nu merk je het verschil tussen een i3 en een i7 alleen bij sommige games mits je GPU snel genoeg is en in computationeel intensieve taken; dingen die consumenten eigenlijk niet doen. Vandaar ook dat de PC markt al jaren krimpt; de meeste mensen gebruiken die nieuwe processors niet. Ook over 10 jaar kan je waarschijnlijk nog redelijk uit de voeten met een i7 uit 2012 zolang je geen VR wil of 4K wil decoden. Dat komt niet door het gebrek aan concurrentie maar omdat het aantal toepassingen dat meer kracht vereist niet echt toeneemt.

Als we de afgelopen jaar meer concurrentie hadden gehad in CPU land, dan hadden we nu geen laptops gehad gehad met snellere CPUs (want dat koopt de consument toch niet, zoals je zelf aangeeft) maar wel zuinigere laptops voor minder geld, en dat willen de consumenten wel.
Het wordt onderhand wel écht belachelijk wat NVidia voor de high-end kaarten durft te vragen, drie duizend euro voor een videokaart!!
Is dus 2.5x zo veel als de voorganger van deze kaart, wat een gekkigheid.
Wat is je alternatief? Intel? AMD? ARM?


Als je het kunt aandragen voor dezelfde prijs en soortgelijke service ben je binnen.

7,5 Teraflops double precision zijn geen grappen meer. Moment dat je dat effectief kunt aansturen heb je heel veel minder serverruimte nodig bij een gemiddeld bedrijf. En dat is een een sector waar andere bedrijven sinds oudsher actief zijn.


En dat er marge op zit is niet vreemd. Dat zal Nvidia ook nodig hebben. Het schalen van gpu is makkelijker dan een CPU. Nu AMD bewezen heeft met de nieuwe spelconsoles dat ze dat ook onder de knie hebben,
en nu op technisch vlak zelfs met Intel zijn gaan samenwerken,
is het maar de vraag hoe lang Nvidia deze voorsprong kan houden.


De marges die ze nu maken kunnen ze beter opzij leggen voor de toekomst zodat ze daar een tijdje op kunnen teren als het weer minder gaat.
Het "gemiddelde" bedrijf heetf helemaal niet zo'n belang bij double precision numerieke operaties. Sterker nog, het is de vraag wie wel. In de AI is de trend momenteel om terug te gaan naar single precision. De onnauwkeurigheid daarin wordt meer dan gecompenseerd door de extra verwerkingscapaciteit - je kunt een veel groter neuraal netwerk trainen.
Ik gebruik alleen maar simulatieprogramma's met double floats: Matlab voor matrix berkeningen, Keysight ADS voor electronica, CST voor antennes, Cadence voor chip design etc. etc.
Als je met zo'n kaart de verificatie voor een tape-out dubbel zo snel kunt uitvoeren, dan kun je of dubbel zo veel verifiëren, of hetzelfde in de helft van de tijd. Ter info: aan zo'n verificatie ben je gemakkelijk twee weken kwijt. In het eerste geval heb je een grotere slagingskans door dubbel zo goed te kijken. In het tweede geval heb je of een snellere time-to-market door sneller te releasen of een betere concurrentiepositie door langer te kunnen ontwikkelen. In beide gevallen bespaar je miljoenen!

Een enkeling zal deze kaart kopen om te gamen, dus voor die aantallen zal nVidia echt geen nieuw product uitbrengen. Er zijn dus blijkbaar nog wat meer gebruikers dan gamers en software ontwikkelaars. (Ik vermoed dat raytracing voor game content ook wel dit soort accelerators zal gebruiken, maar daar werk ik niet mee)
Matlab kan geloof ik de GPU gebruiken, maar voor andere programma's zou het me verbazen. Die leunen eerder op de AVX vector instructies.
haha daar heb je gelijk in :) Die software loopt meestal een paar jaar achter, tegen die tijd koop ik em wel tweedehands. Hoewel, in matlab kun je ook in cuda programmeren en openCL, en CST kan ook Tesla accelerators aan. Maar je hebt gelijk, het zal altijd een gepuzzel blijven
Nvidia heeft al geruime tijd een uitgebreide BLAS library, dus het gebruik is heel toegankelijk. Het probleem is inderdaad de tegenvallende DP prestaties van GPU's, die voor bepaalde toepassingen erg noodzakelijk zijn. En de ontwikkelingen op CPU gebied staan ook niet stil.

Binnenkort hier een machine met 2x Xeon Gold 6150 (36 cores, 2.7 GHz) èn een Tesla P100 }> Ben benieuwd wie er wint op het gebied van dual precision BLAS. :9
Dit is toch een compleet ander product?
Een kaart specifiek op deep learning acceleration met andere cores en andere architectuur?
Ook al kun je het in een computer te steken is en is het als videokaart gepresenteerd denk ik niet dat je dit kan vergelijken met een GTX kaart. Zijn simpelweg andere producten, met dus andere bijbehorende prijskaartjes.

Misschien zit ik er totaal naast, maar zo begrijp ik het (altijd met dit soort kaarten).
Dat was mijn aanname ook, totdat ik las dat er video-uitgangen op de kaart zitten. Dat is compleet overbodig voor Deep Learning.
Ja maar als je een workstation hebt, toch wel fijn als je er een scherm aan kan hangen. De kaart voor in de servers is de Tesla V100. Deze is vooral voor de onderzoekers die ook lokaal wat willen kunnen testen, en de wat kleinere spelers op de AI markt.
Het is dan ook geen standaard consumentenkaart. Tenzij je thuis een deeplearning cluster hebt staan.
het heet Titan V, en "Titan" is een high-end consumentenkaart/marketing term "the best gaming card".

Als het geen standaard consumentenkaart dan had nvidia anders moeten noemen.
De Titans zijn niet puur gemaakt om mee te gamen tegenwoordig, ze zijn gemaakt om games te maken en te testen.
Nu ken ik game studios aardig goed maar ik ken er geen een die ontwikkeld of test op dit soort kaarten. Allemaal 1080s op dit moment.
Je hebt de Ti kaarten ook nog. Dat is meer de high end consumenten kaart
Zoals in het artikel staat is de kaart gericht op de professionele consumentenmarkt. Nvidia prijst ook mogelijkheden van Deep Learning aan. Dit is dus echt geen kaart om op te gaan gamen.
Niet meer sinds Pascal.

Nvidia stuurt ook geen Titans meer uit naar "gaming" reviewers.


Met de Titan Xp en 1080Ti hebben ze dat punt ook wel weer gemaakt in de laatste generatie.
Veel kleinere spelers in de AI gebruiken de consumentenkaarten. Deze Titan V is duidelijk op hen gericht en het is niet heel erg vreemd dat Nvidia naast Quadro, Tesla en Titan niet nóg een naam wil introduceren. Door het Titan V te noemen weet iedereen dat het én de krachtigste GPU is voor de consument én dat er Tensor cores aan boord zijn, wat relevant is voor een andere groep klanten. Geen enkele consument zal zich hier in vergissen met een prijskaartje van $3000.
Ik zie niet wat hier raar aan is. Dies van dat formaat bakken is niet bepaald de goedkoopste zaak van de wereld. Voor world or warcraft of wat nu ook courant is worden dit dies niet gemaakt.
Als je bekijkt wat andere chipfabrikanten als Intel, Oracle en IBM vragen voor zulke grote plakken silicon, dan is het wel weer schappelijk :)
Je hebt duidelijk geen verstand van wat voor een kaart dit is, maar hebt wel je mening klaar liggen. Dit is niet een kaart voor consumenten. De GTX 1180 (of 2080) zal misschien maar ietsjes duurder zijn dan de GTX 1080 was.

[Reactie gewijzigd door unilythe op 8 december 2017 10:08]

En de 1080 was al veel te duur.
Dat klopt, maar dat was mijn punt niet.
Bitcoin mining zou ook een inspiratie kunnen zijn om een (duur) snelheidsmonster op de markt te brengen.
dit is niets bijzonders Matrox vroeg vroeger ook dit soort prijzen voor de profesionele markt en die gingen ook zonder probleem over de toonbank.
En als je kijkt dat de bedrijven die dit kopen ook zo voledig gevulde serverracks met een waarde van boven de 400.000 euro kopen is dit niks
Is eigenlijk best wel logisch, want door de lage die (aantal goede processors uit een wafer) in combinatie met de kleine markt moeten ze meer vragen per kaart.

Daarnaast is het ook n kleine prestigemarkt die ze niet mogen kwijtraken omdat ze anders aan brandvalue gaan verliezen.

Ter vergelijking: Bugatti kan het zich eigenlijk ook niet veroorloven als ze niet de snelste productieauto leveren.

Het zou mij niet verbazen als ze nauwelijks de kostprijs eruit weten te halen.
Deze is gebasseerd op de 100 chip en niet op de 102 chip zoals de vorige Titan, bij de launch van Pascal was er geen kaart met de GP100 chip voor een prijs in de buurt van deze en de GV100 chip is nog groter dan de GP100 chip ook, maw het is iets goedkoper dan Pascal juist, niet blindstaren op de naam vd kaart.
Ja dit is de manier van prijs verhogingen die Nvidia hanteerd bij het gebrek aan concurentie bij de high-end consumenten producten. Deze manier van handelen hebben ze helaas eerder gebruikt in tijden dat hen de concurentie ontbrak. Als dit zo door zet zal de Volta opvolger van de 1080ti kwa prijs naar die van de Titan Xp gaan en de opvolger van de 1080 op het niveau van de 1080ti enz.

Het is te hopen dat AMD Navi niet zo vertraagd op de markt brengt als Vega en ze dit keer wel echte concurentie kunnen bieden in het high-end segment.
Waarschijnlijk bij sommige kaarten prima. Maar die reference koeler |:(
Waarom? Meer herrie en minder koeling dan “normale” fans
Tja, NVIDIA moet er rekening mee houden dat niet iedereen een case heeft met uitmuntende airflow. De meeste 3rd party koelers koelen een stuk beter, maar lozen (bijna) alle warmte in de kast. Hier op tweakers zal dat voor de meeste systemen in gebruik geen probleem zijn, maar deze kaarten worden natuurlijk ook door andere mensen gebruikt die misschien iets minder verstand hebben van computers. Als zo'n kaart dan in een of andere meh-behuizing wordt geplaatst moet de boel natuurlijk niet in 1 keer in de fik vliegen bij de eerste render. Vandaar de self-contained koeler voor het reference ontwerp.
Ik denk niet dat deze kaarten bij de eerste de beste in een kast belanden. En mensen die een kaart als deze op 100% belasten houden niet van stilte ofzo? Zitten die in een andere ruimte of met een koptelefoon? Ik heb zat reference modellen gehad en goede of slechte aitflow(zelfs buiten de kast) en allemaal warmer en luidruchtiger.

Maar nogmaals ook zonder perfecte airflow is mijn ervaring dat reference koelers altijd heter zijn dan aftermarket

[Reactie gewijzigd door ApC_IcE op 8 december 2017 08:42]

Laten we eerlijk zijn. deze kaarten zijn voor de professionele markt, servers en workstations. Bij servers is het de taak om zoveel mogelijk warmte naar buiten te pompen, dan doet de koeling van de ruimte de rest. Workstations waar dergelijke hardware in zit zijn al niet de stilste en dan maakt het ook niet uit. In beide gevallen, niemand gaat ze overclocken of kijken hoe koud of warm ze zijn. Ze worden gekocht op de specs en die specs worden aangehouden.

Buiten een gek met teveel geld gaat niemand dergelijke kaarten gebruiken voor een gaming setup, is ook niet rendabel aangezien niemand rekening gaat houden met deze kaarten.

[Reactie gewijzigd door SizzLorr op 8 december 2017 09:31]

Qua server ben ik het echt wel met je eens.
Ik heb het hier ook niet over gaming gehad. Behalve dat dat MIJN doel is. En nee ik koop deze kaart niet.

Waar het mij om gaat is als je dit nodig hebt voor je werk en dus op een workstation zit te werken. En ik heb gewerkt bij een bedrijf met vergelijkbare kaarten (van een paar generaties terug). En die reference modellen maken gewoon herrie. Ook een workstation moet geen herrie maken als je daar gewoon op zit te werken.

Niemand gaat ze overclocken of de temp checken maar de fan draait gewoon harder als hij warmer wordt.

Laten we het er over eens zijn dat we het niet eens zijn. dat vind ik ook prima.
Hoeveel voorbeelden je ook noemt waar geluid,temp etc niet uitmaakt kan ik ze opnoemen waar het wel uitmaakt.
Ik heb deze bakbeest staan, maar dan met 1 kaart erin.

https://www.supermicro.nl.../views/7049GP-TRT_top.jpg

De stock koeler moet die maten aanhouden anders neem je teveel ruimte in beslag. Het enige wat je kan doen is misschien een 2de koeler erop, maar goed die zit dan te diep waardoor die geen lucht meer krijgt. Wat jij zegt (de stock koeler eraf en 2 fans erop) maakt ook helemaal niks uit in zo'n kast, die 4 hoge toeren koelers compenseren dat altijd.

Nou kan je wel zeggen, die kaarten, maar als er al 4 hoge toeren interne koelers (en 2 hoge toeren CPU koelers) inzitten dan maken die kaarten ook niks meer uit. Workstations worden hard gekoeld want je wil thermal throttleing zoveel mogelijk vermeiden en de performance zo consistent mogelijk houden, daar betaalt de klant ook voor. Het is niet anders.

In het segment waar dit soort hardware in wordt gebruikt is het gewoon zo, als je die performance nodig hebt dan heb je die performance ook consistent nodig en dat betekent harde koeling.

Wat jij nu zegt van dat je voorbeelden kan noemen (ben trouwens wel benieuwd, want misschien heb jij iets waar de mensen achter deze kaarten niet aan hebben gedacht, je krijgt de twijfel) dat zijn geen voorbeelden, dat zijn wensen die jij hebt. In het segment is de bouw gewoon zo en als je minder performance nodig hebt dan koop je iets wat goedkoper en stiller is. Je zegt dat de temperatuur lager kan, maar daar let niemand op. Zolang de kast maar niet gaat thermal throttleen is er niks aan het handje en zal niemand klagen, al wordt dat ding een miljoen miljard graden.

Waarom ik over gaming begin is omdat de redenen die jij noemt alleen van toepassing zijn op thuis gebruik en dan ook alleen maar voor een gaming setup.

Ga er maar vanuit dat de mensen die deze kaarten verkopen en de mensen die deze kaarten kopen, er heel goed over na hebben gedacht. Het gaat om veel geld en om harde garanties die je af moet geven. Er is een reden waarom niet alleen nVidia maar ook AMD/ATI dit doet.

[Reactie gewijzigd door SizzLorr op 8 december 2017 11:14]

Niet "altijd".
Ik heb 3 kaarten naast elkaar zitten en daar wil je echt geen open back voor hebben ;) closed back blaast de hete lucht uit de kast.
Deze kaart beland zeker wel vaak in een kast, zoals vrijwel elke professionele gebruiker het zal doen.
Omdat dit ontwerp de hete lucht naar buiten dumpt ipv. de kast inblaast.
Doet mijn gaming x variant ook. De fans erop blazen op de kaart en evengoed zit er achterop dat rooster op de kaart zelf;)

[Reactie gewijzigd door ApC_IcE op 8 december 2017 08:40]

Nee, dat ontwerp (open fan) verspreid de hete lucht binnen in de kast terwijl het reference ontwerp (blower) alle hete lucht naar buiten stuwt door een tunnel. Bij een open fan koeler moet je zorgen voor betere airflow in de kast en met blower is dat minder belangrijk.

[Reactie gewijzigd door EnigmaNL op 8 december 2017 08:42]

Dat ben ik zeker met je eens.
Dat de warme lucht met deze koeler meer naar buiten gaat.

Verklaar mij dan eens dat buiten de kast reference koeler kaarten, en mijn reference kaarten in een kast met 0 casefans heter worden dan dezelfde kaart met aftermarket.

M.a.w. Een reference koeler presteert minder goed dan een aftermarket.
Aftermarket koelers hebben veel grotere fans erop, de koelprestaties zijn daardoor inderdaad beter. Deze verschillende ontwerpen hebben dan ook niet helemaal dezelfde doelstelling. Bij een blower ligt de prioriteit iets meer bij het dumpen van de hitte buiten de kast en bij een open fan ligt de prioriteit alleen bij het koele van de GPU en wordt er minder gekeken naar wat er met de hete lucht gebeurd.

Een blower zou bijvoorbeeld een goede keuze zijn in een kast met weinig ruimte (en minder goede airflow) waarbij je zeker wil zijn dat al die hitte niet in de kast komt te zitten. Ook is het een betere optie voor SLI setups waarbij de kaarten dicht op elkaar zitten.
"Aftermarket koelers hebben veel grotere fans erop, de koelprestaties zijn daardoor inderdaad beter."

Treu, en verklaart ook meteen waarom zo'n type aftermarket koeler stiller is.
Aangezien deze één, geen overdruk opbouwt, zoals bij sommige blower koeler nog wel eens het geval is (al is dat niet veel), aangezien deze de warme lucht aan meerdere kanten kwijt kan.
Waar de lucht van een blower koeler er grotendeels alleen aan de achterzijde uit kan, wat soms voor iets overdruk zorg, wanneer de ventilator er meer lucht doorheen stuwt, dan dat er aan de achterzijde ook uit wil/kan.
En twee, een grotere ventilator minder snel hoeft te draaien, om dezelfde hoeveelheid lucht te verplaatsen dan een kleinere op hogere toeren.
Wat maakt dat zo'n aftermarket koeler vaak stiller zijn werk doet.
En dan nog daar gelaten dat een blower koeler het ook nog eens met één ventilator moet doen, in plaats zoals bij veel aftermarket koelers met twee.
;)

[Reactie gewijzigd door SSDtje op 8 december 2017 11:30]

Wat heeft dat te maken met waar de lucht heen gaat nadat het langs de kaart is gegaan? Bij de Gaming X blijft de lucht gewoon in je kast, precies zoals EngimaNL zei. Het is dan aan de fans in de kast om die hete lucht af te voeren.
Verschil tussen beide koel systemen, al ga ik er vanuit dat je dit al wel wist.
Maar zo niet, dan is het in één klap duidelijk zo:

Jouw variant koeler doet dit.
Waar een blower cooler dit doet.

Een Nvidia blower koeler is dus eigenlijk zo'n beetje een Laptop koeler, alleen dan wat op geschaald wat formaat betreft, niets meer en niets minder.
;)
Wie vallen er onder de professionele consumenten in deze?
Kleinere spelers in de kunstmatige intelligentie en onderzoek daarnaar. Veel labs die onderzoek doen naar AI gebruiken consumentenkaarten zoals de 1080TI of Titans. Ik denk dat alleen echt grote partijen zoals Google, Amazon en Facebook de Tesla kaarten installeren; voor hen is een paar weken/maanden achterlopen echt te kostbaar om te wachten op de 'prosumenten' kaarten.
AutoCAD ontwerpers, gamedevs, mensen die veel met grafisch werk bezig zijn.
ik als grafische-map desinger kan een product zoals dit wel flink goed gebruiken haha.
Adviesprijs 3000 dollar 8)7
Lijkt niet echt op een opvolger van de Titan Xp in dat geval...
Ik gok dat de Volta lineup niet zo gespecialiseerd zal zijn voor gamers (en daarmee ook niet een volwaardig opvolger voor Pascal) aangezien er tensor cores in worden gegooid en dergelijke advancements voor AI/deep learning/hot word of the day.
Ik dacht ook precies hetzelfde, maar al voor een tijdje. Dat de Tensor cores erin zaten verbaaste mij ook.

De enige verbetering van Volta (voor gaming) lijkt de power consumption en het gebruik van HBM2. 20 watt zou er wel van af kunnen door het gebruik van HBM2, dus dan zou 250-20=230 watt zijn. 24% meer tflops, dus + 24% verbruik wat neer komt op 285 watt. Nou weet ik dat dat soort dingen niet perfect schalen dus laten we zeggen nog 10% erbij, dat komt neer op ongeveer 315 watt. Nou is het TDP 250 watt, dus hooguit 26% zuiniger dan de vorige Titan en met het voordeel van HBM2 eraf ongeveer 18% denk ik

Om terug te komen op het gaming, daarvoor zouden ze in principe met volta een 1090(ti) kunnen maken met rond de 5000 cuda cores (dat maakt ongeveer een even groot verschil in procenten als de gtx 1080 vs de gtx 1080ti aan cuda cores). Dat zou hem ongeveer 25% sneller maken dan de gtx 1080ti & het zouden gpu's kunnen zijn die net niet goed genoeg waren voor een Titan V. Dan zouden ze hem kunnen verkopen voor ongeveer 1000 euro, wat ze anders niet hadden kunnen doen met een gtx 1180 omdat mensen dan problemen gaan maken vanwege de hoge prijs. Zolang AMD nog niks kan bieden tegen nvidia tot gtx 1080 performance (En tot gtx 1070 in prestaties/watt kan concureren) kunnen ze net zo goed de huidige Pascal kaarten door laten verkopen en er 1 kaart bij gooien van Volta.
Ik gok dat de Tensor cores gewoon weggelaten worden uit de gaming kaarten. Nvidia heeft een ander productieproces voor de gaming kaarten, dus dat kan gewoon. Zo hebben professionele kaarten bijvoorbeeld ook FP64 erin zitten, en gaming kaarten niet.
Misschien kunnen die Tensor cores worden ingezet voor gaming op de manier hoe AMD FP16 toepast in games.
Een keer een goede AI in games? :)
Hahaha, dat is iets wat wel beter kan in games.
Ik heb weleens screenshots uit Fear gezien, en aar communiceerde de AI met elkaar. Ik denk dat er qua processing power genoeg met AI te doen is, maar nog niet wordt gedaan omdat de focus op visuals en multiplayer ligt tegenwoordig. Helaas.

Als ik een gamedev was, dan had ik maar wat graag een game met superieure AI gemaakt.
wedden dat de 2080 en de 2080TI 1200¤ of meer gaan kosten bij introductie.
De 2080 zal dan wss naar het prijspunt gaan van 750¤ eens de TI versie uitkomt.
De betaalbare kaarten zal wss een 2060Ti max zijn met een prijs van rond de 400¤ maar amper beter zijn dan de huidige 1070.

Leuk dat die prijs verhogingen een high end pc maken wordt steeds meer en meer onbegonnen zaak
Ram prijs maal 2
GPU's prijs maal 2
Nu nog cpu's (al bezig) en SSD's

Bovenstaande is speculatie aan de hand de prijs evolutie's
Zal het wel houden bij 2de hands server onderdelen en de hoop om nog ooit aan pc gaming te doen laten varen.

[Reactie gewijzigd door Xeon_1 op 8 december 2017 09:35]

Ik denk eerder dat ze de huidige pascal kaarten gewoon door verkopen en er een gtx 1090(ti) bij zouden gooien, AMD heeft er geen druk achter gezet om de huidige reeks kaarten allemaal te vervangen. In ieder geval nog niet.

[Reactie gewijzigd door Twanekel op 8 december 2017 09:36]

De xx90 zal het niet worden, dat is historisch gezien een dubbel-GPU kaart.
vroeger waren game pc’s ook heel erg duur. Het is juist allemaal goedkoper geworden. Nu kan je rond de 1000euro gamen op full hd en dat voor de komende jaren. Vroeger was een pc duurder en sneller outdated. Er zijn nu ook meer kwalitatieve titels beschikbaar...Het is maar hoe je het bekijkt.

20jaar geleden betaalde je voor 15tf single precession nog een paar miljoen euro, nu prik je die in uw server voor 3000euro.
Ik weet nog dat ik 2k kwijt was om crysis op 90% te kunnen spelen. Hardware was inderdaad veel duurder.

Om vandaag op 1080 te kunnen spelen ben je er vandaag al met 600EU excl randapparatuur.
en 1080p is niets mis mee,, 2k/4k/ is meer voor het grote werk qua scherm size.
Gamen was nooit zo goedkoop

IDD

[Reactie gewijzigd door A87 op 8 december 2017 20:40]

Ik dacht dat de geheugen bandbreedte 1024 bits is per 4GB HBM2 package. Dus hoe meer geheugen, hoe breeder de bus.
Ja, en je hebt 3 packages, dat maakt 3072 bits brede bus. B) En 600+G/B bandbreedte.

Erg indrukwekkend, dat HBM2 ook.
ZO indrukwekkend vind ik het niet eens. De Tital Xp met standaard GDDR5X doet al 547.6GB/s. Schijnbaar gaat GDDR6 de bandbreedte weer pogen te verdubbelen en dan haal dus al hetzelfde als de GV100 tesla kaarten. HBM2 heeft zeker een plaats, maar de kosten zijn erg hoog en het verdeel valt tot nu toe tegen.

We gaan zien hoe beide standaarden zich ontwikkelen.
Ja, en kijk eens hoeveel extra ruimte zo'n GDDR6 setup op een kaart gaat kosten qua ruimte. HBM is technisch de winnaar in power, performance, latency en dimensies.
Laat je nou express het grote nadeel wel? De kosten. De stacks zelf zijn per GB veel duurder en ook de interposer kost nog steeds een flink bedrag. Dat maakt de standaard nu niet eens geschikt voor mid-range (en zelfs niet eens high-end kaarten). De AMD AiB's klagen nu al dat ze geen winst op VEGA kunnen maken omdat AMD de kaarten voor veel te veel geld moet verkopen. Je doet alsof het een gelopen race is, maar dat is het zeker niet.

Zolang de kosten niet naar beneden gaat blijft GDDR5x en straks 6 een prima alternatief.

[Reactie gewijzigd door Thekilldevilhil op 8 december 2017 11:48]

Ik hoop met een kaart zoals dit ( zelfde verhaal voor de Tesla ) de prijs van HBM2 beetje naar beneden kan gaan drukken. Goedkopere AMD kaarten en meer consumenten kaarten met HBM2 in de toekomst yes plz.
Dude, mijn 1080ti haalt met overclock al 530 gbps.. daarom vind ik die volta tegenvallen.
Zon volta is leuk voor 4k en 144hz als die schermen komen, dan wil je 900 gbps en niet minder

[Reactie gewijzigd door A87 op 8 december 2017 20:43]

Klopt dan toch? 3072 bits voor 12gb
ja, klopt zeker, maar ik was even door de war van de zin: Ook is de geheugenbus met 3072 bits minder breed dan die van de Tesla, die een 4096bit-interface heeft.
Maar dat is dus een logisch gevolg van minder geheugen gebruiken. De vult de 16GB (4x 1024bit) in theorie dus net zo snel als 12GB (3x 1024bit).
Wat zal die doen betreft crypto mining?
Ik kan me niet voorstellen dat dat kosteneffectief kan met een kaart van 3k euro en een verbruik van 250W.

[Reactie gewijzigd door Vizzie op 8 december 2017 08:41]

Vega verbruikt ook veel, maar word ook massaal gekocht door miners. (zou wel komen door het underclocken, zou met deze kaart wel minder zijn)
Maar die kost geen ¤3000 ;)
Weinig. Crypto mining draait op OpenCL en AMD kaarten hebben doorgaans een betere implementatie daarvan. Het extra geld en verbruik bij de Titan V zit in de double precision en tensor cores en die worden niet gebruikt voor mining dus dit is op geen enkele manier een geschikte kaart om mee te minen.
Zouden ze "Tensor cores" kunnen aansturen en programmeren voor gpu-rendering?

A.I. wordt al bewezen en met mooi resultaat ingezet voor Noise reduction om een scène met minder samples, maar dezelfde gpu, sneller noise free te krijgen!
Vermoedelijk niet. De kritieke operatie in GPU's en TPU's zijn matrixvermenigvuldingen. Dat is waarom neurale netwerken zo vaak op GPU's getraind worden.

Alleen, neurale netwerken hebben veel grotere matrices. En een grote matrixvermenigvuldiging kun je wel ontbinden in kleinere matrices, maar niet andersom.
Lijkt erg duur, maar is natuurlijk ook bedoeld voor de prosumer en niet de gamer (niet vergeten!). Titans zijn nooit echt voor gamen bedoeld. Het geeft echter wel een indicatie wat de performance van Volta gaat zijn voor gaming GPU's die later uit komen. Ben benieuwd! :)
Wel een flinke partij teruggeklokt om de TDP binnen de grenzen te houden. 3000$ is een schijntje in de CAD en andere markten. Dit zijn kaarten die geen foutmarges mogen hebben zoals met games wel het geval is. Ook gaat een deel van de aanschafsprijs gewoon naar driverontwikkeling.
1200 MHz ten opzichte van 1485MHz is inderdaad niet niks nee.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Samsung Galaxy S9 Dual Sim OnePlus 6 Battlefield V Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*