Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties
Submitter: SmokingCrop

Nvidia heeft een nieuwe acceleratorkaart aangekondigd voor high performance computing. De Tesla P100 heeft een GP100-gpu die is gebaseerd op de Pascal-architectuur en is bedoeld voor gpgpu-toepassingen als deep learning en ontwikkelen van kunstmatige intelligentie.

Jen-Hsun Huang, ceo van Nvidia, kondigde de Tesla P100 aan tijdens de GPU Technology Conference. De accelerator beschikt over de nieuwe GP100-gpu die bestaat uit 15,3 miljard transistors. Dat is bijna het dubbele van de GM200-gpu van de Maxwell-generatie, die uit maximaal 8 miljard transistors bestaat. Volgens Huang is er drie jaar lang gewerkt aan de chip en was er met research & development twee tot drie miljard dollar aan kosten gemoeid.

Nvidia heeft tijdens de keynote nog niets losgelaten over nieuwe videokaarten voor consumenten. Opvallend is dat de Tesla P100 gebruikmaakt van 16GB hbm2-geheugen, waarschijnlijk van Samsung. Recente geruchten leken juist aan te duiden dat de nieuwe GeForce-kaarten gddr5x-geheugen zouden krijgen. Wel is zeker dat toekomstige GeForce-videokaarten gebruik zullen maken van dezelfde Pascal-architectuur als de Tesla P100.

De Tesla P100 heeft verder 4MB L2-cache en 14MB sm rf, dat met een snelheid van 80TB/s met de chip kan communiceren. De GP100-gpu is gemaakt op een 16nm-finfet-procedé en heeft een rekenkracht van 5,3 teraflops bij fp64-doubleprecisionrekenwerk. Bij fp32-singleprecision is dat 10,6 teraflops en bij fp16 neemt dat toe tot 21,2 teraflops.

Nvidia Tesla P100Nvidia Tesla P100Nvidia Tesla P100Nvidia Tesla P100

De GP100 bestaat uit een samenstelling van graphics processing clusters, streaming multiprocessors en geheugencontrollers. De chip beschikt over zes gpc's, tot 60 sm's en acht 512bit-geheugencontrollers, wat neerkomt op een geheugenbus van 4096bit breed. Iedere Streaming Multiprocessor op de gpu heeft 64 cudacores en 4 texture-units. Goed voor een totaal van 3840 cudacores en 240 texture-units. Bij de Tesla P100 zijn 3584 cores ingeschakeld. De gpu heeft een kloksnelheid van 1328MHz met boostclock van 1480MHz.

Nvidia GP100Nvidia GP100

De Tesla-accelerators zijn bedoeld voor zakelijke toepassingen en de P100 bevindt zich aan de top van dat segment. De chip is momenteel in massaproductie en Nvidia zegt de eerste exemplaren zo snel mogelijk te leveren aan grote bedrijven voor gebruik in hun hyperscale-datacenters. Later zullen oem's zoals Dell, HP en IBM de beschikking krijgen over de accelerators, zodat ze deze in kunnen bouwen in servers. Die servers met Tesla P100 komen in het eerste kwartaal van 2017 op de markt volgens Nvidia.

Zelf brengt Nvidia de DGX-1 uit, naar eigen zeggen een 'supercomputer', die is voorzien van acht Tesla P100-accellerators. De kaarten communiceren onderling met de Nvidia nvlink-interface, die vijf keer de snelheid van pci-e-3.0 biedt. Een enkele node is goed voor 170 teraflops aan rekenkracht met fp16-halfprecisie. Met rack vol van deze servers is 2 petaflops mogelijk. In de Nvidia DGX-1, die 129.000 dollar kost, zitten twee Intel Xeon E5-2698 v3-processors, 512GB ddr4-ram en vier 1,92TB-ssd's in raid 0-opstelling. De eerste exemplaren worden geleverd aan onderzoekafdelingen van universiteiten.

Nvidia DGX-1

Tesla-accelerators Tesla K40 Tesla M40 Tesla P100
GPU GK110 (Kepler) GM200 (Maxwell) GP100 (Pascal)
Sm's 15 24 56
Tpc's 15 24 28
FP32 cudacores / sm 192 128 64
FP32 cudacores / gpu 2880 3072 3584
FP64 cudacores / sm 64 4 32
FP64 cudacores / gpu 960 96 1792
Baseclock 745 MHz 948 MHz 1328 MHz
Gpu-boostclock 810/875 MHz  1114 MHz 1480 MHz
Singleprecision 4,3 tflops 7 tflops 10,6 tflops
Doubleprecision 1,43 tflops 0,2 tflops 5,3 tflops
Texture Units 240 192 224
Geheugeninterface 384-bit gddr5 384-bit gddr5 4096-bit hbm2
Geheugengrootte Tot 12GB Tot 24GB 16GB
L2-cache
1536KB 3072KB 4096KB
Register file size / sm 256KB 256KB 256KB
Register file size / gpu 3840KB 6144KB 14336KB
Tdp 235 Watts 250 Watts 300 Watts
Transistors 7.1 miljard 8 miljard 15.3 miljard
Gpu die-formaat 551mm² 601mm² 610mm²
Ontwerpproces 28nm 28nm 16nm

Vergelijking van de nieuwe GP100-gpu met de GM200- en GK-110 van de vorige generaties.

Moderatie-faq Wijzig weergave

Reacties (108)

Zo op de vroege morgen raak je aardig gedesoriënteerd als je Tesla en P100 in 1 zin leest.
Dacht even aan een nieuwe krachtigere Model-S,X of 3 met nVidia hardware.
En daar zijn ook al aanwijzigen naar ;)
bron
Wow, hoe ontwerp je eigelijk een gpu van 15,3 miljard transistors? Neem aan niet met een programma als Ultiboard ofzo.
90% van de chips worden ontworpen met Cadence. De sub onderdelen van een chip worden vaak met de hand ontworpen. Neem zaken als de adder en bij de geheugencontroller. Als je een library met dit soort componenten hebt gebouwd is het "copy-paste" en de software kan je dan heel veel laten verbinden. Memory wordt zo goed als volledig door de software gedaan, omdat het zeer regelmatig en dus eenvoudig is. Dit is even heel kort door de bocht, maar waar het op neer komt is dat de blokjes en de architectuur door mensen wordt bedacht. De computer naait alles vervolgens aan elkaar.
En vooral ook heel veel in-house tools. Vooral de grote spelers.
Hoogstwaarschijnlijk proprietary software (programma/OS/?), niet beschikbaar voor de gemiddelde consument zou ik denken.

[Reactie gewijzigd door Coy op 5 april 2016 21:09]

Je maakt een mini-chip van 1 miljard transistors, die kopieer je 15x en dan zit je op 15 miljard transistoren.

Zie vooral de plaatjes met de blokjes hierboven. Ik tel 60 identieke SM blokken (dus ongeveer 250 miljoen per SM). Iedere SM heeft 64 core blokjes en 32 dp blokjes en een heleboel andere identieke blokjes. Stel (heeeel makkelijk gezegd) dat als deze blokjes even groot zijn en je heel weinig verliest aan de caches, dan zit je aan ongeveer 2.5miljoen transistoren per core of dp blokje. Die maak je 1x, en kopieer je dan 3840 of 1920 keer. Je let op je warmteproductie en je netwerk/communicatie structuur (je kloksignaal moet overal ongeveer tegelijk aankomen).

Denk je in dat in plaats van een 300mm wafer op te knippen in losse chips, je deze chips met elkaar laat communiceren en als één stuk verkoopt. Of je start 300 identieke instanties in een cloud op. Schaalbaarheid is het woord hier.
Misschien leuk om te weten: Als je het geheugen ook meetelt, heb je het over 150 miljard transistors.
Als ik tijdens die hele presentatie een Euro voor iedere keer dat die ""Deep Learning" noemde, dan was ik nu een paar duizend euro rijker geweest, wat een cringe presentatie was dit zeg voor de P100 anouncement.
Er is dan ook weinig aan te kondigen, ze hebben alleen renders van het spul (in januari hield JHH iets omhoog dat Pascal zou moeten zijn, maar bij nadere inspectie gewoon een Maxwell bleek te zijn... Vermoedelijk komt hun eerste chipje ongeveer rond de zomervakantie beschikbaar voor tests, en ik verwacht dit soort Tesla-borden rond de Kerst op z'n vroegst. Wellicht zijn consumenten-Pascals dan ook beschikbaar.
Ik begrijp wel waar dit vandaan komt. Binnen het vakgebied machine learning is deep learning op dit moment erg hot, het is een groeiende markt, er is grote vraag naar meer rekenkracht, en de implementaties van de algoritmes zijn op dit moment voornamelijk in CUDA geimplementeerd, iets wat dus op dit moment enkel nVidia heeft. Bovendien zijn het voornamelijk wetenschappers en bedrijven binnen dit vakgebied, met vaak iets grotere budgetten dan gamers :)
GTC is dan ook niet voor de normale consument bedoelt. Voor CUDA programmeurs zijn deze aankondigingen echter wel interessant. Verder zijn deep learning en AI enorme groei markten, en dus erg belangrijk voor Nvidia's toekomst.

[Reactie gewijzigd door ColinZ op 5 april 2016 22:34]

Ga je er serieus van uit dat hij allochtoon is omdat hij "die" zei.. Heel gauw terug naar geenstijl.nl
Leuk zoveel transistors, maar zit het HBM2 geheugen hier ook bij? Anders zou zomaar 1/4 van de chip op kunnen gaan aan het geheugen, wat anders op het PCB zit.

Voor de rest ziet het er wel als een top kaartje uit. Stiekem lijkt het mij nu wel heel leuk als AMD met een vergelijkbaar kaartje komt alleen dan ineens 10x zo goedkoop alleen om het groene kamp te pesten (Titan VS 290 verhaal).

Nvidia maakt wel mooie producten daar niet van, maar vind het prijskaartje vergeleken met het rode kamp toch altijd wat aan de 'te' hoge kant.
Het totaal van de Tesla P100 is volgens Nvidia 150 miljard transistors. Dat is inclusief het hbm2-geheugen. De 15,3 miljard zou wel enkel de gpu moeten zijn.
Ik heb de stream van het event voor een gedeelte gevolgd en volgens mij meen ik te herinneren dat het in totaal om ongeveer 150 miljard transistoren zou gaan, maar dat het compute gedeelte zelf die 15 miljard had. Ik weet het niet helemaal zeker trouwens en op deze woorden zit geen garantie.
Toch lijkt het groene kamp vaak wel beter te presteren en betere ondersteuning te hebben. Uiteindelijk hebben ze toch de snelste hardware op de markt.
Uit de eerste DX12-tests blijkt nochtans dat AMD-kaarten die het vroeger moesten afleggen tegen het groene kamp, het nu plots een pak beter doen. Puur wat hardware betreft heeft AMD op dit moment de beste kaarten beschikbaar, alleen jammer dat hun Dx11-drivers blijkbaar niet kunnen tippen aan die van nVidia.
als je het hebt over bv Ashes of the Singularity dan is al gauw duidelijk waarom Nvidia niet presteert. De game is totaal niet ontworpen voor visuele effecten, puur alleen voor het benutten van rekenkracht voor het neerzetten van objecten. Het ziet er ook echt niet bijster mooi uit. En ik vermoed dat juist bij die ontbrekende effecten Nvidia het voortouw zou hebben genomen.
En het is te vroeg om te oordelen over DX12 prestaties, handjevol games, waarvan het meerendeel niet van grond af gebouwd is voor dx12, en ook in allebei de kampen (Hitman, Rise of the Tomb raider) in veel gevallen zelfs achteruitgang van prestaties laat zien.
De meeste games zijn nog steeds DX11 en daar heeft AMD echt niet de beste hardware voor. En voor fatsoenlijke DX12 games vraag ik het me ook af. Tenzij er alleen maar games komen die zoveel mogelijk objecten laten zien en verder grafisch helemaal niks.
En ik vermoed dat juist bij die ontbrekende effecten Nvidia het voortouw zou hebben genomen.
mag ik vragen waar je dat op baseert want volgens mij slaat het echt nergens op.
en ook in allebei de kampen (Hitman, Rise of the Tomb raider) in veel gevallen zelfs achteruitgang van prestaties laat zien.
na de eerste driver update en/of gamepatch gaan in beide games de prestaties bij AMD er op vooruit in DX12.
en zelfs met het brakke nvida-gameworks geïnfecteerde gears of war gaat AMD nvidia voorbij op medium and high settings (met een hele lichte achterstand in low and lowest, precies het tegenovergestelde van wat je hierboven claimed met de effecten)

4 van 4 DX12 games wint AMD dus.
De meeste games zijn nog steeds DX11 en daar heeft AMD echt niet de beste hardware voor.
onzin. als het niet gameworks is dan krijg je bij AMD minimaal net zo veel waar voor je geld als bij nvidia. enkel het verbruik is iets hoger.

verder zal je zien dat dit jaar al heel veel games waarbij de prestaties van belang zijn een dx12 optie krijgen.

Dit is niet zoals de launch van dx10 bijvoorbeeld, waarbij men en vista moest hebben wat niemand wilde en een nieuwe kaart. dx12 werkt op kaarten van 4 jaar oud, en windows 10 is beduidend populairder als vista was, en nu al het meest gebruikte OS onder gamers.

[Reactie gewijzigd door Countess op 6 april 2016 14:41]

Ik vond dit youtube filmpje wel een erg interessante samenvatting. Het lijkt er hier sterk op dat AMD in veel gevallen de overtuigende winnaar is als het gaat om DX12 performance, en zeker prijs/performance verhouding.
Jullie dwalen nu wel erg af richting videokaarten. Als je deze Tesla's met AMD wil gaan vergelijken moet je meer richting de Firepro kaarten kijken.

Daar doet AMD behoorlijk goed mee tussen Intel en Nvidia, hoewel ik verwacht dat deze kaart wel een enorme voorsprong neemt qua performance.
AMD had toch laatst de Firepro S9300 x2 aangekondigt? Die zou beter presteren dan deze NVidia kaart, met veel minder en waarschijnlijk goedkoper geheugen....
die kaart gebruikt HBM, en dat is zeker niet goedkoper.

daarom ook dat er minder (8GB) op zit. (de max is 4GB per gpu, of eigenlijk 8Gb per stack, and ze wilde niet meer als 4 stacks gebruiken)
8 GB HBM lijkt me goedkoper dan de 16 GB HBM2 in deze NVidia kaart ;)
Oh interessant. Had ik niet meegekregen, bedankt voor de notificatie. Ziet er inderdaad wel erg bruut uit.

voor de geinteresseerden: http://www.amd.com/en-us/products/graphics/server/s9300-x2
Jammer dat er niks over de consumenten versie van Pascal GPU's is gezegd.

[Reactie gewijzigd door Soclever op 5 april 2016 21:20]

Ik mag hopen voor nvidia dat ze dit jaar komen ja. AMD zegt voor de back to school promotie. Dus vermoed dat nvidia niet lang op zich laat wachten.
AMD moet misschien het geld halen uit back to school, bij Nvidia is dat vermoedelijk een minder groot aandeel. Of die gaan gewoon voor een continue stroom.
Ik doelde meer op het feit dat een r9 490 natuurlijk geen concurrentie voor een 970. Dus zal nvidia of de 970 goedmaker of met een x70 komen.
AMD heeft veel geld verloren met het gedwongen prijs verlaging.

Nvidia kan niet 1 jaar wachten. Dat kost ze gewoon te veel geld.
Ze leveren nog niet. "Soon" klinkt het. Ik gok op 2 of 3 kwartalen nadat de zakelijke markt bediend wordt, dus een (high-end) X80 of zo in Q3 2017 als je optimistisch bent, misschien valt er wel veel tussen de yield uit voor de arme gamers. Spreek me aub tegen.
Ik vermoed echt niet dat de x70/x80 nog langer als 1 jaar op zich laat wachten(of bedoel je q3 2016?). ze zullen echt wel dit jaar komen, in september is de 970 al 2 jaar oud. en is toch wel tijd voor. maar we zullen meer weten na 7-april.
Als ik de GP100 naast de GM200 bekijk, ben ik benieuwd hoe de high-end consumentenchip (GP104?) zich zal verhouden tot de GM204 (uit de GTX980). :)
De vraag is wat de high-end consumenten versie zal worden. Alle toeters en bellen erop of gecastreerd zodat hij niet te veel beter is dan de high-end van de vorige generatie.
Niet gecastreerd maar gesteriliseerd, alles zit er nog op en aan maar veel functionaliteit is dan uitgeschakeld. Maar ik heb er hoop op dat er een hersteloperatie uit te voeren is met een hetelucht boutje, een loep en een paar miniscule smd weerstandjes.
Je ruilt de garantie en support dan in voor prestaties en functionaliteit die normaal gesproken 10x zoveel kost.
Neh, bedoel toch echt gecastreerd.
Het komt inderdaad wel eens voor dat er een GPU gereleased is met uitgeschakelde pipes/quads whatever welke in te schakelen zijn mits ze niet gecut zijn (wat jij bedoeld).

Maar het komt ook voor dat GPU X ontworpen is en ze bij release alleen kleinere versies van X releasen en dat de volledige ontwikkelde GPU pas na een jaar of 2 op de markt komt. Dan valt er dus niets te unlocken.

Bijvoorbeeld de eerste Maxwell had ook niet alles erop zitten wat uiteindelijk in de Titan zat.
Alhoewel het bij release van een nieuwe procede wel eens voorkomt dat mislukte exemplaren op de markt komen als een goedkope GT ofzo.

[Reactie gewijzigd door Deadsy op 5 april 2016 23:46]

link 1
link 2
link 3

De firmware en de drivers bepalen wat er mogelijk is aan de hand van een device id dat is toegewezen door een paar analoge waarden die door weerstanden op bepaalde plaatsen op de kaart ingesteld kunnen worden.

Zelf heb ik hier een GTX 670 die werkt als een K5000.

Aangezien nu de professionele kaarten op basis van deze GPU geleverd gaan worden en in de toekomst er ook gamekaarten op basis van deze GPU geproduceerd gaan worden, is er grote kans dat het weer mogelijk gaat zijn de "ballen" terug in de kaart te krijgen. ;)
We bedoelen beide iets totaal anders.
Het modden/flashen van een gamekaart naar een professionele kaart is overigens niet altijd mogelijk. Want er is niet van elke high-end Geforce kaart ook een professionele versie.

De toekomst waar je het over hebt kan dit jaar zijn maar kan ook pas over een jaar of 2 zijn. Want dat Nvidia nu een professionele kaart met deze specs op de markt brengt hoeft niet te betekenen dat ze dit jaar een game versie op de markt zetten.
De game markt is anders dan de professionele markt. De specs van de Geforce kaarten die ze releasen is niet alleen afhankelijk van wat mogelijk is maar ook van wat nodig is. Als ze met een mindere kaart die goedkoper te maken is de kroon kunnen grijpen dan zullen ze dan doen.
Ik zeg ook nergens dat het altijd mogelijk is, ik heb er alleen hoop op dat het in dit geval wel weer mogelijk wordt.
Als dat pas 2 jaar later is vind ik dat nog geen probleem. Een high end professionele kaart van 2 jaar oud is nog altijd vele malen meer waard dan een high end gamekaart van nu. Ik verwacht alleen niet dat het 2 jaar gaat duren, of ze moeten er nog iets tussen kunnen uitgeven.

De specs zijn zeker afhankelijk van wat er nodig is. Op een gamekaart krijg je gewoonweg geen functies voor professioneel gebruik. Wil je die wel maar wil je er niet voor betalen, dan is een dergelijke mod een oplossing.
Helaas kan je dat wel vergeten vanaf de Maxwell generatie (komend van de eerste persoon die een GTX780 heeft omgebouwd naar een Tesla K20/K40). Als je het ombouwen correct wil doen, moet je ook je firmware aanpassen en gezien nvidia heeft besloten om hun firmware te encrypten sinds Maxwell, gaat dat dus niet door helaas :'(
wauw... als ik deze specs zie van de nieuwe pascal chip.. vraag ik me serieus 1 ding af.. HOE houden ze deze bad-boy koel? ik bedoel.. 1328 MHz base clock?!! 1480 mhz boost clock... dat moet serieus warm worden die chip.. met zoveel raw power.. ik weet dat de 'normale' grafische kaarten ook tegen de 1250-1300 aanlopen.. maar dat is niet de base clock!

en die worden rond de 60-65 graden? +- onder load..
De nieuwe Nvidia kaarten worden op een kleiner en zuiniger 16nm procedé gefabriceerd en er wordt gebruik gemaakt van HBM2 geheugen, wat ook weer zuiniger is dat het nu gangbare GDDR5 geheugen. Verder heeft het vergelijken van kloksnelheid weinig zin aangezien deze de geheel nieuwe Pascal architectuur gebruiken.
daar ben ik idd van op de hoogte.. maar alsnog.. ze schroeven dit soort dingen steeds verder op... waar ligt de grens? 2000 mhz? just saying...
De nieuwste generatie Intel cpu's komt met een baseclock van 4 GHz (pricewatch: Intel Core i7-6700K Boxed). Dat verwacht ik niet snel te zien bij videokaarten (stroomverbruik wordt dan veel te hoog, dat is al hoog). Een kleinere videokaart van 4 GHz is echter technisch niet onmogelijk. Wie weet dergelijke snelheden over een paar generaties tegen.

Let op dat vermogen = 2*v*frequentie. Dus wat in dit geval zal helpen, is dat het 16nm procedé met minder voltage kan wegkomen. Hierdoor kan de frequentie omhoog zonder dat het totaal opgenomen vermogen hoeft te stijgen. Zo kan een zuinigere architectuur toch sneller zijn.

[Reactie gewijzigd door sdk1985 op 6 april 2016 03:10]

'De nieuwste generatie Intel cpu's komt met een baseclock van 4 GHz (pricewatch: Intel Core i7-6700K Boxed). Dat verwacht ik niet snel te zien bij videokaarten (stroomverbruik wordt dan veel te hoog, dat is al hoog)' <- dat is dus precies mijn punt... wat ik probeer uit te leggen..

een CPU word gekoeld op een andere manier en voltage werkt net wat anders als een GPU..

GPU kan veel minder hebben op de lange termijn en is ook niet gebouwd voor snelheden die 3-4 ghz bereiken..

vandaar ook mijn EERSTE antwoord op deze topic, waar iedereen op quote:

als ik deze specs zie van de nieuwe pascal chip.. vraag ik me serieus 1 ding af.. HOE houden ze deze bad-boy koel?

zelfs met de 16 NM producé

en dan nogmaals, de andere kant van mijn quote:
1328 MHz base clock?!! 1480 mhz boost clock... dat moet serieus warm worden die chip.. met zoveel raw power.. standaard kaarten van nu worden ook al best high end gekoeld dmv air.. en die worden rond de 70-80 graden? +- onder load..

stel de energie gaat met 25% naar beneden.. hoeveel verschil is dan in de warmte uitwisseling?
15-20 graden? (daar doelde ik eigenlijk een beetje op, want DAN kan je ook beetje voorspellen, HOEVER je de GPU kan clocken voor hij richting de 90 graden gaat!)
Het tdp staat voor thermal design power. Dat is een maatstaf die aangeeft hoeveel er gekoeld moet worden. Het tdp is 300W, aldus de specificaties. Blijkbaar is er dus "slechts" 300W koeling nodig op deze kaart. De interpretatie die jij geeft aan de kracht en de megaherzen zijn dus volledig overbodig. Natuurlijk moet je flink koelen als je er 8 in een doos stopt (8x300=2400W), maar we weten al precies hoe en wat.

Verder geloof dat je even gemist hebt dat een GTX 980 ook al 1350 Mhz doet: http://www.techpowerup.co...A/GeForce_GTX_980/29.html

Dat was echter nog op 28nm. Zoals gezegd is 16nm zuiniger waardoor het makkelijker is om hogere Mhz te halen met een lager tdp.
de 980 is al langs 2000mhz gegaan op ln2 :)
maar vast niet met stock cooler... ;) daar zal vastwel een waterkoeling set van EK waterblocks opgezeten hebben ;)
hence "ln2"

ln2=vloeibaar stikstof, dus niet met waterkoeling maar met dit soort dingen:
https://www.ekwb.com/news...t-ek-sf3d-critical-point/
en dat is ook echt iets wat de consument even in zn vriezer heeft staan.. dus dat 'over de 2000 mhz' is natuurlijk beetje onzin als je dat met stikstof gaat doen.. en 'omdat het kan' is ook bullshit want dr zijn nog geen kaarten dus die dat kunnen.. dat was mijn hele punt.. WAAR ligt de grens straks met de 1000 series en HBM2 + 16NM architectuur..

ik kan ook wel een skylake naar 7.x ghz klokken met stikstof... is het nuttig? werkt het heel lang? NOPE... word het veel gedaan? NOPE... dus is het relevant? NOPE!
dat is jou mening :)
lol...... gewoon.... lol.... das geen mening... das de waarheid beste man.. ik ken in mijn directe omgeving geen mensen die met stikstof hun spullen koelen... beeeeetje te gevaarlijk voor een game pc die 24/7 draaid don't you think...
hoe relevant iets is is een mening :)
Ik verwacht dat tussen 2020 en 2030 veel meer processors komen die neurale netwerken gaan simuleren, en zo allerlei robot achtige producten op de markt komen die we kunnen leren klusjes te doen. Geen statische programmering meer.
Microsoft begint ook een beetje wind in die zeilen te blazen (richting diepere en real time "online" analytics)

Microsoft SQL Server 2016: Real-Time Operational Analytics (https://www.youtube.com/watch?v=VgV5fbh_O-0)

PowerBI: https://powerbi.microsoft.com/en-us/tour/

Dus nu de zakelijke gebruiker Excel en reporting services doen vergeten
10,6 teraflops bij fp32? Das niet zoveel, zeker gezien AMD's Pro Duo kaart 16 terflops doet, dus een enkele gpu zo'n 8. Dan vind ik 25% sneller dan de huidige generatie maar vrij matigjes, of mis ik hier iets?
of mis ik hier iets?
~10x de fp64?

Bij de nieuwste nvidia en amd chips is de fp32 enorm gestegen, maar ten koste gegaan van fp64.
nvidia wordt steeds sneakier, als ze over het over TFLOPS hebben ze het over FP16...
Hoewel de architectuur en de flexibiliteit anders zijn, is het indrukwekkend om te bedenken dat de rekenkracht van deze Tesla P100 in de buurt komt van de Japanse 'Earth Simulator' uit 2002 met zijn 35,86TFLOPS. Die laatste was toendertijd de snelste computer te wereld en nam een complete sporthal in beslag.

@ EraYan: dank, foutje aangepast. GFLOPS moest uiteraard TFLOPS zijn.

[Reactie gewijzigd door Timfonie op 6 april 2016 01:08]

35.86 gigaflops tegenover 5.3 teraflops? M'n i7 haalt volgens mij meer dan 35 gflops.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True