Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties

Nvidia heeft een nieuwe versie van de professionele Quadro M6000-videokaart uitgebracht. Het vram is verdubbeld naar 24GB, maar de grafische kaart is nog steeds voorzien van de GM200-gpu op basis van de Maxwell 2-architectuur.

Het aantal Cuda-cores is in vergelijking met het model van vorig jaar hetzelfde gebleven met 3072. Ook de maximale Boost-snelheid is met 1,14GHz gelijk, waarmee ook de maximale snelheid bij single precision-operaties nog steeds zeven teraflops is. De 24GB aan vram bestaat uit 24 chips van 8Gb-gddr5, het vorige model maakte gebruik van evenveel 4Gbit-chips. De Quadro M6000 heeft een tdp van 250W.

De gpu communiceert met het geheugen via een bus van 384bit breed, waarmee de maximale bandbreedte uitkomt op 317GB/s. De videokaart kan maximaal vier beeldschermen in 4k-resolutie aansturen. Hiervoor heeft de gpu vier displayport 1.2-aansluitingen. Ook is er een dvi-aansluiting en ondersteuning voor vga.

De Quadro M6000 komt ook met nieuwe beheeropties voor de temperatuur en de kloksnelheid. De professionele kaarten van Nvidia worden meestal geleverd met uitgebreidere opties dan de modellen voor consumenten. De nieuwe opties worden vermoedelijk mogelijk gemaakt door nieuwe firmware, al laat Nvidia dit niet weten.

De 5000 dollar kostende videokaart is bedoeld voor de zakelijke markt en gaat vanaf 22 maart in de verkoop. Een prijs in euro's is nog niet bekend. De nieuwe versie van de M6000 vervangt het vorige model volledig.

M6000

Moderatie-faq Wijzig weergave

Reacties (93)

Deze upgrade is mogelijk door GDDR5 chips met een grotere datadichtheid (wat weer mogelijk is door een kleiner productieprocess) die daardoor meer data op dezelfde chip kwijt kunnen: 8Gb (1GiB) in plaats van 4Gb (512 MiB).

Nvidia kan simpelweg maximaal 24 chips kwijt op een printplaat naast de GM200 CPU. Voorheen was dit 24*0.5GB = 12, nu is dit 24*1GB = 24GB.

Er zijn enkele hele specifieke markten (met name visuele bewerking) die hier behoefte aan hebben. Voor de gewone consument is dit volstrekt oninteressant, een GTX 980 Ti of Titan X kaart zal beter presteren in o.a. games.

Wellicht ook interessant: Elke chip heeft dus een 16-bit bus, waardoor de totale bus nog steeds 16*24 = 384 bits breed blijft. De doorvoersnelheid per bit-in-bus is dus ook hetzelfde met 6.6 Gb/s, wat in totaal (*384) dus nog steeds 320 GB/s is.

[Reactie gewijzigd door Balance op 22 maart 2016 16:01]

Er zijn enkele hele specifieke markten (met name visuele bewerking) die hier behoefte aan hebben.
Blijft specifiek, maar soms zie je dat bij fanatieke consumenten ook terug een home-lab, maar niet vaak; vGPU, vSGA, vDGA (Dedicated Graphics Acceleration ) voor host; en zo toch GPU ondersteuning aan de (virtuele)clients/machines..

Ik zeg virtueel, want dat kan ook een domme terminal en dan heb je een aardige desktop voor VM sessie.; bijv 4+ fysieke werkplekken met video support via centrale host; shared resources etc. Kan in sommige gevallen de kosten behoorlijk drukken. Mede omdat het zo leuk geschaald kan worden.

Even geleden, was er een toename in vraag op de 2e hands markt voor dit type kaarten; vanwege de efficentie bij minen van virtuele valuta :Y)

//edit; niet geheel volledig in post; betreft oplossing dmv kvm / xen http://wiki.xen.org/wiki/...s#Nvidia_display_adapters wat grid support mogelijk maakt, of soms 'emuleert'

[Reactie gewijzigd door himlims_ op 22 maart 2016 22:36]

Nu wordt voor virtuele cliŽnts door nVidia het gebruik van Grid Kaarten gepropageerd. Waarom zou ik deze kaart voor virtuele cliŽnt sessies gebruiken? De grote vijver geheugen is natuurlijk voor de meerdere cliŽnts heel aantrekkelijk. Als ik naar die Grid 2.0 oplossingen kijk en ik vergelijk deze kaart met een Tesla M60 (16MB, 4096 CUDA cores) dan is de Quadro M6000 qua geheugen met 1/3 meer geheugen ruimer bemeten, maar heeft de M60 25% meer CUDA cores).

Bij de Grid kaarten wordt wel de Grid virtualisatie software geleverd (Hypervisor). Ik weet nu niet wat de Tesla M60 hardwarematig uniek maakt ten opzichte van deze Quadro M6000. Zou de virtualisatiesoftware op beide kaarten gewoon toepasbaar zijn? Dit zou zomaar kunnen want nVidia zou het zichzelf moeilijk maken door de verschillende kaarten in architectuur teveel te differentiŽren. Stel dat beide kaarten met de virtualisatiesoftware zijn te gebruiken, dan zou door het grote geheugen het accent van de M6000 bij veel kleinere virtuele sessies liggen die de processor met elkaar niet te zwaar te belasten. Bij de M60 ligt het accent bij zwaardere sessies, minder in aantal, met CAD, game of virtualisatiesoftware. De krachtiger processor geef de sessie de nodige kracht, en met een beperkt aantal sessies hoeft het geheugen geen beperking te zijn.

Waar de Quadro M6000 zich mee profileert is iets als Interactive rendering. DigitalArts noemt de techniek Iray, wat volgens nVidia een afkorting is voor Interactive Rendering (ik veronderstelde zelf Interactive Raytracing, misschien is het zo begonnen). De software is zo geoptimaliseerd dat tijdens een interactieve sessie een viewport snel toonbaar wordt gerenderd. De techniek kan in een server product ook nog geparallelliseert op meerdere fysieke computers werken (rendering farm). Maar ja, ook deze software is op beide kaarten volgens mij wel te gebruiken, als een nVidia GPU wordt gevonden zal het wel goed zijn. Storend begin ik het wel te vinden is dat al die oplossingen elkaar zo lijken te overlappen, zelfs met de visualisatiesoftware waarvoor de M6000 vooral lijkt te worden gebruikt. Ook die software kan parallel renderen faciliteren, dat kon visualisatiesoftware jaren terug al, en mogelijk wat GPU onafhankelijker dan deze nVidia software.

Edit: typo's

[Reactie gewijzigd door teacup op 22 maart 2016 22:39]

De M6000 is idd vooral een pro 3D vieuwport versneller en compute kaart voor 3D en Video, etc.
Iray is geen techniek maar een gpu render applicatie van nvidia zelf, net als o.a. Vray RT en Octane.

Maar idd, Nvidia is wel duidelijk in waar ze hun verschillende reeksen willen zien, maar in de praktijk zit er veel overlap. In princiepe zijn gtx'en prima voor bijv video en renderwerk, behalve dat als je meer VRAM wilt je automatich veel meer moet gaan betalen omdat je dan naar de pro kaarten toe moet..
De GTX980 Ti presteert niet beter dan de M6000 in games en de TItan X ongeveer gelijkwaardig afgaande op deze 3dmark test: http://videocardz.com/550...itan-x-3dmark-performance
waarom blijft nvidia doorhameren op 384 bit ?
There's no substitute for wide busses...
De bandbreedte per pin is gelimiteerd door je geheugen, en hoewel dat langzaam omhoog gaat, is de snelste manier om meer bandbreedte te krijgen je bus verbreden.

Echter, hoe breder die bus, hoe duurder het ontwerpen en bouwen wordt. Effectief is 256 bits gangbaar, is 512 bits heel erg duur (zelfs voor high-end), en zit NVidia er gewoon tussenin. Je merkt er zelf weinig van welk type je precies hebt ;)

De magische uitweg komt van HBM, dat gigantisch brede bussen biedt ( 1024 bits of meer), dankzij een interposer (stuk silicium tussen geheugen en GPU).
dankzij een interposer
Hebben zowel AMD als nVidia die op hun roadmap staan? Ik ken hem alleen van AMD namelijk.
Je moet ongeveer wel als je HBM wilt gebruiken, gezien even 4096 baantjes over je gewone (10-laags?) PCB trekken totaal onmogelijk is. HBM leeft vanwege die gigantische bus, want de snelheden per pin zijn nog betrekkelijk laag. Daarnaast hebben HBM-chips zover ik weet een veel kleinere ball pitch (hoe dicht de verbindingen bij elkaar zitten) dan gewone GDDR-chips, dus ook daarom al moet je een interposer gebruiken.
HBM heeft het tweede en derde voordeel dat de latency iets lager is dan met traditioneel GDDR5 geheugen, en het verbruik echt met tientallen watts een stuk lager uitvalt.

Het is HBM2 die het verschil moet gaan maken. Echter AMD heeft op dit moment gewoon voorrang bij levering HBM2 chips.
Dat is nu eenmaal wat nvidia op hun snelste chip heeft zitten.
Als iemand nu nog even een OS schrijft wat 100% op de gpu kan draaien dan heb je geen PC meer nodig, gewoon videokaart, beeldscherm, toetsenbordje en muis eraan, en gaan :P
Videokaarten zijn zo snel omdat ze vergeleken met CPU's een erg grote foutmarge hebben. Dat is niet zo erg voor grote berekeningen waarbij dat effect in het niet valt of visuele data waarbij je het niet zult zien, maar bij sommige dingen wil je toch echt wat meer zekerheid hebben. Al is het alleen maar omdat anders je kernel in de soep loopt.
Dit is niet helemaal de reden dat ze zo veel sneller zijn in vergelijking met een CPU. Het grote verschil is het aantal threads die tegelijk uitgevoerd kunnen worden, maar anders dan bij een CPU kunnen deze threads op een GPU niet verschillende taken doen. Op een GPU doet elke thread eigenlijk dezelfde taak, maar dan met verschillende data (voor een 3D applicatie bijvoorbeeld vertices). Waar een CPU zo'n 4 tot 16 threads heeft, hebben GPU's er honderden tot duizenden.

Dit beperkt wel enigszins de mogelijkheden van wat er met een GPU gedaan kan worden. Buiten 3D applicaties kunnen ze ook voor andere applicaties ingezet worden, zie https://en.wikipedia.org/...essing_units#Applications

Daarbij bieden de Quadro kaarten juist ondersteuning voor hoge precisie, die inderdaad voor consumenten applicaties (games) niet nodig is.
Haha, toen ik ooit van iemand die uitleg kreeg had ik al het vermoeden dat het oversimplitisch was. Bedankt voor de extra toelichting!
zover ik weet zijn het digitale ontwerpen wat wel exacte berekeningen uitvoeren (ook CUDA/OpenCL).

Fout marge?

En deze quadro kaarten werken met ECC net om exact bit-to-bit juist te zijn...
Ja, het geheugen van die dingen is ECC, maar RalphM bedoelde het resultaat rekentechnisch van die kaart.

Extreem versimpeld voorbeeld, voor een GPU bestaat de kans dat 1+1 geen 2 teruggeeft maar 2.1 of 3 ;) Bij 60FPS zie je een klein foutje toch niet, en als je het wel ziet is het in het volgende frame waarschijnlijk toch al weg.
Hangt er vanaf, puur technisch gekeken heb je half gelijk, maar effectief merk je er niks van.

De uitgebreidere uitleg komt in 2 delen: de eerste is dat de floating-point-unit van je CPU intern met een paar meer bitjes rekent dan de 32 of 64 die hij naar buiten brengt. IEEE-754-standaard zegt 40 bits voor 32-bits, of 80 bits voor 64-bits (extended precision). Zo lang je niet buiten je CPU komt, blijft die nauwkeurigheid behouden. Note is dat je SSE-instructies die optie niet hebben, dus in sommige gevallen gaat die vlieger niet op. (in belangrijke gevallen, zoals trigoniometrie en exponenten etc werkt het wel, die worden alleen op je FPU gedaan)

Ten tweede doen grafische kaarten, die van NVidia in het bijzonder, heel weinig met double precision (64 bits gebruiken ipv 32), omdat het voor videospellen etc niet nodig is. Wil je het toch, dan lijdt je performance eronder, en krijg je nog maar 1/16e of 1/24e van je FP-32-performance terug. Dat gebruik je dus alleen als je erop staat (wetenschappelijk rekenwerk bijvoorbeeld).

Daarnaast heeft je GPU een paar hardwarematige toevoegingen voor bijvoorbeeld trigoniometrie, die veel sneller zijn, maar onnauwkeuriger dan de IEEE-standaard. Wederom omdat je het toch niet ziet, maar wel vaak nodighebt.

De meeste kaarten ondersteunen ook nog 16-bit rekenwerk, waardoor je nog meer sommen kunt maken, maar weer met minder nauwkeurigheid. Dat wordt zover ik weet (niet nauwkeurig!) weinig gebruikt, maar voor game-engines kan ik me voorstellen dat het van pas komt.

ps. die afrondingsfouten komen ook gewoon op je CPU voor, zie hier voor een lange uitleg, of hier voor de korte versie.
pps. de grote verschillen in snelheid komen pas tevoorschijn als je app singlethreaded gaat pointerchasen ;)
Heel goed verhaal, maar dit had nog wel even duidelijk erbij gemogen:
Extreem versimpeld voorbeeld, voor een GPU bestaat de kans dat 1+1 geen 2 teruggeeft maar 2.1 of 3
Hťťťl erg extreem versimpeld. In werkelijkheid is het meer dat waar het antwoord 2,000000000 zou moeten zijn het nu 1,999999999 is, of 2.000000001. Maar dit heeft er niks mee te maken of het een CPU of GPU is (hoewel GPU's een pietsie minder nauwkeurig zijn).

Het is een fundamenteel feit dat het onmogelijk is om exacte berekeningen te doen met gebroken getallen.

Ga maar na:
1 / 3 = 0,33333333333 <-- wanneer mag je stoppen met 3en te schrijven??

De vraag is niet of je een afwijking krijgt, maar hoe groot die is en of hij binnen veilige marges blijft. Waar je als programmeur mee op moet passen is de berekening niet zo te maken dat de afwijking steeds groter wordt. Als je het goed doet dan heffen de afwijkingen naar boven de afwijkingen naar beneden op zodat het gemiddeld precies klopt.

En even een brain fuck ter afsluiting:

Hoeveel cijfers zitten er tussen 0 en 1 ? --> oneindig
Hoeveel gehele cijfers boven 0 zijn er? --> oneindig
Hoeveel gebroken cijfers boven 0 zijn er ? --> oneindig
(Gebroken cijfers > 0) == (gehele cijfers boven 0)? oftewel
oneindig == oneindig ? --> Nee! Hoewel beide sets met getallen oneindig groot zijn, heeft men wiskundig aangetoond dat er *meer* cijfers in de set met positieve gebroken getallen zitten dan in de set met positieve gehele getallen! Er zijn meerdere varianten van oneindig!?! WTF math rules!!
It was not until the 19th Century that mathematicians discovered that infinity comes in different sizes
http://www-history.mcs.st...analysis/Lectures/L4.html
maar een cpu werkt in principe flawless als je geen floating point units gebruikt?
en bij gpu's is dat onmogelijk omdat het alleen maar fpu's heeft
toch?

[Reactie gewijzigd door gamejunk58 op 22 maart 2016 21:28]

Beide werken foutloos zo lang je ints gebruikt binnen de normale range (overflows worden soms anders behandeld, hoewel ook daar regels voor zijn).
Verder werken ze ook volgen specificatie bij floats, alleen verwachten mensen iets anders dan de specs zeggen ;)
(GPUs kunnen prima met gehele getallen omgaan, alleen zijn ze ongeveer net zo snel met floats, in tegenstelling tot je CPU)
Ten tweede doen grafische kaarten, die van NVidia in het bijzonder, heel weinig met double precision (64 bits gebruiken ipv 32), omdat het voor videospellen etc niet nodig is. Wil je het toch, dan lijdt je performance eronder, en krijg je nog maar 1/16e of 1/24e van je FP-32-performance terug. Dat gebruik je dus alleen als je erop staat (wetenschappelijk rekenwerk bijvoorbeeld).
Ik meen dat de nieuwe Maxwell-videokaarten zelfs slechts een verhouding van DPFP 1:32 SPFP. Voor dergelijk gebruik is deze kaart dan lijkt me eigenlijk ook (zeker prijstechnisch) gewoon niet geschikt, AMD producten zijn voor DP-computing nog een stuk aantrekkelijker, of eventueel de Tesla of Xeon Phi coprocessoren van nvidia of Intel.
zoals ik al zeg : ze rekenen wel juist. Ook voor OpenCL en Cuda.

Het zijn compute units.

Wat ze wel hebben is beperktere floating points (16 bits) bijvoorbeeld. hierdoor kan je afwijkingen hebben tegenover 32/64bit floating points.


Waar het wel anders is: ze implementeren soms een iets afwijkende versie van floating point, voor performance redenen.

[Reactie gewijzigd door bjp op 22 maart 2016 16:43]

Ze rekenen volkomen gestandaardiseerd en correct het foute antwoord uit :)

Maar het foute antwoord wat ze geven is wel het antwoord dat het dichtst bij het juiste antwoord komt. Ze kunnen het ook onmogelijk exact juist doen aangezien daar oneindig veel precisie voor nodig is. Zelfs 24GB is niet veel in vergelijking met oneindig/
Volgens mij heeft het helemaal niks daarmee te maken. De hele architectuur van een gpu is erop gericht om parallel te werken en om grafische taken te verichten en werkt dus totaal anders dan een cpu die in principe een alles kunner is.

Trouwens gpu's worden vaak gebruikt bij modellen omdat deze hiervoor geschikt zijn. Die modellen worden zo opgezet dat je ze parallel kan berekenen. Maar dat betekent niet dat je er zomaar een OS op kan draaien dat is toch echt wat anders.

[Reactie gewijzigd door Barsonax op 22 maart 2016 17:47]

Waar wil je die videokaat dan instoppen? Je wilt geen I/O (usb, audio,etc) meer in je PC? |:(
Ok, algemener gesteld dan: wanneer een insteekkaart voor een pc zoveel functionaliteit en rekenkracht bevat dat hij rondjes rent om zijn omvattende systeem, waarom dan niet deze kaart als basis gebruiken voor een systeem ipv als aanhangsel. Het lijkt me uit verhouding. Alsof je een 1 liter volkswagen polootje rijdt met een ferrari-F1-motor als ruitenwissermotor :P
De GPU is daar te gelimiteerd voor. Veel berekeningen kunnen gewoon niet op de GPU of hebben daar te veel overhead. CPU is daar juist zo geschikt voor omdat het een manusje van alles is.
Omdat je ook geen scheepsdiesel in je auto stopt... hoewel die dingen veel krachtiger (en groter :P) zijn dan je auto-pruttel.
GPUs zijn hele gespecialiseerde rekendingen, en vereisen parallel werk om nuttig ingezet te kunnen worden. Liefst ook nog iets dat niet teveel random graaft in z'n geheugen, en geen/weinig communicatie vereist tussen de verschillende taken. Voldoet je klus daar niet aan, dan blijft er van die snelheid niks over.
phYzar zegt eigenlijk hetzelfde als jij. GraKa van 5000 in systeempje van 1000 proppen is een beetje als een scheepsdiesel in je auto stoppen.
Dit gaat helaas niet werken. Simpel gezien kan een CPU een hele hoop verschillende dingen, alleen niet zo heel erg snel. Een GPU kan veel minder verschillende dingen, alleen dan een stuk sneller. Je hebt altijd een CPU nodig voor een hoop dingen die een GPU gewoon niet kan.
Vind de hoeveelheid geheugenchips wel flink meevallen. Best kans dat er ook een 48GB versie komt of dat deze op de planning stond. Veel kaarten hebben namelijk 4 tot 8 chips op de kaart.
De 24GB aan vram bestaat uit drie chips van 8GB-gddr5.
Dit is slechts een (beetje domme) fout van de auteur, gezien het om 8 Gbit geheugen chips gaat, niet 8 GByte. Daar zitten er dus, net als de 12GB M6000 (4 Gbit/chip) had, 24 van op.

Als er een geheugenfabrikant GDDR5 met 8 GByte en een 128-bit interface op een enkele chip kon maken, hadden we niet eens HBM nodig.

[Reactie gewijzigd door SirNobax op 22 maart 2016 16:30]

Dit was inderdaad een dom foutje gemaakt omdat andere bronnen 8GB schreven. Daarmee werd 8Gb bedoelt. Daarna was de 3 chips een zogeheten doorrekenfout :P Bedankt voor het verbeteren!
Tja bij geheugenchips spreekt men eigenlijk altijd van Gbit. Zelfde als bij netwerk apparatuur.
Ik vermoed dat er iemand een rekenfoutje gemaakt heeft, 8 GB-GDDR5-chips zijn nog niet beschikbaar bij mijn weten, 8 Gb-chips wel. In dat geval zouden er 3x8=24 chips op de kaart zitten, ongeveer het maximum dat je erop kunt peuteren. (GDDR5 kan in 32-bit-mode werken of in 16-bit-mode, waarbij 2 chips in clamshell-config tegenover elkaar zitten).

Willen ze gekker doen, dan zal de databus vergroot moeten worden.

[Reactie gewijzigd door FreezeXJ op 22 maart 2016 16:22]

Ik vraag me altijd af hoe de prestaties van Direct X games zijn met zo een high-end zakelijke kaart. Komt dat in de buurt van een GTX 980Ti?
je zult geen betere prestaties krijgen, en als dat toch lukt is het de extra kosten niet waard. Deze kaarten zijn gemaakt voor video editing, CAD etc.
Ze zijn eigenlijk vrijwel identiek, op de drivers na. De Quadro drivers zijn gespecialiseerd op precisie in weergave, de GeForce drivers op snelheid.
317GB/s? Welke PCI-E poort kan zoveel data verwerken? PCI-e 3.0 x16 gaat niet sneller dan 32GB/s.

Zelfs PCI-e 4.0 x16 gaat niet sneller dan 16GT/s.
Daar zal waarschijnlijk de bandbreedte tussen GPU en VRAM worden bedoeld.
Anders moet een processor wel heel veel draw calls op de videokaart kunnen afschieten...
Kunnen we deze niet gebruiken om te gamen? Zo niet, waarom? :-]
Kan wel, maar bij Quadro kaarten betaal je, naar ik verneem, niet zozeer extra voor de hardware/performance, maar voor extra support. Daarom is hij verhoudingsgewijs zo duur.
Meer voor een licentie op een hoop driver functies. Koppelingen met professional software etc.
Iets voor LinusTechTips wellicht, kan hij een PC bouwen waar 12 mensen tegelijk op kunnen gamen.. ;)
Ik kan me herinneren dat quadro kaartjes graag alle frames 'er doorheen' probeeren te 'duwen'. Dwz dat er geen bugfixes worden toegepast op foute implementaties van hoe dingen gerenderd worden door software. Die zitten namelijk in de drivers, en je hebt voor quadro kaarten andere drivers ;).

Source: ervaring met 3d software die niet correct werkte op quadro kaartjes (maar wel geforce).
Allereerst vind ik het raar dat je met een 0 (off-topic / irrelevant) beoordeeld wordt, want je stelt een on-topic vraag.

Los van de te hoge prijs voor consumenten, ben ik ook wel benieuwd of je mega goede gamingprestaties krijgt wanneer je deze kaart in je PC prikt. Daarentegen kan ik me goed voorstellen dat er aller driver issues zijn en zijn games totaal niet op dit type kaart geoptimaliseerd wat misschien juist tot hele slechte prestaties leidt.
Tuurlijk kan dat, je betaald er alleen veel te veel voor kwa prestatie ;)
En dan nog het driver-verhaal, optimalisatie etc.
Wat ik me nou afvroeg is; waarom maken ze de game kaarten (GeForce) zo saai grijs, en de Quadro's (die toch meestal in potdichte behuizingen zitten) met van die mooie fel groene kleuren erop?

Meeste mensen zullen die stock heatsink/fans haten, maar ik vind het eigenlijk wel mooie koelers en helemaal in die kleurstelling (fel groen/zwart).

offtopic:
Ik verzamel ook ventilators en heatsinks en dergelijke, en vind radiaal ventilators altijd wel mooi ongeacht het geluid
.
Zolang de software ondersteuning brak blijft kunnen ze er duizenden gb's vram op plakken maar heeft het geen enkel nut... ik werk veel met Autodesk software (Civil 3D) en dat programma is gewoon dramatisch slecht geschreven voor de huidige generatie hardware.
Leuk voor Bitcoints te minen aangezien de TDP 250W is.
Maar, de TDP zegt toch niet per se iets over hoe goed de kaart is met bitcoin mining?
Wel over het stroomverbruik, wat even belangrijk is bij het minen van bitcoin ;)
Ik dacht dat bitcoins minen op een GPU al een hele tijd niet meer boeiend was?
Is dat geen FPGA-only als je nog wat wil verdienen eraan?

Edit: en dan zien ik http://tweakers.net/nieuw...eaction=8358973#r_8358973 als post hier vlak onder, is dus al duidelijk :)

[Reactie gewijzigd door Pure_evil op 22 maart 2016 20:31]

Niet echt, De CUDA cores zijn even snel gebleven ten opzichte van de vorige versies. De snelheid van bitcoin minen zal dus niet omhoog gaan (Deze is namelijk gelimiteerd door de cores, niet het memory).

Sowiesi is tegenwoordig een gpu voor bitcoin mining niet meer echt geschikt. De snelheid op het bitcoin-netwerk is zo hoog geworden dat je speciale hardware moet gebruiken om er nog enigsinds iets mee te verdienen (En ook dan is het vaak niet winstgevend).
Dit is helemaal niet leuk voor mining. nVidia kaarten zijn hier bijzonder slecht in.
Dat valt best mee tegenwoordig. De #2 coin van dit moment qua market cap (Ethereum) mined op een 970 ongeveer net zo snel als een R9 380. Andere coins zoals decred gaan juist op Nvidia het snelst.
Goed om te weten, was nog steeds onder de indruk dat de CUDA miners niet heel efficient waren.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True