Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Astron neemt supercomputer met 200 GTX 1080 Ti-kaarten in gebruik

Astron, het Nederlands instituut voor radioastronomie, heeft een supercomputer met tweehonderd Nvidia GeForce GTX 1080 Ti-kaarten in gebruik genomen. Het cluster gaat speuren naar lichtflitsen op afbeeldingen van de camera's van de Astron-telescoop.

Het cluster met de videokaarten bevindt zich in Westerbork, waar ook de schotels voor de Astron-radiotelescoop staan. Volgens Joeri van Leeuwen, astronoom en principal investigator bij Astron, gaat het om de krachtigste supercomputer van Nederland. "Het cluster biedt een rekenkracht van 2 petaflops." In theorie zou het cluster daarmee plek 84 in de wereldwijde Top500 van supercomputers in kunnen nemen. Momenteel is Cartesius 2 de krachtigste supercomputer van Nederland, met een piekrekenkracht van 1,3 petaflops.

De supercomputer in Westerbork zal echter geen Top500-notering krijgen en niet zo hoog eindigen als dit wel zo was. Van Leeuwen heeft geen interesse om de vereiste Linpack-benchmark te draaien en de gebruikte GeForce GTX 1080 Ti-kaarten blinken niet uit in FP64-berekeningen. Voor de meeste supercomputers is de FP64-rekenkracht juist belangrijk en de High Performance Linpack-, of HPL-benchmark is dan ook een FP64-benchmark. Het Astron-systeem kan hoe dan ook prima uit de voeten met de FP32-prestaties, waar de GTX 1080 Ti met zo'n 11tflops wel zijn mannetje staat.

"De afbeeldingen van de Astron-telescoop hebben 8bit-kleurdiepte, daar kunnen deze consumenten-gpu's goed op rekenen", vertelt Van Leeuwen aan Tweakers. Astron beschikt sinds kort over Apertif, een nieuwe set camera’s die in de schotels van de radiotelescoop in Westerbork zijn geÔnstalleerd. Deze maken het mogelijk om gecombineerd in ťťn opname een groot deel van de hemel vast te leggen. Daartoe maakt de telescoop 20.000 afbeeldingen per seconde.

"Die zorgen voor een datarate van 4Tbit/s, meer dan de AMS-IX, die 3,7Tbit/s verwerkt. We hebben verder 2 petabyte aan opslag", aldus Van Leeuwen. Het gpu-cluster gaat die datastroom aan afbeeldingen verwerken op zoek naar heldere flitsen van radiolicht. Die flitsen duren een fractie van een seconde en tot nu toe zijn er maar 25 van waargenomen.

Ze stellen astronomen voor een raadsel, want de oorzaak is onbekend. "We vermoeden dat ze worden veroorzaakt door zwarte gaten of ontploffingen op neutronensterren. De gpu's moeten de flitsen onderscheiden van achtergrondruis. Daar moeten ze steeds beter in worden. Bij een mogelijke detectie krijgen we een seintje en kunnen we de flits handmatig analyseren. Tegelijkertijd krijgen telescopen wereldwijd een melding, zodat ook zij hun beelden kunnen bekijken."

Door Olaf van Miltenburg

NieuwscoŲrdinator

19-01-2018 • 17:20

205 Linkedin Google+

Reacties (205)

Wijzig sortering
4Tbps.. Hoe sla je dit op? Volgens mij gaan de snelste nvme drives iets van 3GBps.
Ook al heb je een paar TB ram dat zit ook binnen 8 seconden vol?
De gegevens worden niet opgeslagen, dat is namelijk precies de reden dat er een cluster nodig is: Die 4Tbps wordt door het cluster verwerkt naar een gegevensstroom die wel behapbaar is om op te slaan. Er is dus een netwerk nodig die dat kan verwerken, voldoende rekenkracht, maar er hoeft geen 4TBps vastgelegd te worden.

Maar... je beschrijft wel precies de reden waarom in de supercomputerwereld men niet zo onder de indruk is van NVMe. Hoge snelheden behaal je niet door het verkeer naar hele snelle opslagapparaten te schrijven, maar te verdelen over heel veel opslagapparaten.

Omdat het behalve over veel snelheid ook over heel veel data gaat, zijn SSD's helemaal niet zo interessant. Het ARTS-cluster gebruikt daarom gewoon ouderwetse magnetische schijven. Alleen lekker veel magnetische schijven, 320 stuks in totaal. Laten we zeggen, iedere harde schijf kan 150MB/s schrijven, maal 8 is 1,2 Gbps, maal 320 stuks is 0,384 Tbps. En dat is voldoende voor ARTS.

(Ik ben verantwoordelijk geweest voor het ontwerp van het ARTS-cluster aan zijde van de leverancier, ClusterVision.)

[Reactie gewijzigd door dmantione op 19 januari 2018 20:45]

Toch gek dat er in deze tijd (geheel) voor traditionele schijven is gekozen. Het is niet alleen performance maar ook verbruik en warmte wat toch net zo belangrijk is. Het aantal U’s wat je kan besparen niet eens meegenomen. Daarnaast “krijg” je dus extra performance en ben je beter voorbereid op de toekomstige vraag.(de vraag naar opslagruimte en performance zal immers zeker niet afnemen in de nabije toekomst). Totale prijs zal elkaar niet veel ontlopen maar dan krijg je met (een gedeelte) solid state dus wel de andere voordelen.

Toevallig vorig jaar een storage systeem geplaatst van in totaal 5U(!) met solid states welke 1.8Tbps afleverde. (Average blocksize 32kb read/write ratio 65/35 random i/o)

Voor de 320 traditionele disken heb je zeker 16U nodig, en dan is je performance a 150MB/s alleen haalbaar op de “buitenkant” van de platter.

[Reactie gewijzigd door GeeMoney op 19 januari 2018 21:07]

Als je SSD's zou nemen, dan zou je voor de vereiste capaciteit veel meer SSD's nodig hebben. Die SSD's moet je ergens kwijt, en je bent per terabyte meer plek kwijt aan SSD's dan aan schijven. Omdat je er meer nodig hebt moet je ook voor het energieverbruik vele SSD's met 1 schijf vergelijken, maar belangrijker: Niet de SSD's/schijven gebruiken de meeste energie, maar de processoren. Er is een grens aan hoeveel SSD's je in een server kwijt kan, waardoor het energieverbruik per terabyte ook op die manier negatief beÔnvloedt wordt.

Anders geformuleerd: Als je grote hoeveelheden gegevens genereert, dan zit een SSD veel te snel vol. Dat je 'm heel snel vol kan schrijven, is leuk, dan moet je wel gelijk stoppen met schrijven en zou je direct op 0 bytes per seconde zitten. Het gaat er niet om eventjes snel te schrijven, die telescoop genereert voortdurend gegevens en dat wegschrijven moet je dan ook langdurig kunnen volhouden. Dat 5U-systeem van je zit binnen de kortste keren dan ook vol.

Je hebt gelijk dat harde schijven grillig zijn kwa prestaties en het heeft bij dit project ook nog een paar zweetdruppeltjes opgeleverd, maar dat verandert uiteindelijk niets: Harde schijven blijven gewoon de beste optie. 150MB/s is een conservatieve waarde. Op de buitenkant van de platter halen de schijven in dit geval zo'n 220MB/s. De gemiddelde waarde die behaald wordt ligt iets boven de 150MB/s.
Voor de duidelijkheid: zeg je dat traditionele harde schijven een hogere data dichtheid hebben dan SSD's? Voor zover ik kan vinden is de grootste 3,5" harde schijf een 14 TB drive van Western Digital. Daar staat tegenover een 60 TB SSD in 3,5" form factor van Seagate, of een 16 TB SSD in 2,5" form factor van Samsung.
Gangbare/niet absurd geprijsde varianten van beide vergelijken levert vaak een realistischer plaatje op ;)
Ja, en kijk eens naar het prijskaartje? We hebben 't hier over overheidsgeld he.. check eens prijs per TiB?

[Reactie gewijzigd door DigitalExcorcist op 20 januari 2018 14:14]

Ssd's slaan juist meer op dan hardeschijven. Zit em vooral in de prijs. Op alle andere punten zijn ssds gewoon beter.
De vraag wordt niet hoger want e.e.a. is simpelweg afgestemd op elkaar. Pas als de camera's worden geŁpgradet komt er meer data, maar daar kan en wil je nu je severs niet op voorbereiden.

Ook die paar U verschil is echt niet altijd relevant. Ik begrijp dat t ding gewoon 'naast' de schotels staan dus je hoeft geen huur te betalen per U en voor hetzelfde geld is er simpelweg zat ruimte daar. Sowieso is 5 of 16U qua grondoppervlak gelijk.
Onze andere telescoop (LOFAR) levert zelfs nog meer data, die doet tot 20 Tb/s. :)

Daarom gebeurt de initiŽle data verwerking in een systeem zoals in het artikel beschreven om vervolgens met zo'n 80 GB/s naar disks geschreven te worden. We hebben daarvoor een 3.6 PB Lustre cluster met een zooi disk units. (Ik dacht 1200 disks of zo, kan het nummer niet vinden)

Verdere processing vindt dan plaats op 50 nodes:

CPU: Dual Intel Xeon E5-2680v3 2.5 GHz (12 cores, HyperThreading disabled)
Memory: 256GB @ 2133 MHz
Disk: 2x 300GB 10Krpm SAS RAID
Network: 2x 1GbE, 2x 10GbE, 1x FDR InfiniBand

Waarvan een gedeelte uitgerust met 4 TESLA K40C GPU's.

Dit cluster van 50 nodes verwerkt ongeveer 1 PB per week, data die dan na 2-3 weken weer weggegooid wordt als het goed gegaan is, om ruimte te maken voor nieuwe data.

Alleen de resultaten worden opgeslagen, ongeveer 22 TB per dag, nu in totaal bijna 38 PB, sinds 2010.
Vraagje: waarom 1080ti's en niet Vega's?
Er is naar gekeken, maar de Vega was nog niet leverbaar op het moment dat dit cluster gebouwd werd. Afhankelijk van de uitkomst van benchmarks, zou het heel goed gekund hebben dat de Vega gekozen zou zijn, indien hij leverbaar was geweest.
Hazo, RTG was te laat :(
Ik denk niet dat je makkelijk 200 Vega's kan krijgen op het moment, en misschien is de prijs/performance ook iets lager (geen idee of dat echt zo is).
Denk als je er ineens 200 wilt kopen dat je dan wel bij RTG kunt aankloppen :Y trouwens, ze hebben ook de Instinct reeks (die speciaal voor clusters zijn). Je mag voor zo'n projecten ook nooit de retail prijs rekenen, die krijgen meestal wel speciale prijsjes.
Wat is het voordeel van Vega's boven 1080ti's? (Tenminste, ik dacht dat die minder presteerden?)
Voor games zijn Vega's trager maar compute power is in sommige gevallen vele hoger.
Kan je mij er 1 voorbeeld van geven ? Ben wel eens benieuwd
Ik doe mee aan RC5-72 en daar doet een Vega op full speed een goede 11Gkeys/s, ik weet niet wat een 1080ti doet (speed db is niet up to date) maar die zijn daar eigenlijk altijd al trager in geweest.
Fury X doet er 6.7Gkeys/s
980ti doet er 4.4 Gkeys/s voor de rest staat er niet echt iets bij de speed submissions.
Deze mooie telescoop wordt straks onbruikbaar gemaakt door een gepland windpark.
http://www.dvhn.nl/drenth...-voor-Lofar-21327126.html
Ja.
http://www.rtvdrenthe.nl/...iljoenenstrop-voor-Astron

Project is met gemeenschap geld gebouwd en er is een mooi gebied van gemaakt.
Nu wordt ditzelfde project met gemeenschapsgeld nagenoeg onbruikbaar gemaakt. En onze woon en leefomgeving vernield.
Alleen de resultaten worden opgeslagen, ongeveer 22 TB per dag, nu in totaal bijna 38 PB, sinds 2010.
En waar wordt dat dan op opgeslagen als ik vragen mag? Ik neem aan dat je dat niet live hebt staan. :P
Is dat dan nog gewoon op tapes?
Klopt. De data wordt opgeslagen bij onze projectpartners en staat praktisch allemaal op tapes. Dus als je LOFAR data wilt downloaden zit je altijd aan een stukje extra wachttijd vast die gebruikt wordt om de data op disk te zetten voordat je er iets mee kan. Er zitten wat policies op om de data die recent is waargenomen nog makkelijk downloadbaar te maken voor de onderzoeker die het waarneemvoorstel geschreven heeft.
Wat ik van Joeri begrepen heb, verwerken ze daarmee ongeveer een PB per etmaal.
Vergeet niet dat het niet 1 file is die je moet verwerken, maar vele datastromen. Dat maakt het allemaal wat makkelijker te verwerken.
Die 4 Tbps hoeft dus ook niet over 1 interface heen. 100x 40 Gbps netwerk poortjes is in principe voldoende ;)
Natuurlijk. Elke foto kan waarschijnlijk wel naar een andere server toe. Goedemorgen!
Niet alles wordt opgeslagen. De eerste bewerkingen gaan realtime waarna besloten wordt wat weg mag, gok ik, wat het merendeel zal zijn. Inderdaad is er geen beginnen aan zoveel data op te slaan.
"Het cluster biedt een rekenkracht van 2 petaflops, daarmee zou je op plek 84 in de wereldwijde Top500 van supercomputers komen."

Onzin. De top500 is gebaseerd op gemeten (niet theoretische) FP64 performance. De GTX 1080Ti z'n FP64 performance is 1/32e van de FP32 performance. Gebaseerd op de theoretische FP32 performance van een kaart (11.3 TFLOPS * 200) komen we uit op maximaal 2.26PFLOPS FP32 performance. Daarvan houden we met 1/32e, 70.6 TFLOPS over. En dat is theoretisch - haal er nog eens een flinke hap uit voor real life performance.

Zelfs als we (incorrect) twee FP32 operaties gelijkstellen aan een enkele FP64, moet je de nummers nog steeds halveren.

Neemt niet weg dat dit een leuke cluster is natuurlijk... en de GTX1080 Ti blijft een monster van een kaart. Maar ga geen onwaarheden verkopen :).

[Reactie gewijzigd door Proto op 19 januari 2018 18:36]

Dit cluster is gemaakt om FP32 te doen, en haalt dan 2+ PFLOPS.
Het is bagger voor FP64 en de vergelijking met de top500 is dus alleen dat als er een FP32 Top500 zou zijn, het er mogelijk in zou staan.
Het systeem staat er niet in en zal er ook nooit in staan.
De ASTRON BlueGene/L voor LOFAR was in 2007 wel #6 in de Top500, want die kon wel FP64.
En dat is prima, waar FP64 niet nodig is, is het een belachelijke investering om voor bv de Tesla te gaan - en zoals ik, misschien wat te tam, al zei: alsnog een behoorlijk rekenbeest.

Dat neemt echter niet weg dat de claim alsnog in het (bron)artikel gemaakt wordt - en simpelweg onjuist is. Zelfs al zou er een FP32 Top500 zijn, is plaats 84 niet zomaar te claimen (zoals @dmantione ook al opmerkt)
Je moet wel bedenken dat de prestaties van positie 84 in de Top500 in enkele precisie met zekerheid ook een stuk hoger liggen dan de score in dubbele preciesie die in de Top500 genoteerd staat. Dus de uitspraak dat 'ie op 84 terecht zou komen, dat lijkt me lastig aannemelijk te maken.
Ik denk dat Van Leeuwen in zijn enthousiasme de vergelijking maakte. Ik heb het in de tekst genuanceerd. Het is hoe dan ook mooi om te zien hoe ze op creatieve wijze dit systeem hebben opgezet om het probleem met de omvangrijke datastream op te lossen. Hij vertelde ook nog dat de data bij een mogelijk vondst geopenbaard wordt zodat in potentie iedereen zijn steentje bij kan dragen en ook hobbyisten met telescopen deel kunnen nemen aan te zoektocht.
Als je SPEC dan ook even vervangt door HPL, dan is de tekst verder juist. De benchmark voor de Top500 is namelijk de High Performance Linpack. Die laat het apparaat een enorme matrix A*x=b vegen, in dubbele precisie dus. SPEC is wat anders en meet geen flops.
Linpack, de aloude benchmark, natuurlijk. |:( Spec heeft wel eens een poging gedaan met een specifieke supercomputerbenchmark te komen maar dat is nooit wat geworden volgens mij. Ook andere pogingen een moderner alternatief dan Linpack tot standaard te krijgen liepen op niets uit, toch?
Nou, dat is in deze context heel relevant, omdat je met een berg GPU's een hele hoge score kunt halen. Wij hebben zelf wel eens een systeem gebouwd dat heel hoog scoorde, de LŲwe CSC van de Universiteit van Frankfurt. Die gebruikte de Radeon 5870. De studenten van de Uni Frankfurt hadden een slimme truuk gevonden om het up- en downloaden van gegevens van/naar de kaart parallel te doen met communicatie via het infinibandnetwerk en daardoor was het ook nog heel efficiŽnt ook. De machine haalde plek 19 in de Top500 en was kwa rekenkracht per watt de nummer 2 in de Top500.

Echter... een machine die uit GPU's bestaat is alleen in voor specifieke taken geschikt. En zeker voor Radeonkaarten, die destijds nog geen CUDA konden draaien, kon je spreken van een machine die speciaal voor de Top500 gemaakt was. In de gemeenschap wordt gesproken van stuntmachines.

Linpack is een benchmark die represenatief is voor HPC-codes die goed op GPU's uitgevoerd kunnen worden, dus heeft zeker nog enige waarde, maar ook voor een helehoop software niet meer representatief. Als reactie daarop zijn twee nieuwe benchmarks geÔntroduceerd door het Top500-team, de Graph500 en de HPCG500. Die testen andere soort codes en geven dus andere resultaten.

Je ziet dus ook dat je een andere rangorde in de Top500 krijgt: Voor Graph500 en HPCG, is de K-computer nog altijd de snelste computer op aarde, terwijl hij in de gewone Top500 redelijk gezakt is. Tot nog toe heeft geen van beiden de aandacht gekregen die de Linpack Top500 gekregen heeft, dus ja, tot nog toe heeft het niet veel uitgehaald. Echter, die alternatieven zijn ook nog niet opgegeven, in tegendeel.

De Top500 met Linpack blijft gewoon bestaan en ieder halfjaar worden met de gebruikelijke persaandacht de nieuwe koplopers bekend gemaakt. Het idee is echter om stapje voor stapje de aandacht voor de Graph500 en HPCG500 te vergroten. Met ingang van dit jaar, is het bijvoorbeeld niet langer mogelijk om een Top500-aanmelding te doen met enkel Linpack-resulaten. Je moet de Graph500- en HPCG-resultaten ook aanleveren. Zo gaan die lijsten langzaam beter gevuld worden en dat geeft het team dan ook weer mogelijkheden om tijdens de persvoorstellingen meer aandacht aan die benchmarks te geven.

SPEC MPI bestaat inderdaad, maar lijkt een mislukking. Je kunt 'm gewoon gebruiken hoor en je komt 'm tijdens een aanbesteding nog wel eens tegen. De benchmark is echter al jaren niet geactualiseerd en heeft last van bitrot, in de zin dat hij aan de MPI1-standaard voldoet en niet aan de aangescherpte MPI2-standaard. Ga je 'm op moderne MPI-implementaties zonder workarounds draaien dan crasht 'ie. Het zou een kleine moeite moeten zijn voor SPEC om dit op te lossen met een kleine update, zoals ze met hun SPEC CPU-benchmark regelmatig doen. Doen ze niet, dus het lijkt erop dat SPEC de handdoek hiervoor in de ring heeft gegooid.

[Reactie gewijzigd door dmantione op 19 januari 2018 23:33]

Wel een brakke airflow als ik zo naar die asus kaarten kijk. Die zitten volledig op elkaar gepakt en maken gebruik van de reference cooler.
Gebruik van de refentiekoeler is inderdaad een expliciete keus geweest: Die referentiekoeler zuigt aan in de kast en blaast het naar buiten. Veel van die niet-referentiekaarten blazen de lucht terug de kast in, wat absoluut niet gaat werken in een server waar ventilatoren met flinke kracht lucht van voren naar achter blazen.

Nu is de situatie zo dat de ventilatoren van de server de lucht richting kaarten blazen. Zo nodig kunnen die 15000 toeren maken en flink overdruk genereren, maar zover komt het bij lange na niet. De ruimte tussen de kaarten is niet groot, maar er zit ruimte tussen en dat is voldoende voor de kaarten om lucht aan te zuigen. In beginsel gebeurt in een desktop met meerdere videokaarten hetzelfde, ook daar zitten de kaarten relatief dicht op elkaar. In deze systemen is de doorstroming beter dan in een desktop, omdat de koeling van de server grote hoeveelheden lucht naar de server kan leiden.

Het is kwa luchtstroming zeker niet ideaal, maar dat kan ook niet met consumentenkaarten: Dit is het beste wat gerealiseerd kon worden. en werkt op zich prima Ik heb gesprekken met Gigabyte gehad over een kaart die specifiek met een passief koelblok zou worden uitgerust. Die gesprekken liepen spaak, waardoor voor deze ASUS-kaart gekozen is.
Ok dus je wil zeggen dat de videokaart de lucht opneemt aan de voorzijde ipv het ronde gat waar de fan zit.
Ik dacht altijd dat intake het ronde gat was en dat de kaart deels zijn warme lucht aan de achterzijde en deels aan de voorzijde uitspuugde. Een blokkade van het ronde gat van de as van de fan leek mij altijd vragen om problemen omdat de kaarten bij obstructie geen of heel moeilijk lucht konden aanzuigen.

Edit: Ik vond ook nog dit plaatje. Dat wist ik niet. Dat betekend dat in een krappe SLI setup, waarbij de kaarten tegen elkaar aan kunnen komen een reference cooler dus beter is dan de custom coolers die op zichzelf betere prestaties neerzetten.

[Reactie gewijzigd door InsanelyHack op 20 januari 2018 02:23]

Belangrijk is ook dat de koelers van een refentiekaart met de koeling van de server meewerken: Ze zuigen de lucht aan en blazen die achter de server de kast uit. Die aangepaste koelers zijn vooral gemaakt om heel stil te zijn, maar ze verspreiden de warmte in de kast. Niet alleen is dat de verkeerde plek, ze moeten deels tegen de koelers van de server zelf in werken en dat is een strijd die ze verliezen, want de koelers van de server zelf zijn veel krachtiger dan die van zo'n kaart. Het is niet alleen theorie, ook proefondervindelijk gaat het volledig mis met dat soort kaarten.
Ik zat me ook af te vragen hoe die gekoeld worden. Het lijkt op de foto toch echt alsof er nul-komma-nul lucht intake is.
serverkasten hebben van zichzelf al een gigantische airflow (over het algemeen), kan goed zijn dat dit geen enkel probleem op levert. In een standaard PC zonder airflow is dit inderdaad niet aan te raden.
Het is wel goed dat ze een reference koeler gebruiken hoor.
Want airflow is daar verre van. en dus blaast hij hitte naar achter.
Dat ze zo op elkaar gepakt zitten is ook geen probleem.
Als je quadros hebt, heb je dat ook. En de blower fan kan best hard lucht inzuigen vanaf het oppervlak van de kaart. Dus die zuigt niet aan de backplate van de volgende kaart, maar zuigt de ruimte leeg. Daardoor drukverschil, en wordt die ruimte weer gevuld.
Horen deze gasten geen Quadro's te gebruiken? Beetje raar dat een bedrijf voor bedrijfsdoeleinden consumenten GPU's gaat kopen. Lijkt me niet helemaal de bedoeling :/

[Reactie gewijzigd door acst op 19 januari 2018 17:41]

Tesla's, Quadro's of Volta's zijn een stuk duurder maar voor dit werk niet beter.

Het is dus beter om gaan met (voor een groot gedeelte) belastinggeld.

De meeste berekeningen vergen maar 8bits precisie, en als er af en toe een bitje om valt dan verdwijnt dat in de ruis, dus ook ECC is niet nodig.

De signaal-ruis verhouding van radioastronomie data is heel erg laag, dus het gaat er vooral om zoveel mogelijk data te verwerken, nauwkeurigheid is relatief van weinig belang.

Een ASTRON tweaker.
Hebben jullie gekeken naar (uiteraard lijkt me) de slijtage van deze consumentenkaarten? Dat is vaak een heet hangijzer hier op tweakers rondom ex-mining kaarten.
effe kijken...

Scenario 1, game draaien, game stoppen, wat gewoon gebruik op de computer, weer een andere game draaien, de PC uitzetten. Volgende dag soortgelijk gebruik.
Scenario 2, PC aanzetten mining software draaien. Kaart terug klokken naar beste efficientie (85-90% maximaal TDP gebruik ivm rendement mining. De laatste 10% energie verbruik brengt slechts 2% hogere opbrengst). Vervolgens laat je de kaart zo weken draaien.

Wat denk je wat het beste is voor de videokaart? Ik denk scenario 2 want bij scenario 1 heb je uitzetting en krimp. Dat kan zo erg zijn dat Asus bij de GTX980TI die ik destijds had speciaal hiervoor een bescherming op de PC had geschroefd om evt krimp- / uitzetting-stress te offloaden van de PCB / GPU chip.

[Reactie gewijzigd door InsanelyHack op 20 januari 2018 02:05]

Het argument hier op tweakers is normaal dat juist een ex-mining kaart versleten zou zijn. Dusdanig dat je die beter kan mijden (om mee te gamen).

De leverancier ontkracht dit. Ik heb het verder niet over gaming gehad?
Ik denk dat die mening een beetje gekleurd is.
  • AMD vs nVidia voorkeuren, Nvidia doet het nu eenmaal beter dan AMD op dit moment qua mining,
  • Door dat minen stijgen de prijzen en ook dus de betaalbaarheid voor sommige tweakers,
  • Wellicht een beetje afgunst als een kaart al zijn geld heeft opgebracht en dan een vraagprijs te zien die hoger is als wat de kaart 6 maanden geleden kostte.
Je hebt het zťlf niet over gaming gehad maar dat is wel los van mining de meest zinvolle reden om een dikke videokaart te kopen lijkt me. Juist dat gebruik, dus de typical usecase, heeft een slechtere invloed op de kaart dan minen door de grotere fluctuatie in temperaturen dus stress op bepaalde componenten.
Ik heb het niet alleen niet over gaming, maar ook niet over merken (danwel prestaties) en ook niet over prijzen. Het is me een raadsel waarom je dit allemaal bij een zeer eenvoudige vraag betrekt: zorgt 24/7 full load voor extra slijtage (uitgaande van fatsoenlijke koeling). Blijkbaar dus niet, iets wat ik al dacht.
Ik heb het niet over jouw mening. Ik heb het over jouw opmerking over de mening van mede tweakers die klaarblijkelijk "normaal" worden verteld dat kaarten die minen harder slijten. Ik geef een aantal reden waarom ik denk dat die meningen "normaal" zo worden geformuleerd en waarom. In je vorige reacties was niet op te merken dat je dit al wist.

Ik heb nog wat verder gelezen over chip degradation. Er zijn twee stellingen die voortdurend terugkomen.
  • Er vind veroudering plaats door het simpele feit dat er op atomisch niveau nu eenmaal wat moet gebeuren. Door de combinatie van hitte en elektriciteit vind er elektromigratie plaats. Je zou kunnen zeggen dat door de spanning en de hitte, bv bij overklokken, er een hogere kans bestaat dat er permanente schade kan ontstaan als je langdurig de CPU zwaar belast.
  • Een andere bewering is dat er nauwelijks elektromigratie plaats kan vinden als je de CPU binnen de specificatie gebruikt want dan vallen de atomen gewoon terug in hun oorspronkelijke positie.
Dus om terug te komen op de discussie van degradatie van GPU's bij overklokken denk ik dat er voor beide wat te zeggen is. Wanneer je het uiterste uit je videokaart wil persen en de kaart overklokt tot buiten de specificaties van de fabrikant is er natuurlijk bij langdurig gebruik een hoge kans op schade doordat er dan best een atoom kan zijn die niet meer terug wil naar zijn oorspronkelijke positie. Aan de andere kant als je de kaart ruim beneden de maximale opgaaf van de fabrikant houdt (85% max TDP begrenzen) dan is er niets om aan te nemen dat deze kaart harder zou slijten.

De hele discussie van stress door krimp en uitzetting staat er nog los van want dat is mechanische energie die de chip / PCB of de solderingen kan beschadigen.

[Reactie gewijzigd door InsanelyHack op 21 januari 2018 01:01]

Wij (leverancier) zien niet meer defecten in Geforces dan in Tesla's. Het zijn sowieso geen componenten die vaak defect gaan.
Ik zie bijvoorbeeld in de 3D visualisatie/animatie sector al jaren geen quadro meer. Wij hebben zelf ook aardig wat 1080ti's. Voor sommige doeleinden is een quadro niet interessant maar pure rekenkracht wel.
Misschien een stomme vraag, maar is t niet te combineren. Zeg bv 1080 in een slot, volgende slot een quadro en dan weer een 1080 en een quadro? Of gaat dit totaal niet werken (ik ben leek, maar lees dit wel graag).

Ik mag hopen dat men zonnepanelen heeft, idle een 1080Ti 11gb=+/- 60W, max. belasting +/- 350-370W en dat dan minimaal x 200 + gebruik mobo`s, voedingen etc.
Idle 60W en 350-370W? Zwaar overdreven. Ik heb een EVGA GTX1080Ti FTW3 die al behoorlijk overklokt is. In Idle zit je bijna een factor 4 naast de werkelijkheid en onder belasting overdrijf je met ca 50%.

In Idle:
c:\Program Files\NVIDIA Corporation\NVSMI>nvidia-smi.exe dmon
# gpu pwr temp sm mem enc dec mclk pclk
# Idx W C % % % % MHz MHz
0 21 50 1 7 0 0 405 139
0 16 50 2 7 0 0 405 139
0 16 50 1 7 0 0 405 139
0 16 50 1 7 0 0 405 139
0 16 49 2 7 0 0 405 139
0 16 49 2 7 0 0 405 139

Onder 100% mining Load:
c:\Program Files\NVIDIA Corporation\NVSMI>nvidia-smi.exe dmon
# gpu pwr temp sm mem enc dec mclk pclk
# Idx W C % % % % MHz MHz
0 220 65 100 75 0 0 5005 1835
0 256 65 100 75 0 0 5005 1809
0 263 66 100 73 0 0 5005 1784
0 216 66 100 74 0 0 5005 1784

[Reactie gewijzigd door InsanelyHack op 20 januari 2018 02:17]

Review van onze grote bekende Foritain waar ik t uit haalde en welke graka ik daar gepakt heb,want t zijn 3 fan koelers die erop zitten, dus nam aan deze ;)
productreview: Asus ROG-STRIX-GTX1080TI-O11G-GAMING review door Foritain
Foritain heeft het over "Stroomverbruik SYSTEEM". Dat is iets anders dan Stroomverbruik videokaart waar jij op doelt. Maar goed die cijfers heb ik hierboven gepost. ca 15W idle en ca 250-260W max.
Dat is wel minimaal 1kw voor 1 zo`n bak met 4 graka`s, aardige stroomvreter ;)

en dan klaagt men als ik me spaarlamp aandoe :D

[Reactie gewijzigd door Nympho op 20 januari 2018 02:44]

Dat gaat idd prima, het gaat uiteindelijk om het totale aantal CUDA cores.

Wij hebben b.v. een HP Z840 met 1x een 1080Ti en 2x een normale 1080 er in. Omdat dit het max is wat we aan CUDA cores met consumer kaarten kunnen halen binnen de capaciteiten van de voeding die er in zit.

Deze word voor real-time 3D scanning op hoge dichtheid gebruikt b.v.
Hoezo? Het is toch hun geld? Al kopen ze er 10.000 dat moeten ze toch zelf weten?
Had NVidia niet net hun licentievoorwaarden aangepast voor clustergebruik?
e.g. https://www.theregister.co.uk/2018/01/03/nvidia_server_gpus/
Valt nog maar te bezien of dit enige nut heeft. Ook bedrijven zijn rechtspersonen en mogen in principe met hun hardware doen wat ze willen. nVidia zal dan ook via de rechter een gelijk moeten zien te halen om dit af te dwingen.

De verwachting is dat commerciele bedrijven braaf binnen de licentievoorwaarden blijven en dat de rest gedoogd word.
't Is een goede reden om een leverancier te laten vallen. Overigens, als er 'datacenter' staat in die EULA (huila?) kan je eromheenwerken door je servers in een 'shed' te plaatsen...
Dan maar coins minen i.p.v onderzoek doen :Y)
/s
Prima voortgang. De Tesla kaarten en soortgenoten zijn wayyyy overpriced. Voor dat bedrag waarmee je 5 jaar op een Tesla kan rekenen, knu je 3 keer een nieuwe high end GPU kopen.

Het enige nadeel is dat je dan geen ECC geheugen hebt, maar geheugen is tegenwoordig zo goed dat bitflips vrijwel niet meer voorkomen. :)
Voor radioastronomie wordt er vanuit gegaan dag er bitflips in de data zitten, maar de hoeveelheid data is zo hoog dat die verdwijnen in de ruis, zelfs als het de MSB is.

Het signaal dat gezocht wordt in dit soort pulsar machines is typisch alleen te vinden door TBs aan 8bit data te middelen, een foutje van 255 op billioenen maakt niet uit.
Voor finite element solves moet je soms een paar extra iteraties uitvoeren. Voor een derde van de prijs. Prima. :)

Voor Monte Carlo maak je zelfs express random data aan, dus daar zijn de bitflips compleet irrelevant.
Voor die prijzen kan je alles redundant uitrekenen en dus je errors uitsluiten en nog geld overhouden en alsnog sneller rekenen door consumentenkaarten ipv tesla's te kopen :Y)

[Reactie gewijzigd door watercoolertje op 19 januari 2018 18:53]

2 PB aan opslag klinkt niet zoveel voor een datacentrum waar ze 4Terabit per seconden aan data ontvangen. (Even vlug geschat is dat zo'n 2.5uur). Nou zal hun software vast wel veel weer verwijderen als die foto's nutteloos worden bevonden maar toch vind ik het verassend dat zie niet meer hebben. (Ik weet niet hoeveel data ze kunnen verwerken per seconden behalve dat ze 2petaflops aan snelheid behalen qua berekeningen)
De initiŽle verwerking moet op een hele hoge resolutie gebeuren, om met hele lage signaal-ruis verhoudingen het signaal te vinden. Daarna worden alleen de eind resultaten bewaard en de originele data weggegooid. Het is te duur om die te bewaren.
Voor de pulsar data waar deze machine zich vooral mee bezig zal gaan houden kan het eind resultaat minder dan 1 GB zijn wat bewaard wordt per meting.
Hoe lang duurt zo'n meeting?
En kan hun systeem dan ook sneller de data verwerken dan die binnenkomt?
Want het lijkt me wel van belang dat zoiets zolang mogelijk door kan blijven meten. Om te voorkomen dat ze iets missen.
Dat waren eigenlijk de vragen die ik bedoelde te stellen.
Had Nvidia niet verboden om gtx kaarten in datacentra te gebruiken?
Wat willen ze doen? De GPU politie sturen?
Als de licentie verbroken is kunnen ze in principe een rechtzaak beginnen
Als Nvidia van plan was om hier zaken over te beginnen, dan hadden ze wat wel en niet mag veel preciezer omschreven. Nu kunnen ze het heel lastig handhaven, omdat het woord datacentrum een redelijk vaag begrip is waar de grenzen niet vastliggen.

Zeker in dit geval, een klein gebouwtje onder de telescoop, moet je al creatief zijn om het een serverruimte te noemen, dus gaat beweren dat het hier om een datacentrum gaat wel erg lastig. Astron doet dus zelfs volgens die licentie waarschijnlijk weinig verkeerds. De "server" is officieel volgens Supermicro een "SuperWorkstation" , dus kunt zelfs gaan betwisten of het hier om een server gaat.

Bovendien, ongeacht de licentie, zal een produkt altijd aan de geadverteerde specificaties moeten voldoen, op het moment van aankoop. Niet alleen staat niets in de geadverteerde specificaties over dat zinnetje, op het moment van aankoop was er nog geheel geen sprake van dat zinnetje in de driverlicentie. Stel Nvidia gaat procederen over het overtreden van hun licentie, dan krijgen ze onmiddelijk de bal teruggespeeld met een claim van een product dat niet aan de geadverteerde specificatie voldoet.

Kortom, dat zinnetje is puur bedoeld om angst te zaaien. Niet om daadwerkelijk te handhaven.

[Reactie gewijzigd door dmantione op 19 januari 2018 20:00]

Of Nvidia beslist over wat wel en niet een datacenter is zodra de garantieclaims komen. "Deze 100 van de 600 kaarten zijn defect, nieuwe svp." Komen ze er mooi onderuit. Denk dat het daar wel op uitdraait.
Nvidia zit niet in de garantieafhandeling. In beginsel zijn wij als leverancier van het cluster verantwoordelijk voor de garantie. Nu hebben wij met ASUS afspraken dat we de kaarten naar ASUS terug kunnen sturen, maar daar heeft Astron geen boodschap aan. Ook als dat niet zo is, kopen wij gewoon een nieuwe kaart die Astron dan ontvangt.

ASUS weet van het project af en doet dan ook niet moeilijk over garantie. Defecte kaarten gaan naar TsjechiŽ waar technici van ASUS ze repareren.
Ik neem toch aan dat Asus ook binnnen haar kaders heeft gekeken naar het project qua sponsoring (korting) in ruil voor een mooie case study en dus volledige medewerking heeft gegeven via een dealregistratie?
Niet in die mate. Vanzelfsprekend daalt de prijs als je 200 kaarten koopt in plaats van ťťn, maar niet voor prijzen dat je kunt spreken van sponsoring. Dat is logisch: Er zijn veel academische projecten met GPU's en het zou veel te veel kosten om die allemaal te gaan sponsoren. Welke leuke publiciteit opleveren en welke niet is op voorhand lastig te voorspellen. Maar bij ASUS vinden ze het beslist heel erg gaaf dat hun spullen voor dit soort wetenschappelijk vernunft gebruikt worden.
Al het andere terzijde, de maat van een gebouw of de locatie ervan is in het geheel niet belangrijk om het een classificatie als datacentrum te geven.
In dit geval is het de centrale locatie waar alle data van de telescoop doorheen gaat. Ruimtes die dat doen staan ook wel bekend als datacentrum.
We zijn hier niet in the states, dus door iets een creatieve naam als superworkstation te geven terwijl het toch duidelijk in gebruik is in functie van een server, behaal je hier echt geen success in een rechtszaal.

In advertenties hebben ze het trouwens totaal niet over geschikt zijn voor datacenters. Als jij dat toch doet, aangeklaagd word en dan zeurt over de advertenties, dan word er eerst even gelachen door de advocaten van Nvidia, waarna jou een kopie van de gebruiksvoorwaarden en een claim word voorgelegd.
Nvidia heeft in de specificaties over CUDA-functionaliteit, die kaart kan leveren indien hij in een systeem dat aan bepaalde systeemeisen voldoet gebruikt wordt De systemen hier voldoen aan de systeemeisen van de kaart, dus heeft de klant recht op geleverde CUDA-functionaliteit.

Het beeld dat ik bij een datacentrum heb is een zeer grote hal die speciaal is gebouwd voor het bedrijven van servers. Dat verschillende mensen verschillende beelden hebben van een datacentrum lijkt me juist en het lijkt me ook zo dat er verschillende definities van bestaan. Relevant hier is dat er geen officieel erkende definitie van bestaat, wat nodig zou zijn om effectief bepaalde zaken af te dwingen.
Nvidia heeft het er in haar gebruiksvoorwaarden over dat de kaarten in het geheel niet in die omgeving gebruikt mogen worden.
Verder voldoet de kaart prima aan de specs, je mag hem alleen niet gebruiken in bepaalde omgevingen, hoewel het prima zou kunnen.
De klant heeft geen recht op onrechtmatig gebruik, omdat hij toevallig de CUDA functionaliteit wil aanspreken. Dat is als zeggen dat je niet te hard wilde rijden, je wilde slechts het vermogen van je motor optimaal benutten, om onder een boete voor overschrijden van de maximum snelheid uit te komen.

Verder gaat het niet om het beeld dat _jij_ bij een bepaald woord hebt. Je mag erover denken wat je wilt, feit blijft dat "die kleine ruimte onder de telescoop" alle data behandeld die uit de telescoop komt. Of er in die ruimte dan een 486dx2-66 staat of een cluster van 100k nvidia 1080ti's maakt niet uit, het is en blijft het datacenter van de telescoop in feitelijke en indien nodig ook gerechtelijke zin.

tl;dr, als Nvidia onder garantie aan deze mensen uit wil komen is dat geen enkel probleem.
Nvidia heeft het er in haar gebruiksvoorwaarden over dat de kaarten in het geheel niet in die omgeving gebruikt mogen worden.
Daar komen ze nu pas mee, een half jaar nadat de koop gesloten is. Het gaat om de beloofde specificaties op het moment van verkoop. Daarin is geen sprake van beperkingen. Die prestaties moeten dus gewoon geleverd worden en daarmee is de kous wat mij betreft af. Heeft Nvidia een andere mening dan stel ik voor dat ze daadwerkelijk proberen een rechter van hun gelijk te overtuigen.
Verder gaat het niet om het beeld dat _jij_ bij een bepaald woord hebt.
Dat snap ik. Een rechter zal echt wel een redelijk beeld vormen van wat een datacentrum is. Hij zal daarvoor meerdere bronnen raadplegen en in redelijkheid bepalen of iets een datacentrum genoemd kan worden. Die rechter zal zeker niet mijn definitie overnemen, maar wel kijken of iets duidelijk genoeg naar de klant was. Want willeur om klanten naar goeddunken te kunnen aanklagen, daar houdt ook een rechter niet van. Het is dus een heel onvoorspelbare uitkomst, iets waar Nvidia niet van te voren van kan voorspellen wat dat gaat worden.

Als ze dit daadwerkelijk van plan waren om het te handhaven, dan hadden ze wel een veel duidelijker definitie gegeven. Kortom, ik hou het op angstzaaien en meer niet.
Volgens mij kun je altijd een rechtszaak beginnen.
Verbieden hoe? Nvidia kan ze enkel onaantrekkelijk maken door de FP64 berekeningen kreupel te maken. Echter kan Nvidia niemand tegenhouden als hij/zij enkel FP32 berekeningen nodig heeft
Hun licentievoorwaarden verbieden het toch vrij duidelijk:
No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.
Dus als bedrijven het dan toch doen overtreden ze de licentie.
except that blockchain processing in a datacenter is permitted.
Ahh, wel de lusten maar niet de lasten :)

Volgens mij hoef je voor deze berekeningen niet speciaal hun display drivers te hebben en kun je gewoon met OpenCL aan de gang?

correct me if I am wrong....
Je hebt nog altijd hun OpenCl driver nodig (zelfde geld voor RTG), want die zit bij in de driver gebakken.
da∑ta cen∑ter
noun
noun: datacenter
a large group of networked computer servers typically used by organizations for the remote storage, processing, or distribution of large amounts of data.
Als ze een handjevol servers hebben voor dit gehel is het geen large group of server toch? :)
De servers in deze zin van het woord zijn de GPU's (processing). En ja, het is een vrij grote groep GPU's.
Denk dat ze het gebruiken als je komt claimen op de garantie. Die nieuwe mine kaarten van nvidea krijgen ook maar 90 dagen garantie.
Als we op deze definitie afgaan kun je vallen over het woord "remote" aangezien het een rekenhal naast de telescoop betreft.
Het lijkt me sterk dat Nvidia dit hard kan maken en of deze licentie wel rechtsgeldig is in Europa. Ook kan het zo zijn dat hun opensource drivers gebruiken aangezien deze licentie zit aan de drivers en/of andere software van Nvidia
De open-source drivers voor nvidia zijn niet echt geschikt. Volgens Phoronix missen ze nog steeds goed power management voor nieuwere kaarten, waaronder het instellen van de kloksnelheid. Hierdoor draaiden ze eigenlijk altijd op laag vermogen. Grafische prestaties waren ook minder bij oude kaarten die wel herklokken hoewel ik de cuda en opencl prestaties niet weet.

edit: ik wil toevoegen dat volgens nvidia hun driver meer code bevat dan windows. Moeilijk te controleren, en "code van windows" is natuurlijk moeilijk te tellen aangezien je niet altijd alles meerekent wat wordt meegeleverd(is directx deel van windows?). Ik denk echter niet dat open-source developers zonder hulp van nvidia hun performance evenaren. Er zit zoveel werk in de kaart en driver, en nvidia doet alles om de concurrentie voor te blijven op performance.

Amd is een ander verhaal, omdat volgens Phoronix ze helpen bij open source. Ik las zelfs dat in bepaalde gevallen de open source driver sneller is.

[Reactie gewijzigd door rjberg op 22 januari 2018 01:58]

Staat toch duidelijk "The SOFTWARE", dus als ze drivers gebruiken van buiten Nvidia om is er niks aan de hand.
Ach een paar racks is toch moeilijk een datacenter te noemen?
Het is niet zo dat ze daar rack co-locatie doen voor anderen. Er staat alleen maar spul van Astron, of wat gebruikt wordt door medewerkers van Astron.
Goh, zou de expliciete uitzondering NVidia geld in het laadje brengen?
Gebruiken ze die software dan bij astron? En 2) voldoet dit aan de definitie van datacentrum?
Jawel, ik ben ook heel benieuwd hoe het nu met de gebruiksovereenkomst zit tussen Astron en Nvidia. Misschien gebruiken ze het officiŽel voor mining want dat werd gevrijwaard door de clausule in de gebruiksovereenkomst.

In ieder geval, ik snap dat Nvidia meer Tesla's en Quadro's wil verkopen maar ik vindt het echt zonde voor onderzoeksinstellingen... waarom worden deze mensen gekloot voor het 'ongeoorloofd' gebruik van consumentenkaarten voor veelal nuttig onderzoek terwijl het (in essentie) voor de gemeenschap nutteloze mining activiteiten gewoon een vrijgeleide krijgen?

Het is een retorische vraag want het draait gewoon om Nvidia's centen, maar toch. Mijn inziens pluimen ze de verkeerde partij.
Misschien een non profit uitzondering ergens ofzo?
Het is gewoon niet wenselijk, dit soort licenties. Een telefoonavonnement waar je meer betaalt naarmate het belangrijker voor je is ('meneer de advocaat, u wilt graag bereikbaar zijn, voor uw doelgroep hebben we nu een abonnement van 900 euro per maand'). Of een auto die je koopt, maar niet als taxi mag gebruiken (zit ook software in, toch?).
Verkocht is verkocht. Bedrijven die dit soort dingen proberen zijn je vrienden niet en horen A aan de schandpaal en B geboycot.
Dat vroeg ik ook al aan de auteur toen ik er overheen liep voor spelfoutjes. Hij zei dat dit datacentrum gebouwd is voordat deze wijziging in de gebruiksvoorwaarden van kracht werden.
Wat is een datacentrum? De machines staan in dit geval opgesteld in een klein gebouwtje onder de telescoop. Het is al enigzins creatief om het een serverruimte te noemen, laat staan datacentrum.
Dit is ook geen datacentra maar een specifieke setup om berekeningen uit te voeren op images bij een sterrewacht
Een datacentra zijn eerder plekken waar informatie word gedeeld met het internet
Een datacentrum hoeft helemaal niks te delen met het internet. een datacentrum is een centrum voor dataverwerking.
De vraag is wanneer wordt je MER een datacenter volgens die voorwaarden. Want als de definitie is dat er data verwerkt moet worden is een meterkast met een Raspberry pi die data centraliseert en verwerkt ook een datacenter.
Eigenlijk wel he? Een home datacenter. Leuk dat ik dat heb dan, met mijn Pi in de meterkast.
AMD heb ik serieus bekeken, het voornaamste probleem voor AMD was dat de Vega nog niet verkrijgbaar was en Polaris niet genoeg high-end was. Als de Vega beschikbaar was geweest denk ik dat de kans groot geweest was dat met AMD meer rekenkracht geleverd had kunnen worden en om die reden Radeons gebruikt zouden zijn.
Helemaal mee eens. AMD is sowieso sneller met FP32. Maar goed beetje domme set want de RX Vega 64 hadden ze daaro in het bos links van Hooghalen goedkoper kunnen krijgen.

[Reactie gewijzigd door Gekke Jantje op 19 januari 2018 19:25]

Wat dus betekend dat ie sneller is dan bedoelt :?
''Astron neemt supercomputer met 200 GTX 1080 Ti-kaarten in gebruik''

En je bent de enige die over AMD praat, jantje toch....

Ga ik weer een game opstarten met me langzame AMD RX 580. ;)
200 GTX 1080 kaarten klinkt eerder als een klein mining farmpje.
Als de hele cryptomining gekte voorbij is of wanneer al die GFX kaarten geen nut meer hebben kunnen ze ingezet worden als supercomputers :)
Als de hele cryptomining gekte voorbij is of wanneer al die GFX kaarten geen nut meer hebben kunnen ze ingezet worden als supercomputers :)
Het zijn nu eigenlijk al gewoon supercomputers, waar ze voor gebruikt maakt doet er weinig toe natuurlijk.

Eigenlijk kan je zelfs stellen dat het hele bitcoinnetwerk (of elke andere veel geminede coin) 1 grote supercomputer is, de verbinding tussen de apparaten verloopt gewoon via internet :)

https://nl.wikipedia.org/wiki/Supercomputer
Het is ook mogelijk om een cluster van meerdere computers te laten fungeren als ťťn snelle supercomputer. De taken van deze supercomputer worden dan verdeeld over de computers waaruit de supercomputer bestaat. Nu personal computers steeds krachtiger worden, kunnen ook consumenten-pc's worden gebruikt in een cluster.

[Reactie gewijzigd door watercoolertje op 19 januari 2018 18:50]

De supercomputer staat niet in Westerbork. Maar bij de Radiosterrenwacht op het Voormalige Kamp Westerbork bij Hooghalen.
Het ging toch om radio flitsen, FRB, Fast Radio Burst? Technisch gezien toch wel wat anders dan een lichtflits. Betwijfel ook of ze deze FRB's kunnen opvangen met camera's die op de telescoop gemonteerd worden.
Berichtgeving over dit onderwerp is sowieso een beetje slecht onderbouwd, in andere artikels hierover, niet hier bij tweakers, wordt ook vaak gesteld dat de computer 200 grafische processors uit gameconsole's heeft.... Misschien heb ik het mis, maar in welke game console zit een GeForce GTX 1080 Ti? Of zelfs maar een vergelijkbare gpu?

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True