Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 64, views: 20.962 •

China heeft zijn eerste supercomputer, die draait op 8704 in eigen land ontwikkelde ShenWei-processors, in bedrijf genomen. De gloednieuwe supercomputer zou voldoende krachtig zijn om mee te kunnen draaien in de wereldtop.

Het rekenmonster, dat Sunway BlueLight MPP als naam heeft gekregen, is in september geïnstalleerd in het Nationale Centrum voor Supercomputing in de stad Jinan, gelegen in de provincie Shandong. De Sunway-supercomputer bestaat uit 8704 ShenWei SW1600-processors. Deze risc-cpu's worden door de firma ShenWei geproduceerd en beschikken elk over zestien cores. De kloksnelheid bedraagt 1,1GHz.

De Sunway-supercomputer, die bestaat uit 34 super nodes met in totaal 150TB werkgeheugen en 2PB aan opslag, zou goed zijn voor een maximale rekenkracht van een petaflop. De systemen worden met water gekoeld. Daarmee weet het Chinese rekenmonster een positie in de top 20 van snelste supercomputers te veroveren.

Deskundigen uit de Verenigde Staten zijn verrast door de rekenkracht van het Chinese cluster, zo meldt The New York Times. Hoewel de ShenWei SW1600-processors enkele generaties achterlopen op de cpu-architecturen van Intel en AMD, lijken de Chinezen hun achterstand in hoog tempo in te lopen. Volgens een analist behaalt de Sunway-supercomputer een theoretische maximale rekensnelheid die 74 procent bedraagt van de Jaguar-supercomputer, momenteel het snelste rekencluster in de Verenigde Staten. Verder is het relatief lage energieverbruik opvallend; de Chinese supercomputer zou circa 1 megawatt verbruiken, terwijl het Amerikaanse systeem bijna het dubbele verbruikt.

De Amerikaanse overheid stelt inmiddels de eerste plannen op om eind dit decennium een supercomputer met een rekencapaciteit van een exaflop te introduceren. Hoewel de haalbaarheid van een dergelijke rekencapaciteit wordt betwijfeld, zou het Chinese basisontwerp voldoende schaalbaar zijn om op termijn ook deze snelheden te halen.

Reacties (64)

Ik weet dat dit soort supercomputers worden gebruikt voor lastigere wiskundige formules, maar zou iemand me praktijkvoorbeelden kunnen geven waar deze computer in het hedendaagse leven mee bezig zijn?

Edit: Met zo een drastisch minder verbruikt ten opzichte van de Amerikaanse systemen vraag ik me af of deze Chinese CPU's teruggebracht kunnen worden voor consumenten met behoud van het lage verbruik. Als zoiets mogelijk zou zijn zou het een harde klap worden voor Intel en AMD en mogelijk een opschudding in de markt kunnen veroorzaken.

[Reactie gewijzigd door MisterLBP op 31 oktober 2011 10:40]

Je zou kunnen denken aan enorm grote simulaties. Recentelijk is bijvoorbeeld berekend hoe het universum er direct na de Big Bang er uit gezien moet hebben.

nieuws: Onderzoekers simuleren heelal accurater met supercomputer

[Reactie gewijzigd door the_shadow op 31 oktober 2011 10:40]

Bij de aardbeving in haiti bevoorbeeld binnen een paar uur controleren welke gebouwen ingestort zijn om te kijken waar ze heen moeten?

Bezig zijn met berekening van chemische reactie's, medicijnen ed.

Analyseren van satalietbeelden

Universitair onderzoek

etc etc
Klimaatverandering, doorrekenen van de aarde voor het voorspellen van aardbevingen, nucleair onderzoek enz.
Maar ook bijvoorbeeld voor het doen van weersvoorspellingen!
Weersvoorspellingen zijn voor zover ik weet redelijk simpel. Er zijn maar een beperkt aantal factoren die relatief makkelijk kun invoeren en kunt laten representateren. Ik kan er natuurlijk ook naast zitten, maar ik denk dat een supercomputer op het weer zetten een beetje overkill is.
Weersvoorspellingen zijn voor zover ik weet redelijk simpel.
Daarom zijn ze keer op keer fout?

Weersvoorspellingen op zich zijn simpel (ik voorspel dat het vanmiddag gaat regenen), maar goede weervoorspellingen niet ;)
Daarom spreken ze zelf ook liever van weersverwachting.
Nee ze zijn fout omdat de gebruikte systemen van vergelijkingen zich chaotisch gedragen. Het clichťmatige verhaal van Butterfly effect zal ik maar even achterwege laten, maar het komt er op neer dat simpelweg meer rekenkracht er tegen aangooien geen oplossing bied. Een bekend voorbeeld van een chaotisch systeem is de lorenz oscillator . Vernoemt naar de man die bovendien ook de term 'butterfly effect' heeft geÔntroduceerd.

Het komt er op neer dat hoe precies je je meetgegevens ook invult er altijd een kleine fout zal zijn en je bijna niks kunt zeggen over hoe deze fout zal groeien in de uiteindelijke voorspelling.

Om terug te komen op het lorenz systeem. Het is echt een heel eenvoudig en makkelijk te begrijpen 3 dimensionaal systeem. Toch kun je bijna niks zeggen over het verloop van de oplossing bij een gegeven begintoestand. Dit geld ook voor het uitgebreidere systeem wat voor de weersvoorspelling gebruikt wordt. Het meeste hiervan is gebaseerd op vergelijkingen uit de victoriaanse tijd.

Een animatie op de site van wolfram:
(Om er zelf mee te spelen heb je mathematica nodig)
http://demonstrations.wolfram.com/LorenzAttractor/

--edit--
Meer rekenkracht gaat geen betere oplossing geven. Een kleine variatie in de begintoestand veranderd alles.
Stel nu dat ik de lorenz attractor als voorbeeld neem. In matlab krijgen we dan:
[code]
s = 10; b = 8/3; r=28;
dxdt = @(t, x) [
s*(x(2) - x(1));
x(1)*(r-x(3)) - x(2);
x(1)*x(2) - b*x(3)]
% we kiezen onze beginwaarde:
xnul=[1;1;1]
% we berekenen de oplossing:
[T,X]=ode45(dxdt,[0,60],xnul);
% op het 60 seconden is onze oplossing dan:
X(end,:)
ans =
-2.8763 -4.8152 13.2783
%veranderen we de beginwaarde een klein beetje:
xnul=[1.000001,1.000001,1.000001]
[T,X]=ode45(dxdt,[0,60],xnul);
% dan is onze oplossing op 60 seconden ineens heel anders:
X(end,:)
ans =
7.8710 0.8664 33.6449
[/code]
We zien dus dat een verstoring van 0.000001 toch een enorme fout veroorzaakt. Dit zelfde is precies het probleem met de weervoorspellingen. Hierdoor zie je ook dat hoewel de computers de laatste 50 jaar enorm veel sneller zijn geworden we nogsteeds slechts maximaal 6 dagen vooruit kunnen kijken wat het weer ons gaat brengen.

[Reactie gewijzigd door NE5Freak op 31 oktober 2011 19:04]

Deze onverwachte veranderingen in de werkelijkheid worden altijd veroorzaakt door onvoorziene factoren.

Juist door meer rekenkracht kun je meer van deze factoren toevoegen (of ook laten voorspellen) waardoor het geheel nauwkeuriger wordt.

Ik vraag me af hoe snel zo'n computer alle wachtwoorden kan genereren tot bijvoorbeeld 20 tekens die gecodeerd zijn met MD5 of hoesnel zo'n PC de WPA2 decryptie kan kraken. Of zelfs een bitcoin kan genereren.

Super computers zijn leuk echter kan er ook makkelijk misbruik van gemaakt worden.
Niet dus. Lees wat NE5Freak zegt, een kleine fout in de meetgegevens kan op (zelfs korte) termijn grote veranderingen teweeg brengen, omdat factoren ELKAAR beÔnvloeden.

Als je als beginvariable X = 10,0000 neemt, krijg je een totaal ander beeld dan bij 10,0001, de oplossing is dan niet meer rekenkracht, maar preciezer meten.
Daar heb je gelijk in als je voor een exacte verwachting wil gaan. Wat weersverwachtingen in de praktijk doen, is een hoop (~50) simulaties draaien met precies die kleine fluctuatie in de begincondities, en op basis daarvan een kansverwachting maken. De verwachting '20% kans op regen, en 15-17C' is daar een simpele weergave van. Een deel daarvan is inderdaad een fundamentele onzekerheid in het chaotisch systeem, maar de modelfout is nog bepaald niet 0. Anders waren al die onderzoeksinstituten ook niet nodig :)

Twee andere punten: De andere reden dat we niet meer dan 6 dagen vooruit kunnen kijken, is dat je dan een goed oceaanmodel mee moet nemen (zeker in West Europa), en dat is een hele stap duurder natuurlijk. En voor het geval dat mensen gaan mekkeren wat betreft klimaat: Daar speelt het hele chaos probleem niet of nauwelijks, omdat we het daar over langjarige gemiddelden hebben, en de chaos naar 0 middelt.
Kan zo zijn, maar vergeet niet dat er steeds meer sattelieten de ruimte ingaan, die vaak 10x zo nauwkeurig zijn als de voorganger!

Onder andere voor meten oceaanstromingen, vegetatie en al dat soort zaken, de een met hogere resolutie en de andere met meer beelden per seconde, en dat willen ze weer combineren.

Dus tja, meer meetgegevens betekent ook dat je meer kŠn berekenen.
http://www.knmi.nl/waarsc...chtingen/extra/pluim.html

In de pluim wordt alleen de Oper (rood) met een 25x25 km grid berekend. Dit kost veel rekenwerk.
De Contol (blauw) is een 50x50 km grid met dezelfde start gegevens als de Oper.
Daarna komen de kleine afwijkingen t.o.v. de Control aan de beurt. Dat zijn de 49 groene lijnen.
Met grotere rekenkracht zouden alle metingen op het 25x25 km grid kunnen worden berekend.
Zelfs de stroming in de oceaan is een belangrijke factor in de lange termijn berekeningen.
Nee het weer is zo simpel niet, het enige wat simpel is te voorspellen is het weer wat wij over een uurtje krijgen
Ik voorspel altijd het weer van gister. Op mij kun je vertrouwen, ik zit er bijna nooit naast :Y)
Weers/klimaatvoorspellingen zijn (met atoomproeven en farmacie) op dit moment de meestvoorkomende simulaties op supercomputers. En dat zal nog wel even blijven, ook.

Per definitie moeten weersvoorspellingen een stuk sneller dan realtime gaan. De complexiteit wordt bijna volledig bepaald door het aantal gridpunten dat je op je regio (of de hele aarde) kan leggen, en de computerprijs schaalt daar direct mee (of eigenlijk tot de 4de macht, want je resolutie gaat in 3 richtingen, plus nog een keertje in kleinere tijdstap). Typische simulaties die nu door ECMWF (Europees weercentrum), KNMI etc dagelijks gedaan worden hebben ergens tussen 5 en 50km resolutie; in een ideale wereld zou dat toch zeker naar 100-500m moeten, dan heb je pas de resolutie om bijvoorbeeld wolken op te lossen in je grid. Maar zelfs nu staat het ECMWF met 2 computers op 70 en 71 in de Top500 van supercomputers, met elk ~100TFlop. Een simpele rekensom leert dus dat zelfs een 10.000 keer zo sterke ExaFlop computer niet snel genoeg is om de berekeningen op tijd af te leveren :)
Je zit er naast. Het weer voorspellen is enorm moeilijk en wordt bij uitstek door supercomputers gedaan. We gebruiken enorm simpele modellen omdat het anders onmogelijk veel werk is. Iedere keer dat de computers sneller worden kunnen we het model weer iets beter maken.
Een weercomputer werkt door de hele aardse atmosfeer in blokjes te verdelen, en met behulp van een heel simpel model het weer in dat blokje te voorspellen. Hoe kleiner de blokjes hoe nauwkeuriger maar hoe meer werk het is. Gelukkig kun je wel alle blokjes onafhankelijk van elkaar uitrekenen. Als je maar genoeg computers hebt kun je alle blokjes tegelijk doen. Dit soort supercomputers bestaan dan vaak ook uit een grote hoeveelheid kleine computertjes die allemaal een klein stukje van het werk doen.
Gelukkig kun je wel alle blokjes onafhankelijk van elkaar uitrekenen. Als je maar genoeg computers hebt kun je alle blokjes tegelijk doen
Dit betwijfel ik nogal, aangezien het zeker geen lineair systeem is waardoor superpositie dus niet mogelijk is. Het grote probleem bij niet lineaire systemen of nog sterker chaotische systemen, zoals het weer, is juist dat het niet is op te delen is in kleine subsystemen. Daarom is het juist zo moeilijk, en zul je bijvoorbeeld complexe numerieke oplossingen moeten zoeken. In een chaotisch systeem heeft zelfs de precisie van je computer al een sterk effect op de uitkomst. Zoals NE5Freak ook al aangaf, kleine variaties kunnen gigantische fluctuaties in je uitkomst geven.
Het is allemaal zwaar niet-lineair, maar het meeste is wel lokaal. Dat wil zeggen: Een regenbui in Amsterdam zal (binnen 1 tijdstap, ~1 minuut ofzo) niet gevoeld worden buiten Nederland. Dat betekent dat je in principe, en afhankelijk van een aantal computationele keuzes, je model prima lokaal kan opbouwen.zoals CAPSLOCK zegt: Allemaal kleine spatiele blokjes van pakweg 20x20 gridkolommen. Dat levert fantastische parallelisatie op: Mijn code schaalt vrijwel 100% tot in de duizenden processoren. Dus als ik een run draai op 1024 processoren, is ie daadwerkelijk dubbel zo snel klaar als op 512 :)
Het al dan niet lineair zijn van een stelsel vergelijkingen heeft niets te maken met het discretiseren, maar sluit alleen een deel van de oplossingsmethodes uit (bijv. Fourier analyse). Bijna iedere methode voor het numeriek oplossen van differentiaal vergelijkingen gaat uit van het discretiseren in tijd en plaats.
Het doorrekeken van modellen bijvoorbeeld waarmee voorspellingen kunnen worden gedaan of aannames getoets. Den aan het weer, voorspellen van aardbevingen, meteorieten, medische gegevens analyseren, economische modellen.
Ze worden vooral door wetenschappers gebruikt om phenomenen mee te modeleren. Stel jij wilt weten wat er 2 seconden na de oerknal gebeurde, dan schrijf je een model en runt het op een computer. Tjah op een huidige PC met een i7 ben je zo al honderden jaren verder vanwege alle natuurkundige wetten die een rol spelen en dus ook gesimuleerd moeten worden. Een super computer doet dat vele malen sneller!
Pi uitrekenen tot 20 biljoen decimalen achter de komma?
klik
idd erg nuttig.
Pi wordt veelvuldig gebruikt in encrypte methodes, dus ja erg nuttig.
Dacht altijd dat vaak priemgetallen daarvoor gebruikt werden.
Supercomputers are used for highly calculation-intensive tasks such as problems including quantum physics, weather forecasting, climate research, molecular modeling (computing the structures and properties of chemical compounds, biological macromolecules, polymers, and crystals), and physical simulations (such as simulation of airplanes in wind tunnels, simulation of the detonation of nuclear weapons, and research into nuclear fusion).

http://en.wikipedia.org/wiki/Supercomputer
modelen die worden gebruikt om het weer te voorspellen zijn heel erg complex vooral bij kust regio's zoals Europa en er moeten supercomputers aan te pas komen om te zorgen dat jij elke morgen het weer op het NOS kan zien
Een goed voorbeeld is de nucleaire toepassing, omdat er geen testen meer gedaan worden maar er nog steeds nieuwe kernkoppen worden ontwikkeld moet men toch berekenen hoed deze zich gedragen. Maar ook bijvoorbeeld hoe lang de bommen die men heeft liggen bruikbaar en betrouwbaar zijn. Hoe lang duurt het voor dat de kernkoppen te ver achteruitgegaan zijn om niet meer goed bruikbaar te zijn.

Daar naast is er heel erg veel onderzoek naar hoe het klimaat werkt iedere dag als de weerman jouw verteld of het morgen wel of niet regent dan is daar een super computer die dit heeft berekend.
Ook kun je denken aan een situatie waar mensen medicatie willen testen en dat is iets dat je voor een goed deel kunt doen zonder dat je ook echt een experimenteel goedje in welk leven organisme dan ook hoeft te introduceren.
Ook de ruimtevaart en astronomie maken zeer veel gebruik van dit soort systemen om dingen te bereken zo als hoe lang zal de zon nog bestaan hoe kommen we het snelst bij mars zonder al te veel brandstof te gebruiken. Het vinden van planeten en het berekenen van allerlei natuurkundige ideeen op astronomische schaal dan wel op nano schaal. Ook super computers en hun chips hebben veel te danken aan het onderzoek dat gedaan kan worden dankzij de super computers.

Maar vergeet ook bijvoorbeeld auto bouwers niet die op die manier een machine berekenen en hoe deze zich gedraagt op een snelheid van 50, 100 of 150Km/h en wat er met het ding gebeurt als je er dan op eens een betonnen blok voor zet en je gaat van 150 naar 0 in minder dan een tiende van een seconde.... etc...
Ok defensie maakt er veel gebruik van voor het berekenen waar welke troepen naar toe moeten, waar een aanval waarschijnlijk is hoe groot de kans is dat er een aanval hier of daar plaats vind en hoe het beste bepaalde vijandige vliegtuigen, tanks etc te onderscheppen. Super computers zijn ect over al tegenwoordig, al zijn er maar weinig die zo ongelofelijk snel zijn als de top 20 super computers.

Er zijn bijna geen dingen meer die niet op de een of andere manier baat hebben bij het onderzoek dat een super computer mogelijk maakt en sneller is complexere berekeningen, want de tijd die een gemiddelde super computer nu nodig heeft voor zijn berekeningen is eerder langer geworden dan korter. Terwijl deze dingen vele duizenden malen sneller geworden zijn dan ze waren toen ze voor het eerst gebruikt werden.
De computer die de eerste maan landing berekende was vele malen minder krachtig dan de processor die jij in je mobiele telefoon hebt zitten bijvoorbeeld. De rekenkracht van de snelste super computer van 20 jaar geleden is niets meer in vergelijking tot de rekenkracht die een moderne GPU kan leveren. Super computers zijn alleen super op het moment dat ze gebouwd worden niet al te veel later worden ze weer vervangen door nieuwe betere en nog snellere computers.
Mooi voorbeeld is het uitrekenen van Eiwitten .... en nog wat. hier kun je zelf ook aan meewerken door folding@home te installteren. Je kunt met jou rekenkracht op je pc een bepaald eiwit uitrekenen en deze worden naar een server gestuurd. als je dit met een miljoen mensen doet dan ben je samen ook een super computer.
Edit: Met zo een drastisch minder verbruikt ten opzichte van de Amerikaanse systemen vraag ik me af of deze Chinese CPU's teruggebracht kunnen worden voor consumenten met behoud van het lage verbruik. Als zoiets mogelijk zou zijn zou het een harde klap worden voor Intel en AMD en mogelijk een opschudding in de markt kunnen veroorzaken.
1 zo'n processor of core is lang niet zo krachtig als een AMD/Intel core
Dus je zou al consumenten pc's moeten bouwen met 1000 cores om bij te blijven

Lijkt me niet goedkoop
of deze Chinese CPU's teruggebracht kunnen worden voor consumenten
Voor China: Ja.
Voor de Westerse wereld: Absoluut niet. Naar alle waarschijnlijkheid heeft China vanaf 2001 een DEC CPU gereverse-engineered, zonder daarvoor de benodigde licenties te kopen. Hun CPU is MIPS 64 bit compatibel, en daarvoor heb je een licentie nodig.

Dus mocht dat spul hier in de winkels belanden, dan zal het vermoedelijk
met een paar pennenstrepen van de eerste beste rechter van de schappen worden geveegd.
Alpha is niet Mips, op Mips kunnen ze een licentie nemen. Alpha is nu van HP en die zullen er zeker geen licenties voor geven (hoewel voor het juiste bedrag alles mogelijk is)
Je kan er (bijna) altijd meer CPU's en cores tegen aangooien, dan maakt de architectuur weinig meer uit...

Maar het is inderdaad wel verrassend dat het energieverbruik zo laag is terwijl hij nog zo'n grote rekenkracht heeft. Heeft denk ik te maken met de lage clock? Misschien dat ze dat zouden kunnen gebruiken voor consumenten computers. Lagere clocks per core maar meer cores in 1 pc oid.
of mischien door de waterkoeling.
bij andere supercomputers gebruiken ze toch gewoon luchtkoeling, en daarna nog een keer airco om het gebouw te koelen dacht ik.
En met watercooling hoeft het water niet gekoeld te worden? Tenzij er van een stromende rivier water wordt afgetapt en warmer terug gegooit moet water gewoon gekoeld worden...
Je kan het warme water natuurlijk ook gewoon door een condensatietoren gooien, dan raak je ook wel een aardige hoeveelheid warmte kwijt zonder dat het veel energie en moeite kost. Of je gebruikt het warme water voor het verwarmen van iets anders. Om water te koelen zijn gewoon veel efficientere manieren beschikbaar dan om lucht te koelen.
Waterkoeling pompt niet gewoon water uit een rivier over je processor.

Er is een (soms meerdere) gesloten circuit dan water eerst over je processor pompt, en daarna door een koelblok. Dat koelblok kan je vervolgens met lucht, water of iets anders koelen.

Het water binnen het circuit moet natuurlijk actief worden rondgepompt, maar de koelblokken hebben niet zoveel nodig, ze moeten alleen heel groot zijn (en het werkt wel goed als je rivierwater over koelribben heen pompt).

@Gropah
Als consument wil je wel een lekker aantal herz behouden; een Atom is ook lekker zuinig, maar die willen veel mensen ook niet in hun desktop.
Architectuurverschillen maken natuurlijk wel uit voor hoe een processor presteert bij X hertz, maar bij 500 MHz presteert niets echt top.
Overigens kan je niet zomaar cores (CPU's zijn trouwens simpel gezegd gewoon een verpakking van cores) ergens tegenaan gooien, alleen bij taken die te paralelliseren zijn.

VB niet te paralelliseren;
1)neem een waarde X
2)deel die waarde door 2
3)herhaal stap 2

Je moet de uitkomst van 2 weten voordat stap 3 uit kan voeren.
Ik vermoed dat watercoolertje met zijn opmerking bedoelde dat waterkoeling minder energie kost als het koelwater uit de rivier warm mag worden geloosd in de rivier.

In Nederland is dergelijke lozing in het oppervlaktewater gereguleerd, waardoor koeltorens zijn vereist (lees: hoger energieverbruik). Verschillen in dergelijke omgevingscriteria kunnen dus ook (ten dele) een verschil in energieverbuik verklaren.

[Reactie gewijzigd door hieper op 31 oktober 2011 12:22]

Je hebt gelijk dat er natuurlijk wel te paralelliseren moet zijn, maar bij het overgrote deel van de berekeningen is dat wel te doen. Sorteren ed kan parallel, alleen het weer aan elkaar zetten kan dan weer niet parallel.

Tuurlijk zal er altijd een grens zijn aan wat nou precies de grens is van efficiŽntie met meerdere cores, maar volgens mij zitten we daar als consument nog lang niet aan.
Clock zegt niks over het verbruik en ook niet over prestatie, alleen zegt het iets over welke clock de cpu tikt maar niet hoeveel werkt die verricht in de klok cyclus. 100Mhz CPU kan ver weg meer verbruiken en sneller zijn dan andere 200Mhz CPU. Dat is architectuur afhankelijk.

[Reactie gewijzigd door mad_max234 op 31 oktober 2011 10:48]

Zie waar ARM heen gaat
Ik ben benieuwd hoe de volgende supercomputer dan zou zijn.
Zlefde als deze tegenover de vorige, dus heel stuk sneller dan de vorige. :D Zo gaat het al tientallen jaren, elke keer als er nieuwe is dan vallen de monden weer open, maar is niks meer dan logisch vervolg stap. Over 10 jaar hebben we er eentje die 4x zo snel is, want dat laat de techniek dan toe.
De Amerikaanse overheid heeft tot doel in 2020 een supercomputer met een rekenkracht van 1 exaflop gerealiseerd te hebben. Het huidige record staat op 8 petaflop. Dat betekent meer dan een verhondervoudiging in 8 ŗ 9 jaar tijd.

Of consumentenproducten ook zo veel sneller zullen worden in die tijd, is twijfelachtig. Het is mij niet geheel duidelijk waar dit verschil aan ligt, afgezien van nog extremer parallelisme
it aint going to be the great american century
Hopelijk kan je hiermee BF3 op max spelen :Y)
Nope, dat werkt sowieso niet op de RISCarchitectuur :P
Ja weet ik, was ook als een grapje bedoelt :P
Wow 150tb werkgeheugen, en ik maar denken dat 128gb veel was!
150 TB Werkgeheugen LOL! kom ik aan met mijn 8 GB
CPU snelheids zegt zeker wel war 100mhz cpu's zijn altijd langzamer dan 1000mhz cpu's
Ik denk anders dat een enkele core op 100Mhz met de Sandy Bridge architectuur een stuk sneller zal zijn dan een 486 op 100Mhz.

(Mega)hertzen zeggen niet alles: het gaat er ook om wat zo'n CPU in een cycle gedaan krijgt.

Ontopic: Knap werk van die chinezen! Ze zijn hun achterstand inderdaad hard weg aan het werken. Er is alleen een iets wat Chinezen absoluut niet kunnen: producten een passende naam geven. Als "Sunway BlueLight MPP" me ergens aan doet denken, is dat aan een nep-lasergun van de Intertoys. :9
Noem mij skeptisch over dit nieuws, maar een opsomming:

-3 generaties achter op huidige techniek
-Theoretische snelheid 74% van huidige clusters
-Helft van het energie verbruik vanwege "revolutionaire" waterkoeling

plus de reputatie die China (Chinese overheid) heeft om feiten nogal eens rooskleuriger te doen voorkomen dan ze daadwerkelijk zijn.

Iemand een meer technisch artikel gevonden over dit nieuws?
http://en.wikipedia.org/wiki/ShenWei 65 nm ^ ^?

Jammer dat het geen 45 nm cpu's zijn, kon de waterkoeling ook veel effecienter :D

Four-issue superscalar
Two integer and two floating-point execution units
7-stage integer pipeline and 10-stage floating-point pipleline
43-bit virtual address and 40-bit physical address
Up to 8TB virtual memory and 1TB of physical memory supported
L1$: 8KB I$ and 8KB D$
L2$: 96KB
128-bit system bus[1]

[Reactie gewijzigd door Ziasod op 31 oktober 2011 13:26]

China is op meerdere fronten bezig
in civiele zin met Godson .
research/militair met shenwei .Deze lijkt een doorontwikkelde Godson/Loongson
Deze MIPS-architectuur is zuinig. ongeveer 50% vergeleken met Amerikaanse systemen. En schaalt dus goed in grote clusters. met een linux-achtig OS.
Wat ik begrijp, is nu ook de chip in Shanghai gemaakt waar het voorheen van STMC kwam.
in vertaling

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013