Arm: het boeit ons niet dat de Wet van Moore dood is

De halfgeleiderindustrie krijgt het moeilijker en het klopt dat de Wet van Moore voorbij is, erkent chipontwerper Arm, maar het bedrijf geeft aan hier niet om te geven omdat er nog voldoende ruimte is voor innovatie.

De rek is er wel zo'n beetje uit bij de cmos-halfgeleidertechnologie, betoogt Mike Muller, medeoprichter en cto van Arm bij de Arm Research Summit, die in Cambridge plaatsvindt. "De wet van Moore vertraagt, de Wet van Moore is dood, de Wet van Moore is voorbij. Het is waar, hoe je het ook wilt stellen. Maar mij maakt het niet uit. Arm maakt het niets uit", zei de technisch topman volgens IOT Insights.

Volgens Muller gaat 70 tot 80 procent van de Arm-chips naar embedded systemen, waar nog genoeg terrein op het gebied van chipproductietechnologie te ontginnen zou zijn. Embedded chips zijn doorgaans niet op het laatste chipprocedé gebaseerd maar lopen generaties achter.

Ook wat de laatste chipnodegeneraties betreft is er een positief punt, volgens de cto, aangezien die productie op den duur steeds goedkoper wordt. Het is de overstap naar steeds kleinere nodes die steeds meer geld kost. Zo heeft Intel grote moeite om kostenefficiënt over te stappen van 14nm naar 10nm, maar is de keerzijde dat de 14nm-productie inmiddels geoptimaliseerd is met hoge opbrengsten en relatief lage kosten.

Muller denkt daarnaast dat er veel voordeel te behalen is uit het stapelen van chipdies. Volgens hem is er nog voor jaren aan innovatie mogelijk met 3d-chips. Verder zou de industrie op een andere manier na moeten denken om rekenkundige problemen van bijvoorbeeld machinelearning het hoofd te bieden, anders dan met brute force en het verhogen van het aantal transistors.

Tenslotte denkt hij dat in de komende vijf jaar nieuwe technieken verschijnen die de industrie voorbij cmos brengen. Als voorbeelden noemt hij onder andere neuromorfische chips, spintronics en quantumfotonica. "Ons werk wordt lastiger, maar vanuit het oogpunt van de consument zal er geen sprake zijn van een vertraging. Die krijgt meer en meer prestaties", besluit hij.

Alternatieve visualisatie van de Wet van Moore

Door Olaf van Miltenburg

Nieuwscoördinator

18-09-2018 • 14:32

125

Submitter: Squee

Reacties (125)

125
125
58
4
0
52
Wijzig sortering
in 1999 riepen wetenschappers al dat het einde binnen afzienbare tijd (is 19 jaar afzienbare tijd?) in zicht was (1) In 2016 deed Tweakers ook een duit in het zakje (2). De directeur van Nvidia,Jen-Hsun, kwam er in 2017 ook eindelijk achter (3)

Er wordt wel vaker iets geroepen maar of de wet echt dood is niet geheel duidelijk. Misschien is ie wat afgeremd maar er kan altijd een nieuwe innovatie komen in de chip-productie waardoor het weer een boost krijgt.

Onderzoeksbureau SEMI, dat de chipmarkt onder de loep neemt, denkt dat de markt volgend jaar met 7,5 procent groeit. Dat is veel minder slecht dan de krimp die Goldman Sachs verwacht (4). Dat is goed nieuws voor ASML & co.

We zien het wel.


(1) nieuws: Ontwikkelingen chip industrie bereiken fysieke limieten
(2) reviews: Is de Wet van Moore dood?
(3) https://www.extremetech.c...-declares-moores-law-dead
(4) https://www.rtlz.nl/beurs...1/asml-markt-jos-versteeg
De wet is helemaal geen wet het is een uitspraak die miemand ooit gedaan heeft en waarop een industrie zich nu vastklampt.

Als je kijkt naar ontwikkeling op vele gebieden dan zie je versnellingen, 100 jaar terug 50 jaar terug 25, 10 5 en de vooruitgang op vele gebieden is al gigantisch.

Chips zullen sneller worden of je ze moet stapelen of niet en quantum computers zullen het geheel nog een keer kunnen versnellen. De wet van moore was nooit een wet, de versnelling op vele gebied blijft echter wel doorgaan.
De wet is helemaal geen wet het is een uitspraak ...
Dat hoef je hier op Tweakers niet uit te leggen.
de versnelling op vele gebied blijft echter wel doorgaan.
Maar de versnelling gaat wel trager. Inmiddels zo veel trager dat het niet meer echt "versnelt".
quantum computers
De wet v Moore heeft betrekking op halfgeleider technologie, en kan idd in principe worden omzeild dmv een fundamenteel andere technologie.
De wet is helemaal geen wet het is een uitspraak die miemand ooit gedaan heeft en waarop een industrie zich nu vastklampt.
"De wet van Moore" is dan ook gewoon een leuke naam die er aan gegeven is. Denk je echt dat men dacht dat de wet van Moore een soort van natuurwet o.i.d. is? Dat dacht niemand. Natuurlijk was het maar een observatie en voorspelling.

Het punt is dat nu dus pas het einde van die voorspelling/observatie is gekomen, en dat dit wel degelijk een effect heeft op de markt en op de innovatie.

[Reactie gewijzigd door unilythe op 22 juli 2024 19:10]

Er wordt wel vaker iets geroepen maar of de wet echt dood is niet geheel duidelijk. Misschien is ie wat afgeremd
Zie de grafieken mbt de toename van integer en floating point performance over de afgelopen decennia - de toename van performance neemt duidelijk af sinds ~2004:
https://www.nap.edu/read/12980/chapter/10
Onderzoeksbureau SEMI, dat de chipmarkt onder de loep neemt, denkt dat de markt volgend jaar met 7,5 procent groeit.
Dat heeft niets te maken met de wet v Moore. De markt zal nog groeien ook al zouden we vast zitten op 14nm.

toevoeging: aangezien de performance toename al stagneert sinds ~2004, was de voorspelling in 1999 dat dat binnen afzienbare tijd (niet 19 maar 5 jaar) zou gebeuren, wel correct.

En "nieuwe innovatie in de chip-productie waardoor het weer een boost krijgt" is alleen maar nodig omdat de wet v Moore wel degelijk 'dood' is (dan wel het effect van die wet sterk is afgenomen).

[Reactie gewijzigd door BadRespawn op 22 juli 2024 19:10]

De wet van Moore stelt dat het aantal transistors in een geïntegreerde schakeling door de technologische vooruitgang elke twee jaar verdubbelt. Het heeft niets te maken met de floating points prestaties.

En de groei van de chipmarkt heeft er inderdaad ook geen zak mee te maken maar vond ik leuk om even te zeggen.
De wet van Moore stelt dat het aantal transistors in een geïntegreerde schakeling door de technologische vooruitgang elke twee jaar verdubbelt. Het heeft niets te maken met de floating points prestaties.
De wet van Moore heeft alles te maken met performance in het algemeen, want met meer transistors kan je per clock cycle meer doen, én kleinere transistors kunnen sneller schakelen (dus de clock snelheid kan hoger).
Dat is dus een afgeleide regel....

De uitspraak was alleen over het aantal transistoren in een IC.
Zelfs als als het nog even doorgaat, kleiner dan een paar atomen / pad gaat het niet worden..
dus op z'n best nog 2 of 3 iteraties (verdubbelingen) na 10nm.
Het klopt natuurkundig gezien niet helemaal, maar je kunt om te rekenen aanhouden dat de diameter van een siliciumatoom 0,21nm is. Een 10 nm feature is dan 20 atomen breed. Dat ga je niet nog eens twee of drie keer halveren zonder te verdrinken in ruis.
aantal transistors verdubbelen is niet van 20-> 10 en dan naar 5...
maar van 1 transsistor in 10nm, naar 2 transistors in 10nm , en dan naar 4 transistors in 10nm..
2 verdubbelingen zou dan op 10 atomen breed uitkomen... en dan wordt het echt problematisch.
Maar op 20x20 atomen kun je ook nog een beetje vertikaal... maar het wordt zeker dringen.
Het aantal & de grootte van transistors is een van de mogelijke factoren die performance mee bepaalt, maar zo zijn er nog heel wat andere. Het klopt dus wel dat de wet op zich niets te maken heeft met floating points prestaties. De prestatiewinst is een mogelijk gevolg van wat de wet beweert.
Het aantal & de grootte van transistors is een van de mogelijke factoren die performance mee bepaalt, maar zo zijn er nog heel wat andere.
Het klopt dus wel dat de wet op zich niets te maken heeft met floating points prestaties.
Ook die andere factoren zijn alleen maar "mogelijk", en als het feit dat een factor mogelijk is betekent dat die factor er niets mee te maken heeft (jouw redenering, al vind ik het wat vreemd), dan hebben ook die andere factoren er niets mee te maken.

Maar de mogelijkheden tot snelheidswinst dankzij de wet v Moore hangen fundamenteel samen met de wet v Moore, en die andere factoren vergen andere inspanningen zoals het ontwerpen van circuits die sneller rekenen met evenveel transistors - bepaalt niet vanzelfsprekend.

De enige manier om bij schaalverkleining geen snelheidswinst te boeken is door de kloksnelheid gelijk te houden en het aantal transistors gelijk te houden. Dat komt wel voor maar in praktijk is het niet waar de nadruk ligt bij de ontwikkelingen van CPU's en GPU's.
Dat is wel heel positief bekeken :p een dubbel aantal transistors kan ook situaties opleveren waardoor de noodzaak voor error correctie groter wordt en de uiteindelijke performance niet te voorspellen is
In praktijk is gebleken dat performance wel redelijk goed voorspeld kan worden :P
Er zijn de laatste 20 jaar allerlei varianten langs geweest van die wet.

Aantal transistors, proces groote, snelheid van de processor, aantal instructies, energie gebuik, prijs per ...

Dus de wet is zelden een vaste wet, maar meer een teken van innovatie.
Pas nog een interessant filmpje over gezien. De limieten van Silicium zijn bereikt en we moeten of een nieuw materiaal vinden of we krijgen hele grote CPU's.
En grotere CPU's betekent grotere afstanden, wat dan weer betekent dat de per-core prestaties op deze manier niet meer omhoog gehaald kan worden. Kleinere chips betekende jarenlang dat de cores zelf ook kleiner werden, en dat is hoe de prestatie omhoog ging. Nu kunnen we wel grotere chips maken, maar dat houdt dan in dat we gewoon meer cores erin stoppen.
Nee, dat is niet de reden. Kleinere transistoren betekenden kleinere capaciteiten die ingeladen moesten worden. Omdat de capaciteit sneller zakte dan de stroom die een transistor leverde, ging de frequentie omhoog.

Sinds de interconnects en hun capaciteit de begrenzende factor zijn gaat die vlieger niet meer op.
Ik weet niet wat jij denkt wat ik bedoelde te zeggen, maar ik legde het dan ook niet helemaal ideaal uit. Het enige wat ik bedoelde te zeggen is dat een core groter maken niets toevoegt, dus een grotere chip zorgt alleen maar voor meer cores.
Ah, okee, dat had ik niet helemaal begrepen. Een grotere chipaakt wel ook dingen als MMX, SSE etc. mogelijk. Ook grotere caches gebruiken plaats zinvol.
Grotere caches zorgt dan wel weer voor meer latency. Dat is waarom er een L1, L2, en L3 cache is. De kleinere caches zijn kleiner maar veel sneller.

Extra hele specifieke toevoegingen als MMX, SSE, maar ook AVX etc. voegen natuurlijk wel wat toe aan een CPU, maar niet voor de gemiddelde gebruiker. Er zal altijd wel wat te verbeteren zijn natuurlijk, maar de grootte van een core zal niet heel veel veranderen als de procedé niet veranderd.
Chips die met elektronen werken, hebben hun beste tijd gehad. Fotonen zijn wat de computerindustrie betreft de toekomst. :)
Interessant. Hoe gaat dat helpen zaken te verkleinen?
niet verkleinen, maar versnellen. iets met lichtsnelheid :Y)

https://www.twente.com/tw...en-wat-zijn-de-voordelen/

[Reactie gewijzigd door Mr.Nonflex op 22 juli 2024 19:10]

Ja, lichtsnelheid. En dan? Waarom helpt dat een CPU? En hoe snel reageren de fotonische transistoren (geen idee hoe die heten) op licht? En hoe ga je miljoenen signalen op een chip verbinden?
Spintronics is ook een zeer plausibele optie! Een fotonische cpu zit er ook nog niet meteen aan te komen.
Denk dat dit er ook wel mee te maken heeft huidige kennis en materialen/procedures etc.

Uiteindelijke oplossingen zullen denk ik syntetische varianten maar geen idee of dat haalbaar is en of hoe lang dat nog allemaal duurt voor we essentiele materialen voor technologie kunnen produceren.
En dat zal ook nog verfijnt moeten worden mits zoiets wel te doen is.
ik vraag me af of het een echte dood\afremming is omdat de kennis er niet toereikend is om de volgende grote stappen te maken of dat er een kunstmatige "uitrekking" is met een financiële motivatie.
Het is inderdaad een erg interessante (en tegelijk ook lastige) tijd voor computer architectuur onderzoek en ontwikkeling met de 'dood' van Moore's law. Er zal een push zijn voor steeds meer specialisatie om meer performance uit een systeem te kunnen persen; zoals we nu ook de ontwikkelingen van nieuwe accelerators voor neurale netwerken zien (zoals Google's TPU bijvoorbeeld).

John Hennessy en David Patterson (de vaders van RISC en schrijvers van HET standaardwerk op computer architectuur gebied) gaven er deze zomer bij de ISCA conferentie een interessant praatje over wat hun visie is over waar het naar toe gaat;
https://www.youtube.com/watch?v=3LVeEjsn8Ts

Het zal me niets verbazen als we uiteindelijk in de nabije toekomst een boel gespecialiseerde accellerators hebben die allemaal bestuurd worden door een centrale klassieke core, die voornamelijk de orkestratie doet van de berekeningen en data verplaatsingen tussen deze rekeneenheden.

[edit]: Betere link voor boek

[Reactie gewijzigd door Squee op 22 juli 2024 19:10]

Het zal me niets verbazen als we uiteindelijk in de nabije toekomst een boel gespecialiseerde accellerators hebben die allemaal bestuurd worden door een centrale klassieke core,
Die ontwikkeling is al een tijd aan de gang (MMX, SSE etc), maar zal idd waarschijnlijk toenemen.
Die ontwikkeling is al een tijd aan de gang (MMX, SSE etc), maar zal idd waarschijnlijk toenemen.
Dat is nou juist het verkeerde voorbeeld ;) Het zijn meer de GPU, TPU, DSP en dergelijke waar ik dan aan denk. MMX en SSE zijn nog steeds instructieset extensies die door je CPU core uitgevoerd worden binnen de pipeline, ook al is het vaak op speciale executie units die hiervoor gespecialiseerd zijn. Het MMX/SSE programmeermodel is nog steeds het zelfde sequentieele programma van een CPU. Een GPU/TPU/DSP zijn echt externe devices die grotendeels zelfstandig opereren en door de CPU opdrachten toegeschoven krijgen om deeltaken uit te voeren.

Het is wel een interessante vraag hoe zich dit zal gaan ontwikkelen daarna; de floating point unit was historisch gezien ook aan 'co-processor' en wist de CPU core deze speciale instructies daar naar toe te sturen. Zou dat uiteindelijk ook kunnen met de GPU/TPU/DSPs, dat ze toch op een bepaalde manier binnen de programma-flow binnen de CPU core terecht komen? Dat is een interessante onderzoeksvraag :)
Dat zie ik met tensorcores absoluut wel gebeuren. Voor nu zitten er een paar op een specifieke gpu en een telefoonchipset hier en daar maar met de mogelijkheden die er zijn zal het absoluut niet bij de gpu blijven.

Het is ook wel een trend, meer en meer de cpu in schuiven. Begon met de northbridge, nu zitten de gpu, usb controllers, en meer er in, en dat zal nog wel meer worden.

[Reactie gewijzigd door lezzmeister op 22 juli 2024 19:10]

Hele kleine correctie: "Tensor Core" is een merknaam van Nvidia. Dat is alsof je een CPU een "x86" of een "Intel Core" oid zou noemen. Een generieke naam zou "Matrix Processing Unit" of iets dergelijks zijn. Google heeft ook hun eigen versie die ze een "Tensor Processing Unit" noemen, wat ook al meer in de buurt komt van een generieke naam.

[Reactie gewijzigd door unilythe op 22 juli 2024 19:10]

Dacht dat het een meer algemene naam was gezien TensorFlow. Tensor units dan.
Heb net even verder gezocht, en de generieke naam blijkt een "Neural Processing Unit" of "AI Accelerator" te zijn.
Bedankt AI hype... Heeft het niet een veel breder toepassingsveld dan enkel AI?
Jep, dus ik ben ook niet zo'n fan daarvan. Maar goed, het zal op het moment wel voor het overgrote deel voor AI gebruikt worden.
FP coprocessor volgde de CPU, en tapte de CPU bus en wat extra interne controle signalen af.
voor de CPU waren de co-processor instructies een NOP. Alleen voor de co-processor niet.

Interessanter zijn mogelijk de clockless devices of 1 instructie devices (alleen een MOVE instructie).
Waar bepaalde functionele modules aan het werk gaan op het moment dat er data afgeleverd wordt.
Hey.... dat klinkt verdacht veel als een .......commodore Amiga, met als stamvader natuurlijk de c64, vic20 etc.
De rek zit hem in het efficienter programmeren, meer threads kunnen gebruiken e.d. Maar de rek in raw single core performance wordt steeds minder.
Voor de meeste functionaliteit heb je geen snellere processors of multithreading technologie nodig. Laten we eerst eens focussen op kwaliteit. 2018 en de meeste programmeertalen doen nog steeds aan integer overflow alsof we nog in de oertijd leven. Versiebeheer gaat nog steeds met platte tekst in plaats van semantische veranderingen. Je kan nog steeds niet snel een falend systeem runtime diagnosticeren.

Betere software heeft geen snellere processors nodig; het heeft betere ontwikkel software, bibliotheken en tools nodig.
En hoe wil je dat gaan regelen met steeds veranderende hardware.

Een mooie casus zijn spelconsoles. Daar blijft de hardware precies hetzelfde voor een x-aantal jaren. Gaandeweg zie je dat de kwaliteit van games steeds beter wordt. De meeste ins- en outs van de console zijn bekend, hoe geprogrammeerd moet worden, en vooral hoe niet geprogrammeerd moet worden.


Hoe groot is het verschil met PC. Daar heb je als eerst de CPU, die opzettelijk gehavend wordt door Intel. Simpel voorbeeld is HT. Bij de een wel, bij de ander weer niet.
Ik heb tot heden Intel niet kunnen betrappen dat ze een bijdrage hebben geleverd om oa multi-core en HT mainstream te maken. HT bestaat al sinds 2002.
Je zou zeggen zeggen dat na ruim 15 jaar het onderhand alle ins- en outs bekend moeten zijn bij programmeurs en dat er maximaal gebruik van wordt gemaakt.


En ander fenomeen is gpgpu. Bij Android/Arm zie je dat daar reuzenstappen zijn gemaakt. Is ook niet zo vreemd omdat ARM an-sich niet supersnel is en je zoveel mogelijk rekenkracht wilt gebruikend die tot je beschikking hebt en ook zo de CPU zo minder hoeft belasten. De volgende stap wordt al genomen met zogeheten AI-chips, dat zijn in principe ASIC/FPGA chips die supersnel zijn in een x-aantal taken.

Intel heeft daar tot op heden helemaal weinig op in te brengen en zijn zelfs hun heil gaan zoeken bij AMD omdat hun eigen gpu’s daar nog veel te ver op achter lopen.
nieuws: Intel introduceert achtste generatie Core-processors met Vega-gpu


Hoe wil je een programmeur zo ver krijgen dat hij zijn software gaat optimaliseren? De basis is ruk, een beetje Intel kan tegenwoordig niet bijster veel. Weliswaar heeft die meerdere cores maar voor mainstream heeft het nooit prioriteit gehad en voor echte rekenkracht wil je die ook niet hebben.
Dan moet je een beroep doen op een gpu of externe processor, en daar heb je te veel verschil in, Intel zelf wat achterloopt, Nvidia met gesloten techniek, AMD die niet echt veel gebruikt wordt.


Er wordt liever een ondergrens gesteld, op die en die hardware moet het (goed) werkbaar zijn, en alles wat daar boven zit moet je een betere ervaring geven.
Ik heb tot heden Intel niet kunnen betrappen dat ze een bijdrage hebben geleverd om oa multi-core en HT mainstream te maken.
He wat? Intel heeft als eerste hyperthreading naar de mainstream gebracht, daarvoor zat het enkel op Itanium en SPARC chips.
En eens voor de verandering werkelijk multi-threaded werken...
Bizar weinig, ook professionele software, is werkelijk multi-threaded.
Maar je draait natuurlijk wel tientallen verschillende processen he? Schakel al je core op een na een uit en werk dan een dag. Dat wil je niet hoor.... Een printopdracht die het halve systeem op zijn knieën krijgt.
Vroeger met een pentium of athlon van een enkele core ging alles ook prima... Een print-opdracht is maar een handvol klok-cycles.
Hou maar eens bij, er is 1 zwaar belaste core door de hoofd applicatie, de andere zijn nagenoeg idle. Iig bij mij met een Cadprogramma, outlook, Skype, Firefox, SAP en excel open.
Is wel enorm aan het veranderen. Multicores zijn nu een harde feit en single-core prestaties gaan nauwelijks vooruit, dus je ziet CPU-intensieve programma's wel degelijk inzetten op multicores op het moment.
Minimaal, is mijn ervaring.
Probleem is dat hele applicaties van de grond af opnieuw opgebouwd moeten worden, en dat wordt gewoonweg niet gedaan. Een paar grafische dingen of reken/simulatieprogramma's kunnen het wel.
In mijn ervaring als CAD tekenaar gaat renderen (=GPU) en een FEA/FEM berekening wel lekker vlot multi-core. Maar een assembly opbouwen, parts invoegen en een top level update van het model? Traaaaaag. In meerdere programma's.
Zijn er ook talen die automatisch beschermd zijn tegen integer overflow en die veel gebruikt worden?
Mozilla probeert met Rust de kwaliteit te verbeteren. Tijdens het compileren checkt de compiler voor memory-safety issues als use-after-free en buffer overflows, maar ook dataraces waardoor multithreading een stuk makkelijker wordt.
de meeste programmeertalen doen nog steeds aan integer overflow alsof we nog in de oertijd leven
Deze begrijp ik niet helemaal. Wat bedoel je met "doen nog steeds aan"? Integer overflow is niet iets waar een programmeertaal aan meedoet. En het is iets wat niet door een programmeertaal op te lossen is zonder enorm in te leveren op de prestatie. Gewoon slim programmeren en dan heb je het probleem niet, en hoef je niet enorm in te leveren op de prestaties van het programma.
Dit is al een probleem sinds we voor het eerst de 3GHz konden halen en heeft niet zo veel met de wet van Moore te maken. Je hebt wel vol gelijk dat er een boel performance zit in huidige chips die we er niet uit halen.
Dat zou de Pentium 4 geweest zijn, maar de singlecore performance is sindsdien met bijna een factor 10 verbeterd... Dus om nou te stellen dat het toen al ophield? Ja, het begon al een beetje te vertragen, dat wel, maar er zat toen nog zat vaart in. Alleen die Pentium 4 was een beetje een dood spoor.
de singlecore performance is sindsdien met bijna een factor 10 verbeterd
Bron? Ik twijfel er niet aan dat de performanc eene heel stuk is toegenomen... maar factor tien?
Als je daarmee bedoelt een P4 op 3GHz vs een 8086K op 5GHz, dan zou dat willen zeggen dat de IPC tussen de Pentium 4 en coffee Lake ongeveer maal 6 is gegaan. Dat lijkt me erg sterk.

Edit: zoals ik al dacht is maal 10 echt geen reëel getal. In de Passmark benchmark (niet de beste, maar al 1 indicatie) scoort een Pentium 4 rond de 750-800 punten, terwijl een 8086K ongeveer 2800 scoort, ongeveer 3.5 keer sneller dus. Dat lijkt me een veel reëel getal: de kloksnelheid is ongeveer 60% toegenomen (3GHz base vs nu 5GHz boost), en dat wil dus zeggen dat de IPC ongeveer 2.18 hoger is in coffee Lake dan bij de Pentium 4. Dat zijn veel realistischer cijfers.

[Reactie gewijzigd door kiang op 22 juli 2024 19:10]

Je hebt gelijk. Ik was aan het zoeken welke benchmarks je het mee kon vergelijken en was bij superpi 1M uitgekomen, alleen ik had bij de resultaten van de 8700K (waar ik op zocht) even over de klokfrequentie heen gekeken :+ (en ik had dan nog een beetje naar boven afgerond)
Dat bleken dus scores te zijn rond de 6 of 7 GHz, dus dan kom je ook op ongeveer de factor uit die jij aangeeft. Overigens vind ik dat de klokfrequentie wel mee mag tellen bij singlecore performance, het gaat niet alleen om klok voor klok, maar 6 of 7 GHz is wel overdreven want dat lukt je niet zo even om stabiel en permanent in je thuis systeempje te draaien.

edit: Sorry, had je post alsnog te snel gelezen. In superpi 1M zie ik voor de Pentium 4 3.0C dat hij er 43 seconden over deed. Een 8700K op 6,1 GHz deed het in 5,994 seconde. Omgerekend naar de stock boost snelheid van een 8700K zou dat dan ongeveer 7,8 seconde worden. Daarmee is de 8700K dus 5,5 keer zo snel, of 3,5 keer zo snel op dezelfde klok. Inderdaad geen 10 keer, maar alsnog niet verkeerd.

[Reactie gewijzigd door Finraziel op 22 juli 2024 19:10]

Dit is al een probleem sinds we voor het eerst de 3GHz konden halen en heeft niet zo veel met de wet van Moore te maken.
Als het niet de wet v Moore is, wat is dan wel de oorzaak dat performance steeds trager toeneemt?
Ik doel hier specificiek op de stap naar multicore voor performance. Code moet hier voor herschreven worden, er van uit gaande dat parallelisering überhaupt kan. Dit was de eerste grote klap die we kregen voor dat de wet van moore stierf.
niet zo veel met de wet van Moore te maken.
klap die we kregen voor dat de wet van moore stierf.
Dus het heeft toch wel veel met de wet v Moore te maken.

[Reactie gewijzigd door BadRespawn op 22 juli 2024 19:10]

Klopt, maar geen bedrijf laat zijn werknemers tijd en dus geld steken in optimaliseren als je er gewoon wat meer cpu cycles tegenaan kan gooien en wat meer ram kan vreten. Dat iedereen zo over zijn software denkt zorgt voor systemen vol met niet echt optimale software waardoor je sneller een nieuwe bak nodig heb, dat is wel een nadeel.
Bij de consument is nu al merkbaar dat het langzamer gaat.
Voordeel is dat je langer kan doen met de hardware.
Een PC gaat wel een jaar of 6 mee inmiddels en een smartphone een jaar of 3
Ik gebruik nog steeds een pc uit 2005 zonder problemen. De meeste zaken werken er prima op (onder Linux), dus wat dat betreft was dit fenomeen al een hele lange tijd in meer of mindere mate van toepassing.

(Stom genoeg hield het moederbord er op een gegeven moment mee op, omdat de condensatoren gaar waren. Maar die waren vrij eenvoudig te vervangen).

[Reactie gewijzigd door 712641 op 22 juli 2024 19:10]

Tuurlijk kan je met een PC uit 2005 nog wat je er in 2005 ook al mee kon maar kan je er bijvoorbeeld een modern quadHD beeldscherm aanhangen en daarmee Netflix UHD films streamen?
Weet niet waarom iedereen opeens doet alsof 4K bijzonder is, had 16 jaar geleden een crt scherm die gewoon 2560x1920 deed. Techniek werkt wat anders maar de resolutie was er gewoon
Natuurlijk, maar fatsoenlijk gamen (of video's met die resolutie bewerken) op die resolutie dat was natuurlijk niet aan de orde.

[Reactie gewijzigd door TheVMaster op 22 juli 2024 19:10]

Weet je dat zeker? 2560 zou kunnen, maar 1920 is dan eerder 1600 of 1440. (2560x1440 (16:9) of 2560x1600 (16:10)
Ja crt zat op hele andere verhoudingen 4:3
Dat kan wel. Er waren hoge resolutie crt's, vergis je niet.
Weet niet waarom iedereen opeens doet alsof 4K bijzonder is, had 16 jaar geleden een crt scherm die gewoon 2560x1920 deed. Techniek werkt wat anders maar de resolutie was er gewoon
Je weet hoop ik dat 2560x1920 geen eens in de buurt komt van 4k, wat 3840x2160 is of 4096x2160?
Als je dat allemaal niet nodig hebt en het ding alleen gebruikt voor internet of een e-mail is er niks aan de hand. Het hangt er dus gewoon vanaf wat jou eisen. Een smartphone kan ook prima een jaar of 5/6 mee als je die alleen gebruikt voor was simpele apps en bellen. ;)
4K heeft ervoor gezorgd dat ik mijn Haswell uit 2013 heb moeten upgraden. Merkte gewoon veel vertraging met allerlei zaken die me voorheen nooit op zijn gevallen. Adobe Premiere was zelfs onbruikbaar met 4K materiaal :) Ga er wel vanuit dat ik nu weer makkelijk 5 jaar verder kan.
"De meeste zaken werken ... ".
Ligt er aan wat je usecase is, voor een mediabedrijf bijvoorbeeld zullen de meeste zaken niet of niet goed werken. Dus stel dat je alleen met de browser werkt en daarin basistaken zoals e-mails checken uitvoert, dan geloof ik best je stelling dat het meeste nog werkt.
Browsen, tekstverwerking, fotobewerking, illustreren, programmeren... verzin het maar. De meeste mensen gebruiken hun PC niet voor allerlei fancy grafische toepassingen.
Uhh als jij de juiste video kaart in je pc hebt zitten en een juiste geluids kaart dan ja.

Als je moet transcenderen over je CPU ja dan zal je problemen hebben doe je dat op je GPU dan zal dat geen probleem hoeven te zijn.

Ik heb een MacBook pro uit 2008. Met een Intel code 2 duo en 8 go memory. Nvidia GPU op het Logic board. Ja ik kan geen 4K films makkelijk bewerken. Maar het full HD been probleem. Ik loop daarop tegen limieten aan.

Ik denk ook dat veel ontwikkelaars misschien niet optimaal schrijven, te veel hangen en willen schrijven voor een specifieke instructie set. Terwijl er meer uit een programma te persen valt.
Op Linux wel ja. Dat is gemaakt om een zo'n klein mogelijk impact te hebben. Linux is niet echt een goed voorbeeld als we het over de gemiddelde consument hebben, denk je ook niet?

[Reactie gewijzigd door unilythe op 22 juli 2024 19:10]

Hangt er maar vanaf welk gedeelte je van een PC belicht. Misschien wel qua CPU, maar qua GPU zijn er enorme stappen verzet de laatste 10 jaar en loopt dit nog gestaag door.
Ook dat vertraagt nu Nvidia van niemand nog echte concurrentie heeft. Komt bij dat mijn FuryX (en dus de 980Ti/1070/RX580) nog steeds prima meekomt op 1080p/1440p. Alleen voor hele hoge refreshrates en/of 4K is een 1080Ti interressant. De nieuwe 2080(Ti) is een refresh met een extra gimmick. En die gimmick word niet breed gedragen is mijn verwachting. Beetje hetzelfde idee als PhysiX. Leuk, maar doordat het Nvidia only (en dus ook ontbreekt op de consoles) niet bijster interressant voor ontwikkelaars.

En verder is nou net het grafische hoekje wat bijzonder veel nut heeft voor multithreading. De videokaarten zijn voornamelijk sneller geworden doordat het procede kleiner is geworden waardoor er meer van hetzelfde op een chip gepropt kon worden.
48 shaderunits op een X1900XT (dat is al een PCI-E kaart) vs 4096 op mijn verouderde R9 FuryX.
Vergelijk dat eens met een singlecore P4 tegen een 6/8 core CPU voor mainstream.

[Reactie gewijzigd door arbraxas op 22 juli 2024 19:10]

Dat he tprima meekomt zegt niet dat er geen verbeteringen zijn. De 1080TI is bijvoorbeeld fors sneller dan dat en nu is de 2080TI weer een stuk sneller. Zelfs zonder raytracing is van wat er nu naar buitenkomt de 2080TI 45% sneller dan de voorganger. Wat er wel voornamelijk si gebeurt is dat de prijzen omhoog izjn gegaan en dat heeft meerdere oorzaken, namelijk duurder geheugen, handels embargos en natuurlijk ook de leidende positie.

De wet van moore gaat juist voor een groot deel over de vergroting van chip functionaliteit dus in dat geval kan je dus zeggen dat GPU's zich goed aan de wet van Moore houden.

[Reactie gewijzigd door Sn0wblind op 22 juli 2024 19:10]

Ik zou die 45% even gezouten nemen, zeker nu de launch ook nog eens is uitgesteld door Nvidia.
er zijn voldoende benchmarks gelekt die niet door Nvidia gepushed zijn en de claims lijken toch echt te kloppen en dat in games die helemaal niks met het RTX gebeuren doen.
qua GPU zijn er enorme stappen verzet de laatste 10 jaar en loopt dit nog gestaag door.
De wet v Moore houdt juist in dat de ontwikkeling niet "gestaag" maar telkens met grote stappen gaat. En zo ging het ook in het begin zowel met CPU's als met GPU's (ca iedere 2 jaar een 2 maal zo snelle PC - dat is allang niet meer).
Met GPU's is men later begonnen zodat we daar de afgelopen tien jaar nog vrij veel versnelling vd ontwikkeling hebben gezien (itt CPUs). Maar Inmiddels gaat de ontwikkeling met beide idd "gestaag".

[Reactie gewijzigd door BadRespawn op 22 juli 2024 19:10]

GPUs hebben meer baat gehad bij de procesverbeteringen doordat er meer the paralleliseren is. Een GPU heeft intussen duizenden verwerkingseenheden, terwijl CPUs vaak net 4 cores gebruiken. Vroeger leidden nieuwe procédés nog automatisch tot hogere kloksnelheden, waar CPUs snel door vooruit gingen, maar die tijden zijn allang voorbij.
Ondertussen inderdaad al enige tijd bezig met mijn i7 2600K. Een dikke 6 jaar. Bijna 7 zelfs. Ik zit wel stilaan te kijken naar iets nieuws omwille van de vele ontwikkelingen ondertussen. Met name dan omwille van de nieuwe functionaliteiten op nieuwe chipsets en minder omdat mijn CPU niet meer mee kan.
Nu noem je ook wel een processor... het heeft behoorlijk lang geduurd voordat deze door de latere generaties ingehaald is qua "bang for buck". De mindere modellen uit de Sandy Bridge line zijn een stuk minder goed meegekomen.
Mijn i5 2500k leeft nog steeds voort. Ik werk veel met simulatie en analyse software, dat gaat nog vrij aardig.
Mijn Acer met I7 Sandybridge 2630QM werkt ook nog prima. Wel het eerste jaar moederbord vervangen ivm algemeen chipset probleem. :-)
Draait al op een OC neem ik aan? Ze halen vrijwel allemaal 4.2 - 4.5ghz op hun slofjes. Ik heb tijden op een 3570k gedraaid op op 4.5ghz, die is enkel vervangen omdat ik wat meer threads wou :)
Eerlijk? Op dit moment niet. Ik heb het wel een langere periode (denk eerste 3 jaar) hoger geklokt maar dan weer op stock gezet. Weet niet meer waarom. Ik kan dus eigenlijk nog even verder als ik het terug hoger zet. Misschieen eens tijd voor vrij maken ;)
Dikke koeler erop, dan is het prima te doen. Indien je de andere functies wilt gebruiken van de chips is het uiteraard niet nodig :)
same here. langzaam begin ik eraan te denken om hem wat hoger te gaan klokken, maar dat is dan vooral in de hoop dat ie een keer doorfikt en ik een excuus heb om iets nieuws te halen. Wat een briljant stuk hardware <3
Loop ook nog steeds rond met deze processor! Laatst weer wat mee gekloot en staat nu mooi op 4.5ghz met alle speedsteps en c states aan :D Maximale voltage wat die vraagt ligt rond de 1.300; maar 99% van de tijd komt die niet boven de 1.280V

Laatste tijd wel me GPU geupgrade, want dat is best hard gegaan (ook in zuinigheid), maar voor de CPU echt nog niet nodig atm.
Op GPU vlak ging het idd sneller. Ik heb dat een 2,5 jaar geleden aangepast. Die eerste kaart (HD 6950 2GB) van mijn PC heb ik nog liggen om in andere PC in te steken, want dat werkt eigenlijk nog steeds naar behoren. Het zware werk op een 4K scherm (Dell P2415Q) was helaas iets te veel voor die kaart. Ondertussen dus vervangen en nu zit ik met een R9 290 4GB. Deze kaart gaat nog redelijk mee maar als ik BF5 ga willen spelen, zal het toch moeten vervangen worden
Ondertussen inderdaad al enige tijd bezig met mijn i7 2600K. Een dikke 6 jaar. Bijna 7 zelfs. Ik zit wel stilaan te kijken naar iets nieuws omwille van de vele ontwikkelingen ondertussen. Met name dan omwille van de nieuwe functionaliteiten op nieuwe chipsets en minder omdat mijn CPU niet meer mee kan.
Zelfde hier, gebruik een Intel Core i7-5775C al weer wat jaartjes en ben van plan hem nog wat jaartjes te gebruiken, draait nog steeds lekker snel met een OC naar 4.0GHz, en voltage maar op 1,18v

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 19:10]

Ja de budgetmodellen wel.
Mijn midrange laptop gaat al 10 jaar mee, en mijn highend smartphone zit op 4,5 jaar. Beide kunnen nog best een paar jaartjes mee.
Mijn macbook pro van 2009 draait ook nog steeds, voor league of legends en runescape en wat office dingen is het prima boeren, zelfs nog ruim 70-80 fps mogelijk
Het nadeel is de GPU. Nu kan een CPU gelukkig wel langer mee maar GPU is ander verhaal en die zijn nu wel erg duurder geworden. Toekomst van AMD op gebied van GPU's is een beetje onzeker en nVidia heeft nogal vrij spel,.

En mijn Huawei P8Max heb ik nu 2 jaar en 9 maanden en ben niet echt van plan om te gaan upgraden. En als ik dat wel doe, dan wordt het waarschijnlijk de Nokia 6.1 (2018).
Maar die is prima te vervangen. Mijn i5 2500K uit 2011 met een vorig jaar er in gezette 1060 6GB kan prima meekomen, inclusief QHD resolutie met hoge refreshrates. Ja het kan beter, en zo heel langzaam begint het een beetje te kriebelen om te upgraden, maar hij kan nog best even mee want alles wat ik er op probeer draait nog prima naar mijn smaak.
En dat is dan gaming, als je dat niet doet en geen andere 'zware' applicaties draait, dan kun je inderdaad nog een stuk verder terug voordat een highend systeem uit die tijd het nu niet meer trekt. Wel wil je er dan waarschijnlijk ergens een keer een SSD in gestoken hebben want dat maakt wel echt veel verschil.
Een SSD heb ik niet nodig want ik spendeer geld liever uit aan betere en nieuwe GPU. Mijn CPU is een i7 4770 uit 2014 en Asus DCUII GTX780. Ik ben van plan om te gaan upgraden naar 1080Ti want de 2080Ti is niet het waard voor mij want hecht -0.0 waarde aan ray tracing. En ik doe idd vooral aan gaming.
Gast... heb je überhaupt wel eens met een systeem met een SSD gewerkt? Het hoeft niet gelijk zo'n hele grote te zijn waar al je games op staan, als alleen je Windows en je meest gebruikte progamma's er al op staan dan maakt dat je computer zoveel lekkerder om te gebruiken. En er komen af en toe al aanbiedingen langs dat je voor een paar tientjes al een hebt (ok daar moet je dan wel een tijdje bijvoorbeeld Pepper in de gaten houden, maar nu bv in de pricewatch zie ik ook dat je voor 30€ al een 120 GB thuis hebt).

Zelf heb ik wel een 980 GB SSD er in gezet waar ook mijn games op staan. Zelfs als het niet helpt in de games zelf (en bij sommige games helpt het echt wel) dan vind ik het al een enorme plus dat ik niet meer zo'n brommende HDD in mijn kast heb zitten. Al die systemen met rubbertjes dempen mij toch niet genoeg... heb een tijdje mijn HDD's compleet vrij zwevend aan kledingelastiek opgehangen en dat was ook stil, maar dan moet je weer heel voorzichtig zijn met het verplaatsen van je kast.
Een budget SSD hoeft echt niet zo veel meer te kosten. Kan natuurlijk niet in je portemonnee kijken, maar daar nu nog op beknibbelen is zonde. De snelheid die je haalt tegen minimale kosten ten opzichte van een HDD is enorm. Een Samsung 860 EVO koop je al voor net 60,- Opstarten in een mum van tijd en daarnaast snel laden van games... Ideaal!
Zeg tegen die lokale hardware-boer dat je best bij hem die 1080Ti wil kopen, maar dat hij er dan wel een SSDtje bij moet gooien voor je, dan zal je merken hoe blij je daarvan zult worden!
Iedereen heeft een ssd nodig. 120GB heb je al voor ~€30, minder als je de aanbiedingen in de gaten houdt. Ik heb er 2 ingezet, een met een enkele map genaamd Steam en een andere met alleen Uplay en Origin. Probeer het eens.

Of begin met alleen Windows. Ik heb nog een laptop met hdd, ben te lui om dat ding open te trekken, maar irriteer me iedere keer dood aan het lange wachten bij installaties en starten.
Maar dat komt misschien meer omdat de innovatie omtrent hoe deze apparaten te gebruiken een beetje stil staat? Op een bepaald moment is het goed-genoeg punt bereikt. En wanneer er dan niets nieuws wacht, dan blijt alles hangen.
zit al op 5 jaar met mijn nexus 5 en kan er nog steeds alles mee maar er is 1 probleem en dat is de accu, die wordt nu echt minder.
Mijn PC met core i5 4670k is nu 4 jaar oud en kan nog wel een paar jaar mee.
Die grote performance winsten zie je de laatste 10 jaar ook niet meer, er zijn nog steeds gamers die met een core i5 2500k spelen.

Wat mij ook steeds opvalt is dat het snelle maar kortstondig is want bij een snellere cpu wordt bv het besturingssysteem of andere software ook steeds zwaarder.
Ik ben van mening dat men straks beter de focus op software sneller maken kunnen leggen.
Mja... anno 2018 werk ik met een Core i7-6700HQ van 2015 die nog steeds erg performant is maar toch al 3 jaar achter is, ik merk daar niks van. Dat was 'vroegah' wel anders met drie jaar oude Pentiums of -nog erger- Celerons die na 2 jaar al hopeloos achter waren. Feit dat die Celerons nieuw al niet echt performant waren deed er natuurlijk geen goed aan, ze waren totaal niet toekomstbestendig, ik vraag me af of het bij huidige Celeron processoren nog steeds zo erg is.

[Reactie gewijzigd door PinusRigida op 22 juli 2024 19:10]

ha, ik draai nog redelijk wat dingen op een c2d uit 2009, gaat best aardig.
Smartphone nu wel 4-6 jaar
Zolang de consument "we want Moore" blijft roepen gaat de ontwikkeling der dingen gewoon door. :D
Nou om de consument te blijven overtuigen moeten ze zichzelf verslaan. Als de daadwerkelijke extra performance slechts marginaal beter is dan de vorige editie, zullen ze minder klanten overtuigen om hun nieuwste componenten te kopen...
Dan draait de marketingafdeling gewoon een tandje harder. ;)
Zolang de consument "we want Moore" blijft roepen gaat de ontwikkeling der dingen gewoon door. :D
De ontwikkeling van halfgeleider techniek gaat wel steeds trager - exact het punt van "de wet v Moore vertraagd".
Wellicht tijd voor een opvolger van halfgeleider-techniek. Wat vandaag nog niet is kan morgen komen! ;)
Zolang de wet van Moore voor iedereen dood is, maakt het voor ARM idd niet uit, ze moeten hun concurrenten verslaan, niet een of andere benchmark :)
Dat klinkt me niet als een verhaal van iemand die het niet boeit :D
Ook al blijven we steken op 5nm oid, de markt voor ARM designs zal er niet door veranderen lijkt me. Misschien dat niet ieder apparaat na 2 jaar de vuilnisbak in gaat wanneer er geen snellere versie is?
Het is hooguit nieuws dat ook een honcho dat hardop zegt.
Op fabrikanten na heeft nu toch wel iedereen in de gaten dat de verschillen in prestaties tussen de modeljaren niet groet meer zijn. Een pc in de jaren '90 was na drie jaar echt serieus achter en traag vergeleken met een nieuwe. In echt alle opzichten. Nu kan je een aantal serieuze games nog goed draaien op een i5 van zes jaar oud.
AMD gooit met Zen en Threadripper het aantal cores omhoog, en daarmee het aantal componenten per chip. Daarmee lijkt Moore weer een paar jaartjes mee te gaan, maar het aantal componenten per oppervlakte groeit niet veel meer. De getallen ('14 Nm', '10, Nm') zijn inmiddels ook meer marketing dan indicator van het aantal transistors per oppervlakte.
De winst zit hem tegenwoordig gelukkig ook niet meer in general purpose superchips. De winst zit hem al jaren in specialistische chips en cores die een deelprobleem oplossen. Ooit hadden we geen videokaart. Toen konden we tijdenlang niet zonder videokaart, nu is deze on-die. Maar met specialistische GPUs kunnen we fantastische dingen. Naast GPUs zijn er nu TPUs voor machine learning. De hele SoC ontwikkeling in mobiel is een perfect voorbeeld van de hoeveelheid verschillende systemen die allemaal in een enkele chip geprutst worden. Dat we steeds kleiner gingen was er ook vooral op gericht om het energieverbruik per clock-tick te verlagen. Juist dat blijkt van groot belang in de maatschappij. Daarom zie je dat de huidige topchips het niet zo goed doen in bepaalde single core/standaard benchmarks, maar dat de gebruiker nog steeds veel performance verschil merkt. Wat ook nog eens helpt is dat we via de moderne netwerken toegang hebben tot gigantische arrays van chips.

Wat wel leuk zou zijn is om uit te zoeken hoeveel processing power de gemiddelde persoon gebruikt uitgedrukt in 486 processing equivalenten.
Je kunt ook niet blijven verdubbelen qua snelheid of transistors, want die stijgende lijn gaat logaritmisch omhoog. Je zal altijd op een punt aankomen dat die wet het onmogelijke gaat voorschrijven, zeker binnen een bepaalde periode.

Nee, zoals bijvoorbeeld Ginni Rometty, CEO van IBM zegt: het mensenlijk brein functioneert op 20 Watt, waartegen een supercomputer toch heel wat meer verbruikt. Dus op andere vlakken als energieverbruik, warmte productie en machine learning is nog veel te doen.

Op dit item kan niet meer gereageerd worden.