Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties
Bron: AnandTech

In vier delen gaat AnandTech de toekomst van de processor bespreken; in het eerste deel wordt gekeken of er nog ruimte is voor een processor met één core. Zoals bekend lijkt een processor die draait op 10GHz verder weg dan een aantal jaar geleden. Processors met meerdere cores hebben de toekomst in de ogen van zowel Intel als AMD. Een feit is dat de snelheid waarmee CPU's krachtiger worden, is afgenomen. Tussen 1985 en 1996 groeide de prestaties met gemiddeld 58 procent per jaar, tussen 1996 en 2004 liep dit terug naar 41 procent per jaar. Ook zijn er aanwijzingen dat er sprake is van een steeds grotere afname van de groei.

IntelHiervoor zijn drie redenen aan te geven. De eerste is het opgenomen vermogen; processors zitten dicht tegen wat met normale koeling opgelost kan worden. Ook wordt, met het kleiner worden van het productieproces, de hoeveelheid verloren energie steeds groter. De stroom die lekt door de transistoren wordt groter naarmate zij krimpen. De tweede reden is 'wire delay'. Al komen de snelste transistoren nog niet in de buurt van de maximale snelheid die de draadjes tussen de transistoren aankunnen, er bestaat een praktisch maximum aan wat de draden aan kunnen leveren. De derde reden is de 'memory wall', het verschijnsel dat het verschil tussen de prestaties van een processor en het geheugen steeds groter worden. Op dit moment is de lekkage van transistoren het grootste probleem, en de reden waarom Intel stelt dat één core geen toekomst heeft.

Itanium 2 processor (klein)Ook verwijst Intel echter als tweede reden voor de stap naar meerdere cores, naar de concurrentie. Dit is volgens AnandTech geen argument. De prestaties van een serverprocessor, zoals de Niagra van Sun, is in een single thread op het niveau van een Pentium III. De baten van meerdere threads voor de desktop zijn veel kleiner dan voor een server. Technieken zoals strained sillicon, hebben al een flink gedeelte van de lekkage op weten te lossen; zonder zou de Pentium 4 minstens 250 Watt verstoken. 'Slapende' transistoren kunnen veel lekkage schelen, en in de toekomst kunnen 'high k'-materialen volgens Intel ook lekkage voorkomen. Het probleem verdwijnt hier niet door en zal op de achtergrond altijd een belemmerende factor blijven. De 'wire delay' is door Intel en AMD beperkt gehouden door koper te gebruiken in plaats van aluminium; ook een goed ontwerp kan veel schelen.

Wat is er dan fout gegaan met de Pentium 4 dat deze de 10GHz nooit zal bereiken? Het komt erop neer dat het Netburst-idee niet slecht was, maar dat de manier waarop Intel de 'double pumped'-Arithmetic and Logical Unit implementeerde erg veel energie vereist om alle berekeningen zo snel te kunnen doen. Dit probleem wordt echter niet opgelost door meerdere cores te gaan gebruiken, maar alleen maar verschoven. Processors met erg lange pipelines verbruiken, op de manier die Intel in de Prescott heeft gebruikt, nu eenmaal erg veel energie. Dit zegt echter weinig over de noodzaak tot 'dual core'.

Moderatie-faq Wijzig weergave

Reacties (82)

En natuurlijk is de Pentium een processor met veel ballast uit het verleden. Hij is nog steeds gebaseerd op (lees: moet zich naar buiten toe voordoen als) een 8086, een CPU die niet meer dan 1024KB aankan.

Wat zou het heerlijk zijn als Intel eindelijk eens met een echt nieuw (van de grond af) ontworpen CPU zou komen.
Wat zou het heerlijk zijn als Intel eindelijk eens met een echt nieuw (van de grond af) ontworpen CPU zou komen.

Dit hebben ze al gedaan. De Itanium is zover ik weet helemaal vanuit het niets gebouwd. Om die reden is er ook geen native ondersteuning voor X86. Wel is het zo dat de ervaring die de mensen bij Intel hadden bij hun Pentiums, dit meegenomen hebben in het ontwerp van de Itnanium: onvoorkomelijk.

Ik denk persoonlijk dat onderzoekers ook eens flink moeten gaan investeren. Het lijkt mij niet de bedoeling dat we straks lopen met laptops met een N2 vat ernaast. Betere chip-technieken zullen uiteindelijk volgens mij de doorslag moeten geven.

Dat de ontwikkelingscurve de laatste jaren niet meer zo hoog is kun je ook terug zien in de software. Veel oudere software wil men nu ook nog draaien. De innovatie in software is ook niet echt gestegen. Innovatievere software kan namelijk ook meer processorkracht vragen.
Alhoewel men qua software al wat meer aan het innoveren is: denk maar aan Avalon (Aero).

Er wordt altijd geopperd om meerdere cores te draaien. Hier zitten volgens mij ook haken en ogen aan. Okay, het ontwerp bepaald sterk waar de warmte/prestatie verhouding ligt.
Maar als je meerdere cores draait heb je vanzelfsprekend ook meerdere transistoren die ook weer warmte produceren. Als je het mij vraagt blijf het een probleem.

Meerdere cores is dan volgens mij ook maar een tijdelijke oplossing. Ik denk persoonlijk dat nieuwe uit de hoek van de natuurwetenschap moet komen: nieuwe manier van processor's bakken..etc...etc...
Ik denk persoonlijk dat onderzoekers ook eens flink moeten gaan investeren. Het lijkt mij niet de bedoeling dat we straks lopen met laptops met een N2 vat ernaast. Betere chip-technieken zullen uiteindelijk volgens mij de doorslag moeten geven.
Dat probleem speelde 25 jaar geleden ook. Toen produceerden mainframes en mini's net zoveel warmte als microprocessoren nu. En zie, een mainframe is nu opeens luchtgekoeld, en mini's al jaren. Het grote probleem zit hem in de terugverdientijd. Destijds was de winstmarge op een fabriek zo hoog, dat het niet uitmaakte dat er zwaar geinvesteerd moest worden in een compleet nieuwe techniek. Nu is dat anders. De grote chipbakkers zijn nu in een rat-race verwikkeld, en verliezen daarmee enorme hoeveelheden geld. Oftwel de rek is er een beetje uit om 'zomaar' een compleet nieuwe, incompatible, techniek te gaan exploreren. Nu is alles nog een evolutionair proces, en geen revolutionaire zoals noodzakelijk gaat zijn. Maar ik denk dat we over een tijdje fab's gaan zien gebaseerd op compleet nieuwe technieken zoals bijvoorbeeld nano-tubes of supergeleiding bij hoge temperaturen.

[quote]Dat de ontwikkelingscurve de laatste jaren niet meer zo hoog is kun je ook terug zien in de software. Veel oudere software wil men nu ook nog draaien. De innovatie in software is ook niet echt gestegen. Innovatievere software kan namelijk ook meer processorkracht vragen.
Alhoewel men qua software al wat meer aan het innoveren is: denk maar aan Avalon (Aero).{/quote]
Dat is een enorm probleem. Ik sprak laatst een HTS computerkunde student. Deze wist niets af van elemtaire zaken als sorteeralgorithmen, heaps, stacks en zo. Alleen java en dergelijke talen werden volgens hem nog maar gedoceerd. Dat is een enorm probleem. Als de wetenschappers van morgen niet meer de basis-kennis hebben, gaat alles enorm de verkeerde kant op.

Als het niet zo is dat er geen aandacht meer is voor 'klassieke' computerscience laat mij het dan weten, dat scheelt een hoop misverstanden.
Basiskennis van bijvoorbleed orde problemen (is m'n algorithme n,n^2 of 2^n complex of kan het beter) leidt bijvoorbeeldt direct tot efficientere software maar het is niet noodzakelijk.
Helaas heb ik dat ook gezien op mijn opleiding (toen ik nog studeerde; ben al weer enkele jaren afgestudeerd). Ik heb deel uitgemaakt van de laatste groep die nog de low-level vakken kreeg (operating systems, digitale techniek, C/C++). De huidige studenten krijgen alle practika in java en er wordt geen aandacht meer geschonken aan echte low-level zaken.

Wel (en dat is goed) ligt er nog steeds een redelijk accent op algorithmes en hun efficiency. De rest is bij te leren op het moment dat een student daadwerkelijk gaat werken (en zo hoef ik me minder zorgen te maken over de generaties die 'na' mij komen :) )
Ik sprak laatst een HTS computerkunde student. Deze wist niets af van elemtaire zaken als sorteeralgorithmen, heaps, stacks en zo. Alleen java en dergelijke talen werden volgens hem nog maar gedoceerd. Dat is een enorm probleem. Als de wetenschappers van morgen niet meer de basis-kennis hebben, gaat alles enorm de verkeerde kant op.
Op het HBO word je niet opgeleid tot wetenschapper, daarvoor moet je bij universiteit zijn. Neemt niet weg dat ze idd wel wat horen af te weten van algoritmes en dergelijke :)
Dat is misschien bij jou oude opleiding zo, maar niet overal. Ik heb vorig jaar nog Assembly moeten programmeren, hexadecimaal hoofdrekenen en meer van die low-level dingen die jij zo stoer vind. Dit jaar krijg dit jaar operating systems, naast de standaard dosis Java met algoritmen en patronen.
Als de wetenschappers van morgen niet meer de basis-kennis hebben, gaat alles enorm de verkeerde kant op.
Architecten van gebouwen hoeven toch ook geen quantum fysica te kennen?
Waarom zou dat in de informatica wel zo zijn?
Je kunt niet alles van alles weten.
Avalon of Aero innovatief? :r

Diefstal heette dat meen ik. Dat systeem is bij elkaar gejat van onder andere Apple met hun Mac OSX, Sun met hun Looking Glass en soortgelijken.
Dat noem ik niet innovatief.
Moderne x86 CPU's lijken tegenwoordig meer op een emulator dan op een CPU hoor.

Inwendig hebben de nieuwste Pentiums en AMD's een geheel eigen ontwerp dat niets op de oude x86 lijkt, enkel door een soort vertaalslag dat als een schilletje om de core heen ligt kan het ding x86 praten.

Zoals het artikel aangeeft zijn de problemen vooral terug te brengen op de communicatie met geheugen en de oplossingen die hiervoor zijn bedacht, het is dan ook niet een probleem dat uniek is voor x86 CPU's, ook Power, ARM en andere CPU's hebben hiermee te kampen.
Itanium anyone?
Itanium anyone?
eerder itanium no-one, niemand wil die dingen hebben omdat ze traag zijn (half opgelost door een enorme hoeveelheid L2). Microsoft gaat 't niet eens ondersteunen. (alleen x86-64)
En als Microsoft het niet ondersteund is het dus slecht?
De itanium is zo traag omdat men probeerd software derop te draaien die er niet voor gemaakt is. De itanium is een supersnel beest mits deze goede, lees optimized, software draait. Microsoft ondersteund het niet in win64 omdat deze proc daar ook totaal niet voor bedoeld is.
Nee, dat niet, maar 90% van alle (thuis) gebruikers gebruikt windows, en willen dus ook een PC hebben waarop windows draait!!!

't probleem van een hele nieuwe cpu is dat er een totaal nieuw OS moet komen dat dit ondersteunt. Maar dat is een erg rissicovol project dan.
De Itanium is ook geen CPU voor thuisgebruikers...
Maar wat wel belangrijk is om te weten, is dat als die 8086 structuur vervangen wordt, zo goed als ALLE software er ook naar moet worden aangepast... en das economisch dan weer niet rendabel. Anders hadden we waarschijnlijk al lang geen 8086 meer gehad denk ik...
En als Microsoft het niet ondersteund is het dus slecht?
Nee, maar dan koopt toch nog steeds niemand het.

Eén van de problemen is dat de programmeurs die ooit fatsoenlijke code voor de Itanium hadden kunnen schrijven inmiddels allemaal uit noodzaak omgeschoold zijn om x86/Win32/.NET code te schrijven. Want anders verdienen ze simpelweg geen cent of anders maakt Microsoft die bedrijfjes gewoon kapot.

En dus zitten ze met een heel legioen programmeurs die alleen maar suboptimale code kunnen schrijven voor het Itanium platform. En dus komt het Itanium platform amper van de grond.
@aval0ne:
Z'n nick is RobLemmens.
Iedereen doet wel eens wat fout, :P dus.
Reblemmens: jezus christus man, hoe kan nu ooit "men probeert" op een D eindigen? Hoe kom je er toch bij om "Microsoft ondersteunt" met een D af te sluiten. Het kan gewoon niet, het is de meest eenvoudige regel die onze taal rijk is. |:(
Het staat echt zo ongelooflijk dom, dom, dom ...
OFF:
@aval0ne:
Knap van je, zo'n talenknobbel, maar laat JC er maar buiten wat mij betreft enne, get a life...
Kijk eerst maar eens naar je eigen tikvouten zie opmerking Major 7).

Kom morgen OGTENT maar op mijn bureau, dan praten we over je nieuwe functie als Deputy Officer Maintenance :+
dan kom je bij het beroemde compatibiliteits probleem...

Veel mensen willen als ze een nieuwe cpu aanschaffen nog wel oudere programma's blijven gebruiken...
AMD64(en dus EMT64 ook) komt al dichter in de beurt van wat je wilt.
als de software 64bit is doet de athlon64;s zich voor als een athlon64, met alle extra's die dat brengt (want naast 64bit voegt AMD64 ook nog de nodige tweaks toe om de grote bottleneks in x86 op te lossen, zoals de bekende registers.
het zal alleen nog fff duren voor de compilers daar even efficient met om kunnen gaan als de huidige compilers goed zijn in het inpassen van de software binnen te de beperkingen van x86.
maar ook dat zoals je al weet leverd geen wonderbaarlijke prestatie winst op, net als dat de itanium structuur dat ook niet doet.
nieuw is het niet, maar de PPC is wel een alternatief Net zo snel (hoewel je in de benchmarks altijd wel verschillen zowel naar de een als de ander ziet) en die wordt minder heet als een P4. Hoewel die processor wel degelijk tegen hetzelfde euvel van lekstroom aanloopt. Tot 2GHz gaat het aardig, maar de 2,5GHz heeft van apple waterkoeling gekregen, zie http://www.tweakers.net/nieuws/35269/?highlight=powerpc .

Deze IBM-chip wordt in vele computers gebruikt (apple, as/400 en volgens mij wordt de basis van de PPC ook in de z/Series gebruikt), alleen is er geen MS-ondersteuning voor.
En die ondersteuning komt er ook niet snel, denk ik.

Tsja en we hadden nog een ander alternatief: de Alpha processor, maar daar is de stekker uit getrokken door DEC (HP intussen), zie http://www.tweakers.net/nieuws/33926/?highlight=Alpha+processor .
Intel heeft genoeg echt nieuw ontworpen processoren gemaakt hoor. Alleen wil Microsoft daar geen OS voor schrijven. En dan koopt niemand ze.
uhm, eerder een 386. Wat de geheugengrens daarvan is weet ik eerlijk gezegd niet.
uhm, eerder een 386. Wat de geheugengrens daarvan is weet ik eerlijk gezegd niet.
Nee hoor, ook apps voor een 8086 werken nog gewoon op een P4.
Wat bedoel je met geheugengrens?
Physical geheugen? Virtual? Per-process?
Het is in ieder geval niet 2^63.
2^63 oftwel 9223372036854775808 bytes.
Waarom maken ze de cpu's niet gewoon iets groter?
In plaats van 5x5 cm bijvoorbeeld 7x7. Dan is het oppervlak ongeveer twee keer zo groot en beter te koelen + meer ruimte om meer gigaherzen te halen.

Of denk ik nu dom?
De propagatie van elektrische signalen gaat niet oneindig snel. Zelfs licht gaat maar 300.000 km/s. Het duurt nu al enkele clockcycles om een signaal van de ene kant naar de andere kant van de chip te krijgen. (Door intel slim "deep pipelining" genoemd, betekend alleen maar dat hij trager is.)

Hoe groter de chip, hoe langzamer hij wordt.

Je zou eventueel kunnen denken aan de hoogte in werken om afstanden zo klein mogelijk te houden, maar dan worden productietechnieken wel erg duur, wordt warmte afvoeren erg moeilijk, enz. (hoewel ze misschien nano-warmtepompje op de chip zouden kunnen maken?)
Da's geen slecht idee. Ipv 5x5 eentje van 3x3x3 of zo, meer oppervlak voor warmteafvoer, kleinere processor, mogelijk zelfs kortere lijntjes. Waarom heeft nog nooit iemand anders dit idee uitgewerkt!
Zijn ze al een tijdje mee aan het experimenteren...
Maar zoals ik al zeg zijn de productiekosten erg hoog. Er moeten veeeel meer maskers komen. Ik neem aan dat het structureel ook niet echt stevig wordt... Een heatsink te hard aandraaien zal direct een core crush als gevolg hebben.

En natuurlijk warmte afvoer...

Een bolvorm zou overigens veel beter zijn. Aan de buitenkant de processingen en de interconnect in het midden... net als in de hersenen. Zo worden de afstanden nergens te groot. Maar zie dat maar eens te maken :P
In het geval van een bol is warmte afvoer juist het moeilijkst . . . Je kunt immers alleen aan het oppervlak koelen . . . . De inhoud/oppervlakte verdeling van een bol is wat koeling betreft de meest onhandige vorm.
lees mijn post: interconnect in het midden...
interconnect wordt nauwelijks warm en heeft nauwelijks voeding nodig (behalve als het buffered is)
processing aan de buitenkant precies waar gekoeld kan worden.

Maar genoeg hierover, is structureel niet realiseerbaar...
is structureel niet realiseerbaar...
ik zou het graag willen houden op: is structureel nog niet realiseerbaar. voor je het weet staat er namelijk weer een nieuwe nieuwstopic hier op tweakers
CPUs zijn inderdaad al razendsnel. Ter illustratie:

Bij 10 Ghz en 300000 km/s legt een foton of radiogolf in vacuum per cycle slechts 30 mm af.

By 4 Ghz dus 75mm. Dat is meteen de reden dat een heel moederbord van 300mm dus nooit op 4Ghz zal kunnen werken.

Spanning wordt in een geleider trouwens aanzienlijk langzamer doorgegeven dan de lichtsnelheid. Wel vele tientalle km per seconden maar zeker geen 200km/s. Daarom beloven chips die via radiogolven of optische fibers met elkaar communiceren de beperkingen van electrische verbindingen enigszins weg te nemen.

Electronen zelf in een geleider bewegen erg traag soms maar centimeters per seconde. De snelheid waarmee ze spanning opbouwen is de snelheid die relevant is. Dat moet je als volgt zien. Stel je duwt met 1 cm/s tegen een 10 km lange trein. Als de trein niet vervormt heb je na 1 seconde 10 km verder op ook de triein een cm opgeschoven. Het signaal is dus met 10km/s gegaan. Een electronen hoeft maar om en nabij een nanometer op te schuiven (met bv 1 cm/s) om de spanning met 50km/s te laten reizen.

Offtopic:
Wat leuk is om je te realiseren is dat met de huidige CPUs meerdere berekeningen plaatsvinden in de tijd die een foton nodig heeft om van je beeldscherm naar je oog te stralen.
Omdat het uiteindelijk niet om de processor gaat maar om de core. Het voordeel van een kleine core is het drukken van de kostprijs van silicium. Grotere cores resulteert in duurdere processors. Ook moet het 'verkeer' in de processor zelf een langere weg afleggen wat niet ten goede zal komen van de snelheid.

Het 'hotspots-idee' zoals beschreven in het artikel los je er niet mee op want die zullen ook blijven waardoor je evengoed aangewezen bent op goede koeling en dat is ook niet wenselijk (goede koeling wel maar geen waterkoeling e.d.).

Vroeger waren de cores wel groter maar toen was een processor ook een stuk trager en waren de transistors groter.

Het elimineren van lekstroom is al een aardige oplossing allen valt dit nooit helemaal uit te roeien.
Misschien wordt het tijd dat AMD en Intel tesamen met alle andere CPU fabrikanten een nieuwe standaart afspreken voor CPU's.

Ik bedoel niet dat alle oude software ineens overbodig zou worden, dat niet maar een nieuwe standaart, architectuur, alles nieuw maar wel met ingebouwde x86 ondersteuning.

Misschien een 2de kleinere core die de x86 instrcuties/ dingen doet. Aangezien we tochal aan de Dual cores zitten zou het misschien niet moeillijk zijn gewoon een nieuwe core te maken (dat is wel moeillijk) en daaraan een x86 core te linken die welliswaar zuinig is en minder krachtig maar die toch de x86 applicaties kan verzorgen.

Dit lijkt me in theorie best mogelijk. Je zou "gewoon" een Pentium M of AMD mobile of welke andere mobile/energiezuinige x86 CPU moeten aanpassen om alle x86 instructies/applicaties voor zijn rekening te nemen.

Je kan misschien de x86 core intigreren in de next gen CPU zodat de next geen eerst controlleert wat voor instructie het is , en deze dan desgewenst doorstuurt naar zijn eigen verwerkignseenheid of doorstuurt naar de x86 verwerkingseenheid.

Toegeven, de x86 applicates zouden minder snel lopen en minder performant maar ze zouden werken en het zou een revolutie betekenen op vlak van CPU ontwerp en algemeen PC ontwerp.

Dit levert veel meer en betere mogelijkheden tot vernieuwing en mettertijd komen er toch allemaal "next gen" programmas uit die enkel next gen CPU nodig hebben.

Je zou dit bijvoorbeeld kunnen doen door eerst de standaart te ontwerpen en de software makers samples te geven van de next gen CPU's en die neem een dik jaar geven vooraleer de eigenlijke CPU's zelf op de markt komen.

Dit zou betekenen dat tegen de tijd dat de CPU's geoptimaliseerd zijn en deftig afgewerkt/in voorraad dat de software ook redelijk af zou zijn.
Niet heel innovatief, want: De Itanium heeft een x86-core.
Problemen zijn:
1 hij is traag (Itanium draait bv op 1500 Mhz en is daar zelf snel, maar x86 draait dan ook op 1500 Mhz), je koopt geen dure proc om trager dan een goedkope prog te kunnen draaien.
2 software emulatie blijkt vaak zelfs sneller.
De Itanium heeft helemaal géén x86 core. Alle x86 applicaties die draaien op een Itanium zijn geemuleerd en waren vooral voorheen érg traag. Nog niet lang geleden is er door microsoft/intel een emulater uitgebracht die relatief gezien best snel was (iig veel sneller dan voorgaande emulators), maar ze worden nog steeds omgezet naar IA-64 waardoor de instructies alsnog uitgevoerd worden door de Itanium core itself, en niet door een interne x86 core.
Hier komt nog bij dat het "distribueren" van het kloksignaal en stroom over de gehele CPU core meer en meer schakelingen vereist naarmate de complexiteit en kloksnelheid omhoog gaat.

De dooddoener is hier dan "verminderde meeropbrengst". Nu al is meer dan 30% van de schakelingen van een P4 nodig voor distributie van vermogen en kloktik. Architecturen die, single core, nog complexer worden en sneller tikken, zijn dan relatief nog meer core oppervlak kwijt aan logistiek in plaats van rekenen.
Dit klinkt nogal raar. Ik geef je vooralsnog geen ongelijk maar heb je iets van een bron om dit te bevestigen? Lijkt me namelijk erg onlogisch daar een klokpuls alleen maar naar de plaats van bestemming hoeft te worden gebracht, en dit kan volgens mij gewoon met een koperen 'draadje'. Daar heb je iig geen transistors voor nodig, wat hoeft er ten slotte geschakeld te worden aan zo'n signaal? en zeker geen 30% wat neerkomt op zo'n 33 miljoen transistors (uitgaande van de prescott met z'n 110miljoen transistors). Lijkt mij erg onwaarschijnlijk.
Architecturen die, single core, nog complexer worden en sneller tikken, zijn dan relatief nog meer core oppervlak kwijt aan logistiek in plaats van rekenen.
Tja wat is rekenen? Als je echt de execute ALU's bedoelt (FPU ed) als 'rekenen' en alle andere zeut zoals data prefetchers (voor de bekende micro-ops), branch predictors en eventueel nog het cache rekent onder de niet-rekenende transistors dan zijn dat idd transistors die alleen maar het kloksignaal vervoeren. Maar dat wil nog niet zeggen dat deze transistors overbodig zijn en slechts distributeur zijn. Zonder deze andere logica werken de volgens jou 'echte reken ALU's' helemaal niet meer. Dus als je dat bedoelt, dan zit je met je interpretatie toch verkeerd.

Maargoed, ik zeg al je zou best gelijk kunnen hebben al lijkt het me erg onwaarschijnlijk. Bron?
Die eeuwige strijd over meer processor-power, waar gebruiken we die nu voor. Wordt niet eens dat de software wat beter omgaat met al dit geweld.

Volgens mij zijn de meeste ontwikkelaars erg lacks geworden en ontwikkelen ze maar wat raak, onder het mom van "gaat het te langzaam", koop maar een nieuwe PC.
Misschien eindelijk een duw voorwaarts voor een doorbraak van watercooling of stikstofcooling?
Waterkoeling is slechts een verplaatsing van het probleem, Voor servers kan ik me wel voorstellen dat je een enorme rekenkracht nodig kan hebben. Voor thuisgebruik heb je geen 4GHz nodig (nog niet iig). Waarom zouden ze dan niet eens tijd steken in het zuiniger maken van de chips? Via heeft al bewezen dat het heel goed kan, nu de rest nog...
het ging er juist om om de prestatie groei weer een nieuwe impuls te geven.
als we alle tijd stoppen in het zuiniger maken van chips komt daar natuurlijk niks van terecht.(via loops ook niet voor niks flink achter op het gebied van prestaties)
Waarom is groei een verplichting?

Bekijk het vanaf de andere kant, de groei in de tijd van de PII was gruwelijk hard nodig, mensen wilden sneller en dat was ook nodig omdat nieuwe applicaties erom vroegen. Nu zijn we op een moment aangekomen dat een pc zo'n beetje alles kan draaien en dat het enkel nog voor de grote arbeidsintensieve (films encoden) bezigheden nodig is om even te wachten.

90% van de mensen zal echter nooit langer dan 30 seconden moeten wachten voordat een bewerking op een hedendaags systeem klaar is. Hierdoor is men dus minder op zoek naar meer snelheid en daardoor valt er ook minder te verdienen aan een hogere snelheid.

Op zulke momenten gaan bedrijven hun strategie aanpassen en kiest men voor dingen die mensen meer aanspreken zoals laag opgenomen vermogen (i.v.m. geluidsproductie). Het feit dat de cpu's niet meer zo hard groeien komt dus (mijns inziens) gewoon omdat we op een plaats aangekomen zijn waarop een heel klein gedeelte van de gebruikers nog maar extra snelheid wil.
30 seconden wacht is nog te lang... 250 milliseconden wordt nog net ervaren als 'onmiddelijk' en alles wat langer duurt zal dus (wat de gebruiker betreft) altijd sneller mogen.
Zodra cpu-kracht beschikbaar is worden er applikaties geschreven die daar gebruik van maken, zij het in eerste instantie langzaam.

Als we op P2-233 MHz waren blijven steken, hadden we nooit de huidige stand van zaken m.b.t. DivX compressie gehad.

Straks komt HD video en dan wil je misschien H.264 in HD formaat real-time kunnen decoderen. En als dat kan, wil je 't misschien weer in een redelijke tijd kunnen encoderen.

Maar inderdaad, voor zaken als wordprocessing hebben we inmiddels wel zeer ruim voldoende rekenkracht. Of je moet bijvoorbeeld de real-time grammaticale analyse zeer sterk willen verbeteren.
Er is nog steeds een grote groep gebruikers die steeds mooiere games willen. Hiervoor zal de snelheid wel moeten groeien anders kunnen we ook wel stoppen bij Directx9.
Groei is wel een verplichting.

Als de processoren niet steeds sneller worden, zal iedereen pas een nieuwe processor kopen wanneer zijn oude kapot gaat. En een processor gaat wel een tiental jaartjes mee.

Het alternatief is dat ze net als bij gloeilampen de processor stiekem kunstmatig verouderen voordat ze hem verkopen. Maar dat kan niet bij processoren (of iig. niet makkelijk). De kans dat hij bij het verouderingsproces al direkt kapot gaat is te groot en dan verliezen ze geld.

Een andere optie is om de processor zichzelf na een random tijd van 3 tot 5 jaar kapot te laten gaan en dan het verhaaltje rond verspreiden dat dat normaal is met die snelle technieken. Het probleem is echter dat je dan met de volledige branche moet afspreken dat je dat doet. Anders loop je het risico dat je concurrent je stiekeme plannetje openbaar maakt en je daarmee zo zwart maakt dat niemand je processoren meer koopt.

Ik hoef denk ik niet op de illegaliteit van dit soort onderlinge afspraken te wijzen :).

Het beste wat ze kunnen doen is de processoren op andere manieren sneller maken. En dat is van levensbelang. De markt is simpelweg niet groot genoeg voor iedereen als mensen pas een nieuwe processor gaan kopen als hun oude kapot gaat.
stikstof koeling is zowiso geen optie.
of je met continu grote bussen vloeibare stikstof in huis halen.

maar ook waterkoeling lost het probleem van de gigantische stroomrekeing niet op natuurlijk.
Ik vind dit geen oplossing eigenlijk. De oplossing voor inbraken is ook niet het standaard bepantseren van huizen. Het helpt misschien wel, maar of het een wenselijke ontwikkeling is is een tweede.
Mijn gedachte is RISC proscessors. Da's ook uitstel van executie maar die processors hebben nog niet de kloksnelheid van P4, AMD64 e.d.
Alle x86 procs vanaf de PII maken gebruik van de RISC architectuur ;)
Mijn gedachten gaan meer uit naar asynchrone procs. Weg met de kloksnelheid. Hierdoor werkt een chip simpelweg zo hard als hij kan en gebruiken ongebruikte transistors geen stroom. Het probleem is alleen dat de ontwerpen een aardig stukje complexer zijn :(
bedankt voor het wijzen op m'n onwetendheid. Hoorde ook over niet alles te regelen met hardware maar een deel in je besturingssysteem te stoppen. Hoef je niet zo druk te maken hoge vernieuwingsfrequentie van processors. Een beetje extra rekenkracht in een processor is dan weer wel nodig. Deze is dan naar eigen inzicht toe te passen.
Krachtiger worden betekent toch niet automatisch hogere Ghz. ?
Ze kunnen toch ook kijken naar IPC daarmee valt toch ook veel winst te behalen zonder dat clocksnelheid omhoog moet?

En daarbij een betere optimalisatie van software kan ook een flinke snelheidsboost betekenen. Software wordt nu door een snelle groei van proc. snelheid steeds minder efficient geschreven, dit kan een stuk beter.
Ze kunnen toch ook kijken naar IPC daarmee valt toch ook veel winst te behalen zonder dat clocksnelheid omhoog moet?
Nee. Door dependencies is het erg lastig te IPC te verhogen.
Ik denk dat de Cell processor een mooi voorbeeld is van hoe het beter kan.

En x86 moet toch echt dood, ik heb het vaker gezegd, maar hier is het ook weer echt nodig, x86 weg = 50% performance er zo in en keer bij, en dan hebben we de shcaden van de laatste 3 jaar toch al wel ingehaald.

Cell heeft veel RISC eigenschappen als ik alles goed gelezen had.

P4 is trouwens zowat het omgekeerde van risc, en de Prescott heeft dat alleen maar nog sterker

AMD is vooral bezig geweest zijn K7 in vreemde bochten te wurmen om om de x86's vertragende elementen heen te komen, op de k8 zijn ze nog verder gegaan, er zit een unit op speciaal om page table look-ups te versnellen, of liever gezegd, om ze tegen te gaan.....

Nog eenmaal dan wat intressante links over dit onderwerp
Enjoy:

http://arstechnica.com/articles/paedia/cpu/p4andg4e.ars
http://arstechnica.com/articles/paedia/cpu/p4andg4e2.ars
http://arstechnica.com/articles/paedia/cpu/pentium-m.ars
http://arstechnica.com/articles/paedia/cpu/pentium-1.ars
http://arstechnica.com/articles/paedia/cpu/pentium-2.ars
http://arstechnica.com/articles/paedia/cpu/intel-future.ars
http://arstechnica.com/articles/paedia/cpu/POWER5.ars
http://arstechnica.com/articles/paedia/cpu/amd-hammer-1.ars
http://arstechnica.com/articles/paedia/cpu/cell-1.ars
http://arstechnica.com/articles/paedia/cpu/cell-2.ars
P4 is trouwens zowat het omgekeerde van risc, en de Prescott heeft dat alleen maar nog sterker
De pentium 4 komt mss met z'n lange gepipelinede instructie executie nogal CISC over, maar toch fungeerd deze zoals een RISC processor, ook de prescott. Alle x86 instructies (op enkele veelvoorkomende x86 instructies na) worden omgezet naar RISC instructies en vervolgens ook zo uitgevoerd. RISC betekend vooral dat je meer parallel kan werken en de Pentium 4 werkt op veel momenten parallel (meerdere FPU's enz..), dat had met CISC (x86) dus niet gekund. Zowat alle moderne processors (als sinds de Pentium pro) zetten CISC (x86) om naar RISC, dus nu ook de Pentium 4.
Is dat uiteindelijk niet net zoiets als wat NVidia doet met SLI? Een beetje flauw naar mijn mening.... je kan wel steeds meer chips gaan bundelen om meer power te krijgen, maar dat kan denk ik ook niet oneindig doorgaan. Waarschijnlijk onstaan er dan weer andere problemen. Als dan een limiet is gevonden aan het maximum aantal chips moet je toch de individuele chips weer sneller maken. 't Lijkt een beetje dat een multi chip opstelling zowel voor CPU's als GPU's een methode is om tijd te winnen om een oplossing te vinden om individuele chips sneller te maken.... ben benieuwd hoe jullie hierover denken?
Die trend zie ik inderdaad ook..

Er komen steeds meer 'multi' chip oplossingen, zowel op cpu alsook op gpu gebied.... Gewoon omdat een single chip niet meer te houden is mbt temperatuurontwikkeling. Geen wonder dat Intel versnelt met zijn dual core cpu's komt. De Prescott zoals ie nu is is gewoon niet meer te handhaven. AMD heeft wat dat betreft nog iets meer speelruimte, maar op een gegeven moment houdt dat ook op.

Waar ik echter wel bang voor ben is dat met dit 'tijdrekken' de technologische voortgang niet gediend is. Op een gegeven moment is voortgang ook met mu;ti chip oplossingen niet meer mogelijk. Dan zal er toch echt iets anders verzonnen moeten worden, en ik hoop toch echt dat daar nu al stevig over nagedacht wordt, anders onstaat er binnen afzienbare tijd een enorm probleem.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True