Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 27 reacties
Bron: Gamecenter.com

Wekko tipte ons over dit artikel waarin de toekomst van de processor beschreven wordt voor de lange termijn. Volgens Gamecenter zouden we, als alles meezit, in 2008 kunnen beschikken over een processor die op 20 GHz draait. Nu is bekend dat Intel in het jaar 2003 een processor wil hebben die op meer dan 3 GHz draait (Northwood) dus er is nog veel werk te doen....
Best wel interessante stuff, dus hier heb je vast een hap:

If certain technological hurdles can be cleared, processors running at a mind-boggling 20 gigahertz could be commercially available in the next eight years. But what does that mean for the companies producing the chips? Mastering lots of arcane technology and lots of headaches for the research department. It's not just about transistors anymore: Tantalum oxide chip gates, extreme ultraviolet (EUV) lithography, new microarchitecture, and better insulation are some of the developments that will come to the microprocessor arena in the next decade so that chips can continue to increase in performance according to Moore's law, Intel researchers said this week.

Lees meer over

Gerelateerde content

Moderatie-faq Wijzig weergave

Reacties (27)

Op lange termijn lijkt me dit inderdaad haalbaar. Tis alleen de vraag of t ook echt makkelijk gaat lukken! gok er niet op! maar ja in 8 jaar tijd kan er een hoop gebeuren! Als het inderdaad zo is dan is dat natuurlijk wel zwaar stoer enzo :) Kun je na gaan wat wel over 30jaar hebben! }> dan hebben we echt vette dingen staan!!!!

Maar ach das toekomstpraat.... :'(
Over acht jaar zit je aan het einde van het electro-technische verhaal. Er is een max, bij de grootte van de schakelingen, de snelheid, de warmteopwekking en nog zo wat random grenzen die ze tegen gaan komen. Bereid je er dus maar vast op voor dat de nieuwe technologie komt uit de hoek van de bio-chemie, de hersenfysiologie en de theoretische natuurkunde.
BioChemie als het gaat om beter basismateriaal dan zand.
Natuurkunde om hier berekeningen en schakelingen mee te maken (of gewoon gelijk met quarks (sp?) uit de quatummechanica)
Persoonlijk ben ik het meest gecharmeerd van de hersenfysiologie. Hier wordt, in combinatie met cognitief wetenschappelijk onderzoek uitgezocht hoe de informatie verwerking in de hersenen plaatsvind. Aangezien dat toch de weg te gaan is, verwacht ik daaruit de grootste processor-architectonische verniewingen. Eerst worden de informatieverwerkingsmethodes toegepast op de huidige technologie, totdat die tegen z'n beperkingen loopt en te langzaam word. Daarna zullen ze meer en meer ook fysiek technieken uit die richting toe gaan passen.
Een nieuw idee is om de transistor (twee pootjes waar een stroompje door loopt en een derde die dat stroompje beinvloed) te vervormen naar een meerpotig apparaatje dat meerdere andere transistortjes kan beinvloeden. En dat gaat dan alweer een stukje meer op het idee achter een zenuwcel lijken...
20 Ghz ?? Sorry, dat gaat <big>NIET</big> lukken.

Even wat natuurkunde:

Atoomstraal van een metaal ligt zo rond de 0.15 nm. 10 atomen dikke verbindingen zijn het absolute minimum voor goed transport voor signalen. Dat is dus 1,5 nm.

Nu zit men op 0.18 micron, ofwel 180 nm. Binnen 10 jaar zit men, volgens de wet van More op 1.4 nm. Dan gaat de stelling "iedere 18 maanden verdubbelt het aantal schakelingen per oppervlak" niet meer op.

Misschien toch ?? dan zit je 5 jaar later alsnog aan de magische grens van de atoomstraal zelf. Kleiner kan je écht niet gaan.

Voordat het zover is moet er eerst iets nieuws gevonden worden om mee te schakelen. Silicium kan niet veel sneller schakelen dan 2 tot 3 Ghz. 20 Ghz haal je daar nooit met Silicium halfgeleiders.

En dan is er nog de lichtsnelheid: 20 Ghz betekent 20 miljard keer per seconde. Dat is 0,00000000005 seconde voor 1 'tik'. Als je de lichtsnelheid vermenigvuldigt met deze schakeltijd dan krijg je de maximale afstand die binnen 1 'tik' kan worden afgelegd.

299.792.458 m/s x 0,00000000005 s = 0,0149 meter.

Dus: alle verbindingen moeten korter zijn dan 1,4 cm, anders klopt de timing van de chip niet meer. Ok, chips worden kleiner, afstanden dus ook. Zou men nu de chips alleen nog maar kleiner maken, en het <b>aantal</b> schakelingen gelijk houden, dan zou het misschien nog wel lukken. Maar het aantal schakelingen blijft ook toenemen. Chips kunnen dus kleiner, maar er moet steeds meer op. Resultaat: er wordt nog steeds veel silicium voor gebruikt, en die 1,4 cm als maximale afstand wordt een groot probleem.

Men zal dus niet eeuwig de Wet van More kunnen toepassen. Maar och, kan je niet hoger meer ? dan maar breder: Kloksnelheid alleen is niet wat de snelheid bepaalt. Multi processor systemen en CPUs met meerdere (snellere) pipelines en verbeterde alogritmen en architectuuur zullen de toekomst hebben.

Dus er is nog hoop :)
Jump Start geeft een goeie verklaring waarom het met de huidige 'infrastructuur' niet zou kunnen, maar zoals Ceaser al zei denk ik niet dat de processoren het zelfde zullen blijven. Denk maar eens terug, 50 jaar geleden werkte men nog met een kast vol lampen, dat leek in de verste verte niet op wat nu de gemiddelde scholier op zijn kamer heeft staan.

De biotechnologische ontwikkelingen gaan staan nog in hun kinder schoenen en ook de cognitie wetenschappen ontwikkelen zich steeds meer. Ik denk dat we dan ook in deze veel breder moeten denken dan alleen de processor, of alleen die vierkante kast op je bureau.

HP (dacht ik, weet ik niet zeker) is nu ook al bezig met een beeldscherm wat je voor je oog hangt (zo groot als een postzegel), en als men daar nog in verder gaat met bindingen in de hersenen (ze hebben nu al simpele implanteerbare chips) heb je helemaal geen beeldscherm meer nodig, ik denk dat dat ook zo gaat met het rekenvermogen (en denkvermogen!) van de pc, of liever gezegd: mec (mind extention chip, zelf verzonnen)

Ik zie die 20GHz in iedergeval met vertrouwen tegemoet
Scuse me, maar jouw hersens werken misschien op 8MHZ :) de normale in iedergeval niet. Volgens de wet van Moore halen we die snelheid pas over +/- 10 jaar en hij zij ooit dat elke 2 jaar de computersnelheid verdubbelt. Tot nu toe is dat altijd goed gegaan en ik denk ook dat dat zo blijft aangezien hij niks zei over wat er onder de kap zat maar hoe snel het aan de buitenkant was. Dus als zitten daar meerdere processoren in maakt dat voor jouw niks uit want jouw Quake 3443423 gaat toch wel snel zat. Daarbij komt dat er nu al meerdere (hulpchips) voor berekeningen bij je chip ingebakken zitten en wat dacht je van NT dat 4 processoren ondersteund en de nvidea met een eigen processor onboord. Ik denk dat dat de goedkoopste oplossing wordt en het samenvoegen van al die data uit die meerdere processoren is een piece of cake. Trust me,

PS. Je hersens draaien op zo'n 40 GHZ en verslepen zo'n 40 therabyte( 40.000.000.000.000 bits) per seconde. Parallel dat wel(!)
8 Mhz? 40Ghz?!?!?

Een actiepotetiaal (zeg maar een 'tik' in je hersenen) duurt 1 msec, en heeft daarna een wederopbouw (refractory period) nodig van minimaal nog eens 1 msec, en dan alleen nog voor een korte hoeveelheid achter elkaar. (daarna is er een rustperiode van 2-4 msec nodig)
Da's dus minimaal 2 msec per tik. Dan kom je dus uit op 500 Hz, oftewel een HALVE Mhz!!! En waarschijnlijk nog minder, want je hersenen kunnen dat tempo nooit langer dan een paar msec volhouden.

(afwijkingen door overmatig bierconsumptie, monitorstaren en het roken van hersencelvernietigende producten niet meegerekend)
En dan nog maar even over multiprocessing en monitoren voor je ogen:

Echt veel zin om een batterij cpu's in je bak te hangen heeft het niet. Veel applicaties hebben niet de mogenlijkheid hier van te profiteren. Je kunt wel stukken code parralel laten evrwerken, maar meestal komt het toch neer op een hoofdproces dat echt maar op een cpu kan draaien. Hoe je het ook programmeert. Je zult hier dus wel wat winst kunnen halen (vooral grafische appz, like games) maar in heel beperkte mate. En dan nog maar tot een cpu of vier.

Een monitor voor je hoofd (oog) hangen is echt een ongelofelijke peuleschil in vergelijking met direct inpluggen in je hersenen!!!!!!
Je ogen sturen via de oogzenuw signalen (actiepotentialen, zie hierboven) naar de hersenen. Vlak achter de ogen kruissen die (opticum chiasm) en wordt de info van de ogen vermengd. En er is echt nog niemand die enig idee heeft hoe die info in elkaar zit. We weten waar het (ongeveer) heen gaat, maar hebben nog geen idee hoe het in vredesnaam verwerkt wordt tot een 'zien'-ervaring. Laat staan dat je een hoge resolutie bewegend beeld kan produceren. Want dat moet je dan doen in dezelfde manier als de hersenen dat doen.

Je kunt je zelfs afvragen of het uberhaupt mogenlijk is. Vaak zie je niet precies waar je naar kijkt, maar creeer je een gedeelte van het beeld ook uit herinnering en uit verwachtingen van wat je DENKT te gaan zien. Dit is de oorzaak van veel optische trucjes en spelletjes...
(en niet te vergeten good old Hansie Kazan!!)
Ok... Ik ben er blij mee dat er mensen toekomst zien in de Cognitiewetenschappen, want dit word de toekomst :) trust me :) mjah verder lult iedereen er hier op de page maar een beetje op los :) nouja de meeste dan :) Verder is de computer van de toekomst slechts 1 chip welke in contact staat met je hersenen :) tenminste dit is een van de mogelijkheden, in duitsland zijn ze hier namelijk al mee bezig :) dat het als geheugensteun werkt (en neej dit is geen grapje) verder kunnen ze dit natuurlijk ook gaan toepassen op andere gebieden, deze weer gaan intergreren en na een hele lange tijd, word je gewoon met een chippie in je kop geboren (ps dat was wel een geintjuh) :)
ohjah en als jullie nie geloven wat dopamine zegt moet je maar eens twee kruisjes op een wit blaadje zetten (2 cm afstand) vervolgens concentreer je je op 1 van de twee kruisjes en je haalt het blaadje steeds verder van je oog vandaan op een gegeven moment zie je maar 1 kruisje als je dan nog verder gaat met de afstand te vergroten zie je het kruisje weer :) Dit noemen ze de blackspot ;) welke door jou hersenen zelf ingevult worden met de meest logisch oplossen (een egaal vlak me tde zelfde kleur als de omgeving :) Mjah dit is genoeg geweest :) wil je meer dan moet je maar cognitie wetenschappen gaan studeren :)
Hmm

1 ghz ongeveer 250 fps quake2.
250 x 20 = 5000 fps.
hmm.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True