Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties
Bron: SiliconStrategies

De schrijvers van SiliconStrategies weten te vertellen dat Intel op de aankomende ISSCC, de International Solid-State Circuits Conference, verschillende voordrachten zal houden over onderdelen die het bedrijf in staat moeten stellen om processoren op kloksnelheden boven de 10GHz te bouwen. Zo zal er verteld worden over een klokgenerator die op 3,5GHz werkt en over een 5GHz MAC (media-access controller). Daarnaast zijn er toespraken over specialistische stukken hardware die bijvoorbeeld met TCP/IP kunnen werken en over een controller voor PCI Express die 1GB/s bidirectioneel dataverkeer mogelijk moet maken.

Intel logoDe belangrijkste uitspraken lijken echter te zullen komen uit de transistorhoek. Intel is bezig met de ontwikkeling van zogeheten 'sleep transistors'. Deze onderdelen moeten lekstromen sterk verminderen, waardoor het energieverbruik van chips binnen de perken kan worden gehouden. Dat betekent op zijn beurt weer de mogelijkheid om hogere kloksnelheden te halen. De noodzaak om productiemethoden te vinden die minder warmte laten verstoken groeit, nu chips steeds meer koeling vereisen om niet door te branden. De sleep transistors zouden tien tot twintig procent minder energie verbruiken en daarmee Intels doel om nog dit decennium processors op 10GHz of meer aan te bieden een stap dichterbij brengen.

Moderatie-faq Wijzig weergave

Reacties (68)

ehh, dat hoop ik wel dat we in 2010 op de 10 Ghz zitten
volgens mij is het toch zo dat de snelheid elke 1,5 jaar ruwweg verdubbeld?

in 6 jaar is dat dus 2^4 = 16x zo snel als nu... :?
oftewel ik verwacht toch minimaal processors rond de 40 Ghz in 2010...
inzichtvol +3 ..sja..wrom krijg ik nooit zoiets :)
Je statement klopt namelijk niet :) Elke 18(ik dacht 18) maanden verdubbelt het aantal transistoren..aldus de wet van moore. Zegt niet altijd wat over de snelheid he.

Overigens zal deze wet steeds minder toepasbaar zijn in de toekomst.
Er bestaan verschillende standpunten over de wet van moore, maar het is nog zeker niet bewezen dat hij minder toegepast gaat worden.

De kans is best groot dat hij nog rustig 5 jaar doorgaat, misschien versterkt het wel, wie weet....
wat ik wel weet is dat er binnenkort 'lectures' zijn door moore zelf dacht ik, waarin hij uitlegt waarom zijn wet op zal blijven gaan, en van iemand die het tegenspreekt.

We zullen dus nog even moeten afwachten.
Ik word een beetje moe van de verheerlijking van de "wet" van Moore. Meneer Moore heeft gewoon een trend gesignaleerd in de groei van het aantal transistoren. Zo zul je vast voor het brandstofverbruik van auto's ook wel iets kunnen zeggen (waarschijnlijk een minder mooi verband, maar ok).

Denk er dus aan dat dit geen natuurwet is.
Nee het is geen natuurwet maar het scheelt niet veel aangezien je bent gelimiteerd door de natuurkindige wetten van stroom en metaal wanneer je transistors aan het opbouwen bent voor een architectuur, net zoals een straatmaker een x aantal straattegels kan zetten met zijn hand per dag.

Bovendien heeft meneer Moore deze uitspraak 30 jaar geleden gedaan dus het is al "bewezen" dat het klopt en het is niet niks hoor zo een wet maken, je zal zeker verstand van zaken moeten hebben.

Het heeft meer te maken met het werkende design de fouten die opgespoord moeten worden, de tijd die het kost om de fouten te vinden die in de kwadratische factor ontstaat, de logische opbouw van een CPU, kortom er zijn gewoon bepaalde rekenkundige methodes om zulke periodes van ontwikkeling te meten.

Ik vind het eerder een grotere wonder hoe ze uiteindelijk zo een CPU werkend krijgen dan iemand die er een wet op maakt.

Of had elke Jan om de hoek zo een wet kunnen maken wil je zeggen?
Waarom wordt de post van gna als grappig gemod :?.

Ik denk dat hij hier een goed punt mee te pakken zou kunnen hebben. Misschien zullen we in 2010 wel niet op 40Ghz zitten maar voor hetzelfde geld al op 50 :?
de ontwikkeling gaat tegenwoordig zo snel
helaas is er grootte kans dat het minder hard zal gaan met de opschaling, zoals ze al zeiden warmte word een probleem. Er zal dus nieuwe technieken moeten komen, zoals die sleep transistors.

de ene periode gaat nu eenmaal sneller als de andere, maar ik verwacht dat we in 2010 ook minimaal op 10ghz zitten.

Wat men niet moet vergeten, is dat er nog maar steeds in stappen van 200mhz opgehoogd lijkt te worden, dit zal toch echt moeten veranderen om sneller omhoog te gaan :) al is het niet noodzakelijk, een uitgebreide keuze is ook leuk, al maakt het me niet zoveel uit of ik een 10.0 ghz heb, of een 10.2 :P

Mijn gevoel, zegt ongeveer 14Ghz in 2010, en ik gok maximaal 20Ghz.

Ik ben benieuwd in 2010, dan kijken we nog eens terug op mijn post ;)

afgezien van de rauwe klok snelheid moeten we ook kijken naar, video kaarten, interface in de pc, pci/agp, cache op cpu's, waarschijnlijk alles 64bits tegen die tijd in desktop, en andere methodes om ook snelheid te winnen.

edit:

lek stroom is een van de problemen inderdaad. misschien wel de grootste wie zal het zeggen, waarom het mij nu gaat, is dat men tot een tijd terug niet zo nauw met die warmte hoefde te kijken, het ging toch wel. Nu komt er toch het probleem om de hoek kijken, dan de cpu's niet goed meer te koelen zijn als ze nog warmer zouden worden.
Dat de lekstroom alsmaar groter word naarmate transistors kleiner weet ik niet, neem ik aan dan. Maar wat ik wel weet is dat de voltage waarop de cpu's draaien ook omlaag gaan, gaan hierdoor de lekstroom ook niet naar beneden toevallig.
Hoe dan ook er moet wat aan gedaan worden (SOI is een begin, en sleep transistors van intel, wie weet wat het gaat worden)
zoals ze al zeiden warmte word een probleem
Dit is een oorzaak gevolg.

Warmte is een probleem maar dat wordt veroorzaakt door de lekstroom die zich binnen in een proc bevindt. Hierdoor moet er dus meer stroom door de proc heen worden gestuurt om deze goed te laten functioneren met als gevolg dat er meer warmte onstaat.

Het probleem is dus de lekstroom die als maar groter wordt naar mate de transistoren kleiner worden.
Lekstroom zet een soort DC waarde voor je stroomverbruik neer. Dat is dus een probleem als je volgens Moore steeds meer transistoren gebruikt. Het grootste energieverbruik van een transistor treedt op wanneer het ding schakelt. Een hogere kloksnelheid betekent dan een evenredig hoger stroomverbruik bij gelijkblijvende aantallen transistoren. Daar helpen die sleep torren echt niet. Een truuks zoals delen van een chip (tijdelijk) op een lagere kloksnelheid laten lopen, zijn al heel lang in gebruik.
Ik ben het met je eens dat het schakelmoment van een transistor de meeste stroom oplevert. Ik ben het denk ik niet met je eens dat het stroom verbruik van de sleep torren verminderen niet zou helpen. Volgens mij zijn er in een processor nog altijd stukken meer transistors die op een bepaald moment niet schakelen dan transistoren die wel schakelen .. ik weet die verhouding niet maar gok dat zo'n 10 tot 30 procent op een bepaalde cyclus echt actief is. Dus 70% als je daar nog wat stroom kan besparen waarom niet.....
Ik verwacht ook wat....

Ik verwacht dat Intel nog lang door zal proberen te gaan met de Hz mythe om zo AMD klein te houden.

Laat Intel maar Lekker veel Hz'en dan gaat ik wel voor de proccesor met de meeste IPC x Hz = (beste prijskwaliteitverhouding)
Wie dat ook moge zijn in 2010 AMD en misschien zelfs wel IBM of toch een Intel. We zullen het wel zien.
Volgens mij komt er een tijd dat we niet meer in kloksnelheden gaan denken
*zoek link op dit moment*
Dat de snelheid de komende jaren gemiddeld elke 1,5 jaar blijft verdubbelen denk ik ook wel, maar ik denk niet dat dat puur uit de kloksnelheid zal komen. 40 GHz in 2010 lijkt me dan ook een erg hoge schatting.

Aangezien de huidige OSen (nagenoeg) allemaal goed met meerdere processoren overweg kunnen denk ik dat de tijd bijna rijp is voor multi-processor systemen voor doorsnee gebruikers. Mijn schatting voor 2010 is dan ook: 16x zo snel door 4x10 GHz.

Maar ik zou het helemaal niet erg vinden als ik ongelijk krijg en het 4x40 GHz wordt. ;)
Volgens Intel is er in 2005 al een 10ghz proc.
zie deze link: http://www.tweakers.net/nieuws/25299
Naast de "puur Mhz" ontwikkelingen moet je ook kijken naar de ontwikkeling van de processor zelf.

Immers, als je een 2Ghz 486 zou kunnen maken, dan is een 1 Ghz Athlon XP nog steeds sneller door de toevoeging van instructies, cache, breedte van de bus etc....ook de architectuur (Risc, Alpha, G4/G5, i386, etc) is belangrijk

Zo kan een 64bit Itanium CPU op 2 Ghz sneller zijn in sommige verwerkingen dan een 32bit Pentium 4 op 3 Ghz.

Aangezien de ontwikkeling van 16 naar 32 bits (286 --> 386) al jaren geleden heeft plaats gevonden verwacht ik in ieder geval niet dat we in 2010 al veel verder zullen zijn dan 64 bit processoren op de desktop, en mischien een ontwikkeling voor 128 bit processoren in servers.
dit is niet direct waar: Moore's Law zegt dat het aantal transistoren ruwweg elke 1 tot 1,5 jaar verdubbeld. dit heeft natuurlijk wel met de snelheid te maken, maar is niet recht evenredig daarmee!

nu is het einde van Moore's Law voorspeld (nieuws: Einde van Moore's Law voorspeld) maar bronnen vermelden daarbij dat hij ook zeker nog 10 jaar stand zal houden. dus dan hebben we 2010 al ruimschoots gehad. :)
Niet de snelheid, maar het aantal transistoren wordt volgens de wet van Moore elke 18 maanden (1.5 jaar) verdubbeld.

Of de wet van Moore nog lang stand houdt, is oveirgens al jaren de vraag, zie een ander enews posting hier op tweakers
Maar intel heeft toch al lang 10 Ghz gehaald?

http://www.anandtech.com/cpu/showdoc.html?i=1584&p=1

Heeft hier vast al eerder gestaan maar ik post 'em toch maar ff :) En blader dan ff door naar het 10Ghz stukje. Ziet er supersweet uit die plaatjes, maar al wel een jaar oud dus...
Wat zal alleen een simpele ALU, een complete processor is wel *iets* ingewikkelder dan dat. Kleine onderdelen zijn nu eenmaal makkelijker snel te krijgen dan zeer complexe constructies die uit honderden miljoenen transistors bestaan. Een losse transistor kan vandaag de dag al 350GHz halen.
"There's no substitutre for cubic inches!" is toch zo'n wijs Amerikaans gezegde als het gaat om autos?
Maar uiteindelijk moeten ook hun toegeven dat efficiency veel meer oplevert dan extra inhoud.
Dus meer werk verrichten per kloktik zal zeker een manier zijn waarmee winst te behalen valt.
En alleen PK's zegt ook niks, het gaat erom wat je er uiteindelijk mee kunt.
Zou het dan niet veel beter zijn om af te stappen van MHz-ratings en om te schakelen naar "echte" performance-ratings.
Dus geen 3.06GHz of 3000+ , maar prestatie per applicatie (of set van) zoals in veel benchmarks.
Dat geeft een betere indicatie van wat een proc/pc echt kan dan alleen die Mhz'en.
Ik ben ook meer geinteresseerd in hoeveel je tegelijkertijd kunt doen, dan in hoe hard het gaat in 1 app.
Misschien dat er in de toekomst wel zoiets komt als 2 of meer processors in 1 package of meer geavanceerde Hyperthreading oid.
Je bedoelt dual- en quad-core CPU's? Die gaan er zeker komen. Denk maar aan Intel's Madison. Nieuwe Hyperthreading? Absoluut. Was het niet de Prescott waarin HTT 2 zat? HTT met 4 logische cores ipv 2?

Het gaat veel, veel sneller dan je denkt ;)
De verdubbelwet is leuk, maar er speelt sinds kort een andere kracht (voor het eerst?) mee. Tot voor kort hebben software en hardwareprestaties elkaar flink opgestuwd, met de Wintel-drive als schoolvoorbeeld. Er is nu geen killer app zoals een GUI of Internet. Er is geen nieuwe drive, en de software blijft achter. VR is een mogelijkheid maar dat is het al 10 jaar en is nog niet zo ver. In andere woorden, de normale consument met een 1,5Ghz heeft geen reden te upgraden naar bijvoorbeeld 3,0Ghz. Gezien de enorme ontwikkelkosten kan dit wel eens een grote rol gaan spelen bij de snelheid van de voortschrijding van techniek.
Helemaal mee eens, vandaar dat Intel en AMD waarschijnlijk in gaan springen op een wat meer psychologische zwakte van de mens: het willen hebben van het nieuwste.

Een auto van 10 jaar terug voldoet ook nog prima, er rijden nog genoeg mensen in zulke auto's, maar veel mensen in landen als NL kopen toch een nieuwe! Waarom? Omdat ie nieuw is!

Er zijn genoeg mensen die hun tiepdoos (PII 350) inruilen voor een nieuwe tiepdoos (PIV2,4Ghz).

Daarnaast zullen games, zeker de komende jaren nog meer van het systeem gaan eisen. Meer mogelijkheden, slimmere AI, grotere 'werelden'. Dingen die veel processorkracht benodigen, veel geheugen benodigen en veel GPU-kracht benodigen.

Dus ik denk dat er de komende tijd tůch nog genoeg vraag zal zijn naar nieuwe procs etc.
Een jaar geleden las ik ik de scientific american dat ze bij MIT met een processor bezich waren waar eigenlijk 64 processors in zaten. Door slimme compiler en instructie flow algos probeerd men dus snelheid te halen. 64 keer sneller dan 1 processor gaat niet maar een factor 32 was met gemak haalbaar. Maar ja intel heeft ook al een multi-theading processor deze is nog te duur voor een gamesysteem maar wel leuk natuurlijk. Maar een snelle reken som brengt me dan dat 32 * 3Ghz me op een snelheidsverbetering brengt van genoeg zonder ook maar iets aan de Mhz/Ghz te moeten sleutelen. Maar een Quantum processor lijkt me pas echt leuk...
SUN is bezig met een CPU waarbij het geen clock heeft maar elke transistor werkt op zijn volste vermogen.

Dat is de toekomst lijkt mij en dat stond ook een keer in Scientific American en het is waarschijnlijk de meest efficiente manier van CPU's bouwen.

Maar de onderlinge verschillen tussen 2 identieke CPU's wordt dan wel groot maar dan moet er op snelheid gesorteerd worden in plaats van de Mhz in hoeverre dat toepasbaar is op die techniek.

Ik vraag me af of we binnenkort niet bedolven zitten onder de nieuwe technieken, dan moeten we waarschijnlijk om de paar jaar een nieuwe ontwikkeling doormaken wat de compatibiliteit niet ten goede komt denk ik.

Bijvoorbeeld, Polymeer Chips, Carbon Nanotubes, Quantum Computing en noem maar op.
Prachtig, al die theoriŽn over hoe lang, hoe snel, etc...!

Ik heb er ook nog eentje:

Wat nu als er binnen nu en 10 jaar, er weer een Einstein opstaat, die totaal anders denkt als de rest, en met een nieuwe techniek komt. Dit is best aannemelijk, ik geloof dat er per generatie 1 voorkomt. (4give if I'm mistaken...) Dan zitten we zomaar in Terrahertzen te denken! Of misschien is het niet eens de rekensnelheid die omhoog moet, maar hoe er met bestanden omgegaan wordt. Het hele 1/0 systeem de wereld uit.

Zoals de Ozzy al zingt:
I'm just a dreamer...
:Z
Dit artikel staat vandaag op Reuters over Dhr. Moore himself:


Gordon Moore Sees Another Decade for Moore's Law
Mon February 10, 2003 05:26 PM ET
By Elinor Mills Abreu
SAN FRANCISCO (Reuters) - Gordon Moore, the computer pioneer who four decades ago predicted the explosion in transistor power driving the electronics revolution, said on Monday he sees at least another decade of progress ahead.

Moore, 74, the creator of "Moore's Law," told a meeting of many of the world's preeminent chip designers that engineers must concentrate on overcoming power leakage and reducing heat levels as more and more circuits are crammed closer together.

"No physical quantity can continue to change exponentially forever," he cautioned. "Your job is delaying forever."

The co-founder and chairman emeritus of Intel Corp. INTC.O , the world's biggest chipmaker, first predicted in 1965 that the number of transistors on a semiconductor, and thus overall chip performance, would double every two years.

Moore later boosted what is now known as Moore's Law to a prediction that the power of a chip would double every 20 months. These inexorable performance gains, which show little sign of abating nearly 40 years later, have fueled huge advances in computer calculating power that come at ever lower cost.

Questions about how long the industry can continue to make breakthroughs in the physical limitations governing computer chip design are as old as Moore's Law itself. Naysayers often question whether materials science and improvements in manufacturing processes can keep pace.

Asked if Moore's Law would run its course in the foreseeable future, Moore replied, "Another decade is probably straightforward. None of these things hits an abrupt wall."

The Silicon Valley veteran made his comments to reporters following a keynote speech to scientific researchers at the International Solid-State Circuits Conference in San Francisco.

Transistors are the millions of tiny switches on a chip that flip on and off millions of times per second.

Current limitations on Moore's Law include electrical power leakage and heat dissipation that increases each time more transistors are packed into a smaller area, making chips "not far from the power density of a nuclear reactor," he quipped.

Entire industries depend on semiconductors, which serve as the brains of everything from cell phones to computers to cars. Innovations have pushed the size of chips smaller and added more functionality in a smaller area for less cost.

The number of transistors on a single chip has grown 300 million-fold since Intel introduced its first microprocessor 35 years ago. That represents a performance increase of about 80 percent per year. He compared transistors to the number of ants crawling around the world.

Meanwhile, the cost has dropped from $1 per transistor in 1968 to $1 per 50 million transistors now, he said.

(Additional reporting by Eric Auchard in New York)
Misshien zitten we in 2010 op een hele ander concept inplaats van steeds van de huidige proccesor uitgaant. Wat ik daarmee bedoel dat ze een cpu hebben die op 2Mhz werkt maar het werk kan verdragen van een 10Ghz omdat het op een andere manier werkt wiet weet Time will Tell.
10GHz is dus erg leuk voor de marketing en daarom streeft iNtel er na voor zeer hoge Clocken zo is d emarkt nu eenmaal en iNtel speeld daar puur op in niet dat het de beste keuze is kwa techniek maar kwa marketing.

In de andere markten zoals enterprise servermarkt speeld dat niet dus daar is het IPC en rating niet nodig denk aan iTanium en Opteron lage Clock hoge performance.

iNtel hamert dus gewoon op de clock. En daar vallen velen voor gezien de reply's hier.

maar 10Ghz kan nogal theoretische veel code verwerken alleen dat moet ook worden aangevoerd en een 1600 QDR bus ziet dan wel indrukwekkend uit maar knijpt hem nog altijd af Branche Prediction en Data prefetch is dan een noodzaak om dat te compenseren met een grote Cache..
Ook zou men dan moeten gaan voor 'n 128bit of 256bit FSB bus als het niet sneller wil dan moet het maar in de breedte gaan parralel dus

De core is zo snel als de zwakste schakel

Hoge Core clock creeer je performance potentie maar dan moeten de rand componenten dat wel kunnen leveren.
Dat denk ik toch niet,
als je een hele snelle processor wil op zo'n lage clocksnelheid, dan moet je m dus zoveel laten doen per clockcycle dat de architectuur onnodig ingewikkeld wordt.
Veel gigaherzen erin stoppen is gewoon veel makkelijker
Gepost door KRIS FRANSSENS
Ik vind dat je helemaal gelijkt hebt. Meer instructies per kloktik resulteerd in minder verliezen door de zeer hoge frequenties en in minder warmte productie.
Je hebt met een hogere IPC (Instructions Per clock Cycle) inderdaad het voordeel dat er minder warmte ontwikkeling is. Echter, het nadeel van een hoge IPC, en een lagere kloksnelheid, is dat je dan betere marketing moet gaan voeren dan de concurrent die voor een lage ICP en een hogere kloksnelheid heeft gekozen.

Dan kom je weer op het Intel vs AMD verhaal in verband met de kloksnelheid en de IPC waarden. De nieuwste AMD processoren hebben een lagere kloksnelheid dan de nieuwste Intel procssoren, maar daartegenover staat dat de ICP waarde een stukje hoger is. Intel heeft meer Hz-en en AMD moet beter marketing voeren om die Hz-droom te verbreken.
Men blijft gooien met kloksnelheden. ipv eens te zorgen dat we een productievere cpu in ons systeem krijgen.
Dan kom je eigenlijk uit op de vraag of het ei er eerder was dan de kip. Als je een CPU maakt met nieuwe technologieen, zoals HTT, dan zal software dat moeten ondersteunen. De vraag is of daar wel vraag naar is ( ;)) Met andere woorden, je moet je afvragen welke extra fratsen je echt nodig hebt die een CPU tot een betere CPU maken. Het verhogen van de kloksnelheid is leuk, en daar ben ik het met je eens, maar schiet je daar wel wat mee op?
Gepost door gna
als je een hele snelle processor wil op zo'n lage clocksnelheid, dan moet je m dus zoveel laten doen per clockcycle dat de architectuur onnodig ingewikkeld wordt.
Veel gigaherzen erin stoppen is gewoon veel makkelijker
Het verhogen van het aantal Hz-en zorgt voor een verhoging in de geproduceerde hitte, zoals KRIS al zei. Je moet dus een balans vinden tussen een mooie IPC waarde en een verhoging van het aantal Hz-en. Ook vanuit een marketing oogpunt is dat noodzakelijk.
het gaat niet alleen om makkelijk het gaat om resultaat...

verder lijk je altijd het maximum bereikt te hebben, maar misschien doet een pc over 10 jaar wel veer meer (bijvoorbeeld door gebruik te maken van sensoren zodat hij bijna menselijk reageert op wat jij hem laat zien/zegt dit zal erg veel cpu kracht kosten)

10 gHz mooi getal, lijkt zoals velen al zeiden misschien een beetje aan de lage kant als je de huidige snelheid van ontwikkelingen bekijkt, maar van de andere kant als intel slim is gaan ze de komende tijd minder aan mhz denken maar meer aan 'slimme' instructies zoals AMD (bedenk dat AMD nu pas iets van 2.2 echt ghz heeft)

verder komt er als het goed is ooit een quantum computer die ECHT revolutionair is, zo erg dat het voor een menselijk brein niet te begrijpen is (heb ooit de stelling "als je een kat in een doos stopt en een dag wacht, dan is hij dood of levend, maar volgens een quantuum computer dood EN levend" gehoord m.a.w. niet te begrijpen voor mensen) en deze machines blijken ook heel erg snel (maar niet in ghz uit te drukken) te zijn
Ik vind dat je helemaal gelijkt hebt. Meer instructies per kloktik resulteerd in minder verliezen door de zeer hoge frequenties en in minder warmte productie.
Men blijft gooien met kloksnelheden. ipv eens te zorgen dat we een productievere cpu in ons systeem krijgen.
Ik denk dat daar nu al een gigantische winst in te behalen valt: de compilers.
Je zou een compiler zo moeten construeren dat hij het optimum berekent voor alle prediction branches.
Helaas zul je dan processor specifieke binaries krijgen. Maar als je daar 20 tot 25% snelheid mee kan winnen dan wordt je 3 Ghz vanzelf een 4 Ghz CPU...
Lijkt erop dat de rek er nog lang niet uit is :) 10GHZ pfff :9 Wie had dat gedacht toen ik begin tachtiger jaren met m'n sinclair van 3,2 mhz aan het spelen was.
Wie had dat gedacht toen ik begin tachtiger jaren met m'n sinclair van 3,2 mhz aan het spelen was.


Wie dat gedacht had? HIJ !

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True