Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties

Intel heeft dinsdag openhartig met de pers gepraat over verschillende toekomstige producten, waaronder de Xeon MP Dunnington, de langverwachte Nehalem en zelfs diens verre opvolger 'Sandy Bridge'.

* Dunnington

De 45nm Xeon voor servers met vier of meer sockets is een indrukwekkende chip: zijn 1,9 miljard 45nm-transistors huisvesten zes Penryn-cores, 9MB L2- en 16MB L3-cache. Al dat geheugen is handig om de beperkte bandbreedte van de 1066MHz systeembus te compenseren. In tegenstelling tot andere chips die dit jaar verschijnen maakt deze namelijk nog geen gebruik van de nieuwe Quickpath-interconnects of geïntegreerde geheugencontrollers. Een voordeel daarvan is dat hij compatible blijft met de huidige moederborden, maar de prestaties lijden er wel onder.

Dunnington slide

* Nehalem

Intels tweede generatie 45nm-ontwerp kent een groot aantal verbeteringen ten opzichte van de eind 2007 geïntroduceerde Penryn. De belangrijkste daarvan waren al bekend: een geheugencontroller met drie kanalen ddr3 voedt ieder socket direct met tot 32GB/s aan bandbreedte, Quickpath-interconnects vervangen de fsb, HyperThreading is terug van weggeweest en bepaalde modellen krijgen een ingebouwde videochip. Verder was al bekend dat Nehalem zeven nieuwe sse4-instructies heeft en een of meerdere cores sneller laat draaien als de rest niet wordt gebruikt.

Bij deze punten houdt het echter nog niet op: om de efficiëntie verder op te schroeven kan Nehalem-core intern meer balletjes tegelijk hooghouden dan een Penryn-core: 128 in plaats van 96 µops. Het opvragen van niet optimaal gerangschikte data is sneller, net als het synchronizeren van threads. Er is een tweede branch predictor toegevoegd en een extra TLB-cache met ruimte voor 512 adressen. De nieuwe 'Renamed Return Stack Buffer' moet sprongen tussen verschillende functies sneller maken, terwijl de 'Extended Page Table' gaat helpen bij virtualisatie. Ook zijn de prefetchers en geheugentoegang verder geoptimaliseerd.

Nehalem krijgt een nieuwe cache-architectuur die bestaat uit 64KB L1-cache en 256KB L2-cache voor iedere core, aangevuld door 8MB gedeeld L3-cache. De Quickpath-links zullen maximaal 25,6GB/s per stuk leveren op een kloksnelheid van 6,4GHz, maar er is in de geruchtenmolen sprake geweest van een oorspronkelijke snelheid van 'slechts' 4,8GHz oftewel 19,2GB/s.

Nehalem slide

* Sandy Bridge

Met name opvallend aan de presentatie is dat Intel ook al details heeft vrijgegeven over Sandy Bridge. De opvolger van Nehalem is de 32nm Westmere. Sandy Bridge is dáár weer de opvolger van en zal op zijn vroegst eind 2010 verschijnen. Het bedrijf wil echter nu al laten weten dat deze chip weer een grote sprong voorwaarts zal zijn, in ieder geval op het gebied van floating point: de 128bits sse-eenheden van Core 2 Duo zullen dan vervangen worden voor 256bits eenheden en er worden instructies toegevoegd om het rekenen met deze langere vectoren makkelijker te maken. Intel noemt dit AVX: Advanced Vector Extension. Dezelfde instructies zullen wellicht ook benut worden door Larrabee, de hybride processor/videochip met meer dan een teraflop rekenkracht die in 2009 op de markt wordt verwacht.

Gerelateerde content

Alle gerelateerde content (30)
Moderatie-faq Wijzig weergave

Reacties (47)

Een PS3 heeft geen 8 cores. De Cell processor bestaat uit één PPU, en 8 SPU's. De PPU is een vrij klassieke PowerPC-achtige processor, die zo'n beetje de boel stuurt. De SPU's zijn snelle en eenvoudige rekeneenheden met hun eigen specifieke instructieset die geoptimaliseerd is voor vectorberekeningen. Je kan ze dan ook moeilijk vergelijken met cores zoals die van een AMD of Intel CPU. Het volstaat niet zomaar om een multithreaded programma te schrijven om gebruik te maken van die SPU's.

Komt daar nog bij dat in de PS3 slechts 6 van de SPU's bruikbaar zijn. Voor een Cell met 8 actieve SPU's, moet je een IBM blade kopen, en die zijn een stukje duurder...
in ieder geval op het gebied van floating point: de 128bits sse-eenheden van Core 2 Duo zullen dan vervangen worden voor 256bits eenheden
Als ze nu voor de floating point: al praten over 256bits, slaan we dan met normale processoren dan de 128 stap over, en gaan we dan van 64 gelijk naar 256 :?
PS
Kan iemand uitrekenen hoe het zit met de verdubbelings factor? van 8 naar 16, 32 en 64bits processoren en wanneer we dan naar 128 of 256bits gaan.

[Reactie gewijzigd door xippie op 17 maart 2008 20:24]

128bit FP heeft niets te maken met de 64bit die jij bdoelt. Die 64bit gaat namelijk over de geheugenadressering. De 256bit die hier wordt bedoeld is de grootte van de registers in de CPU waarin men floating point getallen opslaat. Eerst gebruikte Intel daar 64-bit registers voor, dan 64bit, en momenteel 128bit en binnenkort dus 256bit.

Even het nut hiervan aanduiden: floatingpoint is een methode om kommagetallen binair op te slaan. vroeger gebruikte men fixed point, een redelijk eenvoudige notatie, maar dit had nadelen ivm bewerkingen uitvoeren, en men kan met een beperkt aantal bits niet echt ver na de komma gaan etc.
floating point is een iets ingewikkeldere manier om kommagetllen o te slaan, maar biedt ook voordelen. HET nadeel is echter dat deze voorstelling deels logaritmisch is,waardoor het verschil tussen het biair en decimaal stelsel een probleem vormt.
in floating point is het namelijk onmogelijk bv 0,1 exact te noteren, net zoals in decimale vorm 1/3 onmogelijk exact, als kommagetal kan worden genoteerd (0,333... je ka niet oneindig lang doorgaan, ergo je blijft onprecies)
Om dit op te vangen kan je een langere bitcode gebruiken, waardoor je de eigenlijk decimale waarde benaderd. Vandaar de toekomstige update naar 256 bit FP getallen.

edit: Om je vraag te beantwoorden: De overstap naar 128bit geheugenadressering komt er pas als we meer geheugen nodig hebben dan 64bit aankan: als ik me niet vergis is dat 4 exabyte :P

[Reactie gewijzigd door kiang op 18 maart 2008 00:35]

Zoveel woorden voor evenveel onzin. Wat een nutteloze verspilling...

Die 256-bits zijn bedoeld om meerdere floating point getallen tegelijkertijd te behandelen, zoals 8 32-bit floating point berekeningen in parallel.

Er is geen hond geinteresseerd in 256-bit getallen.
Waarom is deze omlaag gemod? Hij heeft gelijk.

Geen hond gebruikt 256 bit FP getallen (uitzonderingen daargelaten misschien). Het gaat om de grootte van de registers, waarin nu in feite meer floating point getallen naast elkaar passen.

Die kun je dan allemaal tegelijk optellen (bijvoorbeeld) bij een ander register van net zoveel floating point getallen, waarmee je dus in 1 instructie een heel stel berekeningen uitvoert.

Kijk ook eens naar de SSE intrinsics van GCC (zie hier een drietal voorbeeldprogrammatjes, misschien wordt het dan duidelijker.

edit: typo

[Reactie gewijzigd door Darkwings op 18 maart 2008 09:39]

Als het niemand interesseert, waarom zitten er dan een stuk of 5 256bit instructies in SSE4?

maar je hebt wel gelijk: hoofdzakelijk worden er idd parallelle berekeningen uitgevoerd met de grotere registers.

Maar verder is mijn post wel degelijk correct en geen onzin FP is niet 100% precies, je kan de precisie enkel benaderen als je meer bits gaat gebruiken.

[Reactie gewijzigd door kiang op 18 maart 2008 23:21]

Je vergist je. In 64 bits kun je 2^64 getallen opslaan, je kan dus 16 exabytes adresseren. Al bij al blijft de huidige 64 bits nog enige tijd meegaan :)
ik geloof eigenlijk dat ze maar 48bits gebruiken op het moment voor adressering.
Enkele opmerkingen:
128-bit fp's bestaan niet in de intel architectuur. Deze 128bits worden altijd opgesplitst naar kleiunere fp's zoals newinca en Darkwings zeggen. De meest preciese fp van intel is de goede oude FPU fp van 80-bits. Ik ga ervan uit dat de 256bits gewoon worden opgedeeld in vier of meer fp's.

De addressbus is nu nog niet eens 64-bits. Hij is nu 40-bits. Maar de virtuele address space is wel 64-bit. 128-bit bus addresering zal waarschijlijk nooit ontstaan binnen de huidige computer architectuur omdat het gewoon teveel is. zelfs al kan je op atoomniveau geheugen opslaan dan kan je maar 2,68e+21 bits opslaan per gram silicium dat is dus net wat meer als dat je met 64-bits(1.8e+19) kan addreseren. Maar de 3,4e+38 bytes die je met 128-bits kan adresseren is gewoon zoveel dat het niet meer op te slaan valt. Virtuele 128-bits addressen zouden wel kunnen onstaan in combinatie met een kleinere bus net als bij de 64-bit architectuur van nu. 256 bits addresering zal nooit onstaan tenzij je elk elektron van elk atoom op de hele aarde wil kunnen addresseren of er hele vette multidimensionale??? quantum computers of iets dergelijks sci-fi achtigs gaan ontstaan.

[Reactie gewijzigd door jmzeeman op 18 maart 2008 11:10]

In deze SSE-eenheden wordt met vectoren gewerkt, dat wil zeggen dat in een 256-bits eenheid tot acht 32-bits getallen of vier 64-bits getallen tegelijk berekend kunnen worden. Er is (nog) geen sprake van 128-bits floats in hardware.

[Reactie gewijzigd door Wouter Tinus op 17 maart 2008 20:35]

Nee core 2 is 128 bits sse..... staat er toch.... is niet het zelfde als de 64bit extensie :S

Dit is het effect van 128bits tenopzichte van 64bits.
http://www.xbitlabs.com/images/cpu/core2duo-preview/sse.png

[Reactie gewijzigd door Reinman op 17 maart 2008 20:26]

Als het goed is, is nehalem ook native quadcore en kunnen ze dus ook 2 in een package stoppen om zo een octacore te maken. Die clock voor clock ook nog weer sneller is dan de nehalem helaas. (Dit gezien de Core 2 als klok voor klok sneller is)
Vergeet HyperThreading niet! Dat is dus voor elke core nog een "visuele core" dan kom je op een 16-core!
Het besturingssysteem ziet dan wel 16 cores, maar HyperThreading levert in het beste geval 20-30% betere prestaties op. Meer dan een 10-core kun je het eigenlijk niet noemen dus ;).
met een netburst CPU misschien. vraag me af nu het nut van hyperthreading nog is eigenlijk.
de p4 pipeline was zeg maar de helft van de tijd leeg. hyperthreading kon die wat extra opvullen. maar bij de core2 is dat niet meer het geval. dus wat is dan nog het nut van in een cpu meerdere threads tegelijk gebruiken.

ook koste hyperthreading vaak performance toen, en soms nog best veel. hopenlijk hebben ze dat eruit gehaald.
het eerste wat ik dacht toen ik dit artical las was: het lijkt wel een k10 maar dan op basis van de core2 ipv de k8.
de apparte l1 en l2 cache en gedeelde l3 cache, onboard mem controler, CSI/HTT links
ik zeg maar niks want het word vast weggemod door de intel fans. maar ik ben toch blijkbaar niet de enige die er zo over denkt.

http://www.fudzilla.com/i...ask=view&id=6353&Itemid=1

edit : goed dat is dus uitgekomen, heel voorspelbaar.
maar waarom acid's post word opgemod is me dus een compleet raadsel. ik zit hier gewoon een techische vergelijking te maken van de globale opzet en hij stort zich in een rant over wie de beste proc zou hebben.

[Reactie gewijzigd door Countess op 18 maart 2008 14:49]

Er staat daar sowieso "Looks like an advanced K10". En aangezien AMD en Intel al jaren elkaars ideeen overnemen snap ik sowieso de toegevoegde waarde van je post niet.

Het zal mij echt jeuken welk van de 2 fabrikanten de beste cpu leveren. Mijns insziens is dat momenteel Intel, maar als AMD dat overneemt dan koop ik AMD. Lekker boeiend ook.

Eeuwige gezeik tussen 2 merken. Apple vs microsoft, AMd vs Intel.....who cares???? Zolang ze prijstechnisch elkaar maar lekker in het vaarwater zitten zijn wij als consument toch allang tevreden?
uhm, het is toch wel heel erg of niet dan, een CPU met 3*2 cores. wanneer komt Intel met native quadcores en octocores.

Hopelijk heeft AMD hierna wel een streepje voor door 3*4 cores te doen :o
wanneer komt Intel met native quadcores en octocores.
Native quadcore en sixcore in 2008 en native octalcore in 2009.
Hopelijk heeft AMD hierna wel een streepje voor door 3*4 cores te doen :o
Dat past helemaal niet in een socket :P.

[Reactie gewijzigd door Wouter Tinus op 17 maart 2008 20:34]

hoezo niet? tis Intel toch ook gelukt met de dualcores? bij de volgende die-shrink komt AMD aan hoor met de 3*4 Core CPU's

edit: met volgende die-shrink bedoel ik dus van 45nm naar ?26nm?.

[Reactie gewijzigd door QinX op 17 maart 2008 20:51]

Ik dacht dat we in de 30 nm gingen zitten eerst nog...
32nm om precies te zijn.
edit: met volgende die-shrink bedoel ik dus van 45nm naar ?26nm?.
Ja en dan is het 2011 en is Dunnington alweer drie jaar oud. Dus hoezo heeft AMD dan een streepje voor?
En dan is AMD al aan het testen met 22nm, niet dat al gezegd is voor wat te doen ...
Ligt het aan mij of beginnen jullie ook te kwijlen als je die Nehalem-stuff overloopt? Als AMD-fanboy heb ik vorig jaar nog weten aan Intel te ontsnappen met een X2 6000+ die 'toch niet zo heel veel trager was dan een E6600', maar als AMD niet snel betere Phenoms uitrolt zal ik het wel heel moeilijk krijgen om niet terug te gaan naar Intel (wat geleden is van m'n Pentium II 266Mhz :+ )

Die Quickpath is toch echt gigantisch hoog??? AMD's versie hiervan (HT3.0) haalt nu net de 3Ghz...Daar wordt je toch stil van :o
Die Quickpath is toch echt gigantisch hoog??? AMD's versie hiervan (HT3.0) haalt nu net de 3Ghz...Daar wordt je toch stil van
De HT3.0 van AMD gaat dan wel 'slechts' 3GHZ maar de bandbreedte is hoger waardoor een snelheid van 44.8GB/sec gehaald kan worden dat is dus bijna 2x zo snel als intels nieuwe (nog niet uitgebrachte Quickpath technologie)
De Quickpath-links zullen maximaal 25,6GB/s per stuk leveren op een kloksnelheid van 6,4GHz,
Hoewel zelfs dat misschien niet haalbaar is:
maar er is in de geruchtenmolen sprake geweest van een oorspronkelijke snelheid van 'slechts' 4,8GHz oftewel 19,2GB/s.
Niet dat deze nieuwe CPU's niet sneller zijn dan de AMD's van dit moment hoor. Maar de geheugen bandbreedte voor AMD is gewoon gigantisch veel hoger. (*Helaas zijn AMD processoren daar minder afhankelijk van, waardoor het positieve effect niet heel erg hard te merken is). Dat is ook waarom AMD pas zo laat naar DDR2 ging, terwijl Intel nu al naar DDR3 wil. AMD had de extra bandbreedte niet nodig en haalt het maximum uit het geheugen dmv HyperTransport 3.0. Intel echter heeft gewoon sneller geheugen nodig om leeg te zuigen omdat ze inefficienter zijn op dat vlak.

Helaas is dit wel een van de laatste vlakken waar AMD sneller is, en maakt het voor het totaalplaatje niet veel uit.

[Reactie gewijzigd door roy-t op 17 maart 2008 22:29]

De HT3.0 van AMD gaat dan wel 'slechts' 3GHZ maar de bandbreedte is hoger waardoor een snelheid van 44.8GB/sec gehaald kan worden dat is dus bijna 2x zo snel als intels nieuwe (nog niet uitgebrachte Quickpath technologie)
43,2 GB/s is de gecombineerde bandbreedte van drie 3,6 GHz HT3-links. De 19,2-25,6 GB/s die in dit artikel wordt genoemd is voor één link. De zwaarste Nehalem (Beckton) krijgt er vier, net als de Itanium Tukwila. De gewone Gainestown Xeon heeft er twee en de desktopversie Bloomfield één.

[Reactie gewijzigd door Wouter Tinus op 17 maart 2008 23:26]

HyperTransport supports an auto-negotiated bit width, based on two 2-bit lines to 32-bit lines. The full-sized, full-speed, 32-bit interconnect has a transfer rate of 20.8 GB/s (2.6 GHz * ( 32 bits / 8 )) per direction, or 41.6 GB/s aggregated bandwidth per link,

[Reactie gewijzigd door Crp op 17 maart 2008 23:29]

Ten eerste gebruikt AMD geen 32-bit links maar 16-bit links, dus je kunt al beginnen om dat door twee te delen. Ten tweede gebruiken ze geen 5,2 GHz-links maar 3,6 GHz-links, nog eens -30%. Blijft over 14,4 GB/s per link. Maar dat geldt alleen voor desktopprocessors: de serverprocessors zitten voorlopig nog op HT2 met 8 GB/s per link.

[Reactie gewijzigd door Wouter Tinus op 17 maart 2008 23:50]

Wouter, je spreekt in het artikel over 6,4 GHz links. Dat moet ten eerste 6,4 GT/s (GigaTransfers/s) zijn*. Sterker nog: "CSI is largely defined in a way that does not require a particular clocking mechanism for the physical layer."

Ten tweede bestaat zowel een Hypertransport-link als een Quickpath-link uit 2 unidirectionele point-to-point paden (dus één up- en één downstream pad).

De HT3 specificatie voorziet in een maximale snelheid van 2,6GHz per pad. DDR, dus 5,2 GT/s. 16-bits breed dus (5,2*16/8) 10,4 GB/s per pad. Totale bandbreedte per HT-link: 20,8GB/s

Intel geeft als totale bandbreedte voor een Quickpath link: 25,6 GB/s bij een data transfer snelheid van 6,4GT/s. 12,8 GB/s per pad. Bitbreedte per pad is dus 12,8/6,4*8 = 16-bits (8-bits CRC voor de gehele link niet meegerekend).

[Reactie gewijzigd door EaS op 18 maart 2008 03:01]

Wouter, je spreekt in het artikel over 6,4 GHz links. Dat moet ten eerste 6,4 GT/s (GigaTransfers/s) zijn*.
Strict gezien misschien wel, maar we hebben het ook over 1066MHz FSB en 800MHz DDR2-geheugen. Ik ben van mening dat frequentie niet per se de klokfrequentie hoeft te zijn.
Ten tweede bestaat zowel een Hypertransport-link als een Quickpath-link uit 2 unidirectionele point-to-point paden (dus één up- en één downstream pad).
Om precies te zijn is het een differentieel pad, waarover tegelijkertijd verzonden en ontvangen wordt (door het signaal wat verzonden wordt van het signaal dat ontvangen wordt af te trekken).
ja en dit op vraag van grote OEM's omdat anders een nieuw pin design nodig was.... wat dan ook weer tegen de upgrade strategie was van AMD....

tis trouwens in 8s dat je problemen krijgt met NUMA interface, dus ja ht3 is theoretisch gezien nodig zowel als de " verwachte bandbreedte" van intel noem het csi/quick zoals ge wilt. Feit blijft dat het in vele gevallen niet nodig is, eerst es zien hoever ze hun beloften kunnen waarmaken tov performance... als ze performance vergelijken met 4s nu en nehalem ja, maar we zullen zien wat het geeft op 1s en 2s en dan misschien nog hopen dat hun hyperthreading in minieme gevallen 20-30% meerwaarde is.

btw WT altijd heel leuk hoe je je eigen threadstart met hand en tand zit te verdedigen over elke futiliteit die over intel gezegd wordt, nog steeds dezelfde :)

[Reactie gewijzigd door duploxxx op 18 maart 2008 09:41]

De HT3.0 van AMD gaat dan wel 'slechts' 3GHZ maar de bandbreedte is hoger waardoor een snelheid van 44.8GB/sec gehaald kan worden dat is dus bijna 2x zo snel als intels nieuwe (nog niet uitgebrachte Quickpath technologie)
Bron?
Ik ben ook zwaar aan het twijfelen welke processor ik nu moet gaan nemen...
Wachten op AMD? Of wachten op Intel? Nu AMD kopen if toch maar Intel??
<zucht>
Nog maar even uitstellen die nieuwe pc.
Gelukkig heeft AMD nog meer voordelen dan alleen dat, alhoewel dat wel minder wordt gezien het feit dat ook Intel er toe aan het over gaan is om hun memcontrooler on-die te maken.
Voorlopig is het echter ook nog steeds zo dat AMD's nog steeds een grote bang-for-buck geven en ze dus nog steeds de moeite waard zijn om te kopen.

Maar verder moet zeker gesteld worden dat Intel goed bezig is. Na het P4 debacle (inclusief die manke dual-core P4's) zijn ze duidelijk weer op het goede pad. Als AMD nu met de Phenoms en opvolgers net zo goed bezig ijn dan breken er gouden tijden aan voor ons gebruikers.
als AMD de nieuwe phenom goed draaiend heeft en er 2 op elkaar plakken heb je gelijk een 8 core dus ben niet echt bang dat intel een klap zal uitdelen naar AMD
Als het goed is, is nehalem ook native quadcore en kunnen ze dus ook 2 in een package stoppen om zo een octacore te maken. Die clock voor clock ook nog weer sneller is dan de nehalem helaas. (Dit gezien de Core 2 als klok voor klok sneller is)
Intel heeft al meerdere malen gezegd dat er een Nehalem komt met acht cores op één chip.
dus ben niet echt bang dat intel een klap zal uitdelen naar AMD
Intel deelt ondertussen al een tijdje klappen uit aan AMD. Niet dat ik de fanboy wil uithangen, ik probeer het objectief te zien. Het is eigenlijk meer afwachten op het ogenblik dat AMD eindelijk weer een klap kan uitdelen naar Intel.
Nehalem krijgt een nieuwe cache-architectuur die bestaat uit 64KB L1-cache en 256KB L2-cache voor iedere core, aangevuld door 8MB gedeeld L3-cache.

Nieuwe architectuur of niet; in een octal core configuratie zou dat dan een totaal van 2MB L2 cache inhouden. Is dat niet een beetje aan de magere kant uitgaande dan deze dagen de basic laptops al over 2MB beschikken?
En hoeveel MB L3 cache hebben die 'basic laptops' ?
Mmm, dat valt dus wel mee.
Beide frabikanten zullen geen schone lei hebben. Wrs heeft Intel meer geld om dingen te dekken en te verbergen. Aan de andere kant krijgt AMD zeker steun van niet op x86 markt aanwezige chip fabriakanten.
Vergeet niet, dit is een van dé industrieen, maar 2 spelers, waarvan 1 veel groter dan de ander is.

Toch denk ik dat buiten budgetomvang Intel meer mogelijkheden heeft om dingen uit te zoeken, over te nemen, zonder al te veel patentkosten tov AMD.
In dit geval werkt de vrije markt zeer hakkelig naar mijn mening.
Ander voorbeeld, wie zegt dat MIcrosoft in haar geschiedenis en ervaringen met hun OS'en niet veel meer had moeten samenwerken en open-source had moeten maken zodat wij nu een meer compatible, veiliger en veel efficienter OS hadden kunnen hebben. Wie zegt dat deze marktwerking niet de evolutie en het leerniveau van de mensheid tegen vertraagd. Theoretisch gezien wel, maar mss ook niet, mss is dit wel de beste weg om te leren voor ons. ;)
Dat gaat tegen die tijd weer geld kosten :)

Ze blijven ook x op x maar komen ( gelukkig maar ) wacht persoonlijk voor 1e upgrade op de Q9450 :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True