Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 57 reacties

Intel heeft drie lijnen van zijn Optane-ssd's met de nieuwe 3D XPoint-opslagtechniek in de planning. Dat blijkt uit een roadmap van Intel die op internet is verschenen. De ssd's zouden eind dit jaar moeten verschijnen.

De roadmap is geplaatst door Benchlife. Op die roadmap staan Mansion Beach, Brighton Beach en Stony Beach, de drie codenamen waar Intel zijn komende Optane-lijnen onder schaart. Mansion Beach zou eind 2016 verschijnen en voor enthusiast- en workstation-platformen bedoeld zijn. Het gaat hierbij om pci-e 3.0 x4-ssd's met een nvme-interface.

Brighton Beach staat iets lager op de ranglijst maar is nog steeds voor veeleisende gebruikers. Deze ssd's bevatten een pci-e 3.0 x2-interface en moeten begin 2017 verschijnen. Ten slotte is er Stony Beach dat alleen voor system acceleration bedoeld is. Dit geheugen noemt Intel ook geen ssd's. De release vindt in het vierde kwartaal van 2016 plaats.

Tegen die tijd moeten ook de eerste Kaby Lake-processors gereed zijn. Dat deze processors, die de Skylake-chips dit jaar gaan opvolgen, ondersteuning krijgen voor Optane-geheugen, werd eind vorig jaar al naar buiten gebracht. Kaby Lake wordt op zijn beurt opgevolgd door Cannonlake-processors, die op 10nm geproduceerd gaan worden. Het Stony Beach-geheugen wordt voor die komende Cannonlake-generatie opgevolgd door Carson Beach en deze naam gebruikt Intel ook voor de opvolger van Brighton Beach. Intel refereert naar de opvolger van Mansion Beach voor de high-end simpelweg onder de noemer Mansion Beach Refresh.

Intel ontwikkelde Optane-geheugen in samenwerking met Micron. Het moet de snelheid van werkgeheugen combineren met de opslagcapaciteit van flashgeheugen. Het betreft een vorm van phase change-geheugen, waarbij individuele cellen of bits net als bij dram individueel kunnen worden aangesproken: bij flashgeheugen worden cellen steeds per string uitgelezen en per blok beschreven. In eerste instantie gaat het om 128Gbit-chips, die zijn opgebouwd rond een Cross Point Array Structure, waarin tot 128 miljard geheugencellen aangesproken kunnen worden.

Intel Octane Roadmap Benchlife

Moderatie-faq Wijzig weergave

Reacties (57)

Is dit dan het begin van het einde voor RAM geheugen?
RAM geheugen zal wel altijd blijven denk ik.
Ik zie computers niet alle tijdelijke bestanden wegschrijven op de interne HDD/SSD. Ook niet met die snelheden.
RAM geheugen kan of zou vervangen kunnen worden, mits het gedeelte op de "SSD" waar het werkgeheugen zich bevindt geflusht kan worden. Mocht een OS vastlopen en een herstart leidt niet tot een refresh van het geheugen, dan heb je een behoorlijk probleem. Wanneer er tijdens een herstart het gedeelte "RAM" op de SSD wordt gewist, dan zou het in theorie moeten kunnen werken.
Nee, niet flushen.

Zou het niet heerlijk zijn om alles wat je open hebt staan, en natuurlijk niet opgeslagen, na een herstart gewoon weer opent?

in plaats van, systeem in vastgelopen, donder alles maar weg.
Misschien moet je lezen en dan zie je dat ik zeg: het gedeelte op de SSD waar het werkgeheugen zich bevindt.
Vaak genoeg loopt een PC vast om een andere reden dan de applicatie, Bijvoorbeeld een driver die een exception geeft.

Waarom moet dan het hele werkgeheugen gereset worden?

Puur omdat dat de makkelijke oplossing is? Gewoon een simpel vraagje in het bootproces:

"Uw computer is onverwachts herstart, wilt u dat ik probeer op te starten, met het geheugen zoals het was, zodat u kan proberen uw bestanden op te slaan, of wilt u een volledige herstart?"

Ik heb vroeger een redactiesysteem beheerd die tijdens een warme herstart alle teksten waar de verschillende redacteuren mee bezig waren, kon opslaan. Waarom zou dat hiermee niet kunnen.
Dan is nog het probleem vanaf waar je verder gaat. Als je verder gaat vanaf de crash, dan zal hij weer crashen. Immers de parameters die zorgden voor de crash ben je dan aan het herstellen, waardoor indien geval van een software issue de driver opnieuw zal crashen.

Een seconde terug in de tijd zal ook weinig effect hebben. De kans dat dan na een seconde de driver alsnog crashed is erg groot.

Stel je gaat verder terug, naar een situatie waarbij je de crash misschien zou kunnen voorkomen. Dan loop je alsnog tegen rare situaties aan. Bijvoorbeeld je gaat terug naar de situatie waarin jij een een miliseconden geleden op "Versturen" drukte bij een nieuwe Facebook post tussen het moment waar Facebook wilde bevestigen dat de post is verwerkt, maar jij had die niet ontvangen. Dan heb je dezelfde post ineens 2x op Facebook staan.

Dat is dan een simpel voorbeeld, het wordt nog veel vervelender met databases en financiele mutaties.

Kortom, je schiet hier niet zoveel mee op en zorgt alleen maar voor grotere ellende.
Hoe ik het zie: Windows wordt herstart, en overschrijft wat hij moet overschrijven. Meer niet. Daarna start je gewoon je programma, die ziet de data in het "geheugen" staan, en leest dat weer in, of probeert dat weer in te lezen.
Je geeft zelf al aan dat het redactiesysteem dit kon, Microsoft Word kan dit bijvoorbeeld ook. Heeft niets met het werkgeheugen te maken, maar met een auto-save of veiligheidsoptie in de software. Het geheugen MOET geflushed worden, omdat het systeem zelf niet weet welke applicatie het probleem veroorzaakt. Het kan zomaar zijn dat de applicatie waarvan je het document wilt herstellen de veroorzaker was.
Ja, en?

Ik ken genoeg programma's die geen autosave hebben, of een die niet automatisch aan staat.

Ik kan begrijpen dat het soms onstabiel is, en/of niet slim is om er daarna verder mee te werken, maar als ik vier uur lang in een 3D pakket heb lopen klooien, zonder autosave, en ik heb mijn werk niet tussentijds opgeslagen (Dom, maar het gebeurt). Dan dank ik god op mijn blote knieŽn, dat ik nog een kans heb om dat op te slaan.
Nee, dat lijkt me niet heerlijk. Je systeem loopt niet voor niets vast, lijkt me dat het systeem dan ook weer vast loopt op het moment dat het alles opent dat open was tijdens het vastlopen.
Ik denk dat de fout/crash dan niet verholpen zal worden.
Zou het niet heerlijk zijn om alles wat je open hebt staan, en natuurlijk niet opgeslagen, na een herstart gewoon weer opent?

Heet dat niet hybernate? ;)

Ik snap wat je bedoelt, na een systeemcrash, maar dan is ook de ellende die de crash veroorzaakte behouden dus of je dat nu ťcht wilt ...
Misschien kan hier de magie van partities een beetje bij helpen.
Maar dat zie ik nu zo 1.2.3. niet gebeuren.
Naar mijn weten heb je geen RAM nodig als je opslag net zo snel is als normaal je RAM is. Dus ook geen bepaald gedeelte van de schijf. Je kan gewoon direct de code uitvoeren, en ram is dan overbodig.
Het revolutionaire aan dit geheugen is nou juist dat het onderscheid tussen werk- en opslaggeheugen verdwijnt. Dat onderscheid bestaat alleen maar omdat tot dusver opslaggeheugen veel trager is dan werkgeheugen.
Dit zou een consequentie zijn van huidige OS architecturen toepassen op nieuw geheugen waar het waarschijnlijk efficiŽnter en sowieso beter op conceptueel niveau is om grote delen van de kernel om te schrijven.
We hebben nu computers met een relatief diepe memory hierarchy, daarmee bedoel ik dat er veel lagen zijn. Velen daarvan mappen naar HDD/SDD* of naar RAM**.***

Wat zou er gebeuren wanneer de SSD/HDD wereld aan de ene kant en de RAM wereld aan de andere kant helemaal zouden opgaan in 1 nieuwe wereld? Enkele effecten:
- Iets als swappen naar disk (dus naar de page file of swap partition) wordt betekenisloos en dus gaan plots de kosten ervan zwaarder wegen omdat de baten min of meer wegvallen
- Netwerk buffers zouden plotseling zonder bijzondere extra moeite opgeslagen kunnen worden. Ik ben niet zo zeker wat hiermee mogelijk wordt maar ik denk aan factoren als betrouwbaarheid (handig op plekken in de wereld waar stroom niet altijd even consequent geleverd kan worden).
- Voor programmeurs: Het huidige model van software om objecten te toe te wijzen aan een blok geheugen, te initialiseren en die vervolgens wanneer nodig te serialiseren naar disk wordt ook zinloos: de RAM representatie *is* dan namelijk de on-disk representatie geworden. De enige reden dan om het nog te doen is dezelfde reden als er nu JSON of SOAP wordt gebruikt: om onafhankelijke stukken software met elkaar te kunnen laten praten.

Er zullen ongetwijfeld meer effecten zijn maar deze kon ik zo snel bedenken.

* bv. Windows' page file of Unix's swap partitions
** netwerk buffers, objecten in programmacode etc
*** Er zijn ook nog andere memory hierarchy lagen zoals CPU L1/2/3 cache maar die worden hierdoor niet veranderd.
Ik heb al in geen jaren meer een swap partitie aangemaakt bij distro installaties, zeker niet nu we allemaal 8GB+ RAM hebben. Op mijn werkstation heb ik er nu 16GB inztitten, met een upgrade binnenkort naar 32. Nog nooit issues gehad, en ik doe *veel* met die bak: een boel VM's variŽrend van Gentoo tot Fedora. Ik trek van de 16GB onder full load zo'n ~14GB vol, dus het kan. Geen swap nodig op m'n HDD's/SSD's..
Je hebt dan wel opeens een veelvoud aan GB's beschikbaar in vergelijking met traditioneel RAM-geheugen. Als je een 512GB SSD hebt en de snelheid is gelijk aan RAM-geheugen, waarom zou je dan niet daarvoor kiezen in plaats van 'maar' 16GB ram?
RAM ontwikkelingen staan ook niet stil.
Nee het staat echt niet stil zelfs intel heeft zijn test exemplaren al klaar.

512GB Optane Drive met 3D XPoint
Daar heb je wel gelijk in.
Dan hoef je zelf geen RAM geheugen er meer bij te prikken.

Maar aan de andere kant, dit zou dan op zich wel een uitkomst zijn voor bedrijven met echte bedrijfsservers. Daar gaan vaan honderden GB's aan RAM geheugen in, en daar zou dan flink op bespaard kunnen worden.
Aan de andere kant: RAM-geheugen is "gegarandeerd vrij" bij het opstarten van je PC, maar wat gebeurt er als jij iets aan het installeren bent en even niet door had dat je daarna nog 1GB vrije ruimte op je supersnelle SSD zou hebben?

Je zult toch een deel van de ruimte moeten claimen/reserveren, zoals je dat vroeger met je swap-file deed (hebben we die eigenlijk nog? Ja dus :X). Ik let daar eigenlijk nooit meer op met m'n 16GB geheugen en snelle SSD :D

[Reactie gewijzigd door Grrrrrene op 13 juni 2016 12:09]

Waarom niet, je stelt je SSD deels in als virtueel geheugen, zal dit echt zo'n delay geven?
Geef het de tijd, het is natuurlijk koffiedik kijken maar ik denk dat dat wel de richting is waar ze heen gaan :)
RAM zal nog even paar jaar rond hangen ja. Maar kijk deze video eens volledig 3D XPoint Technology , intel heeft een vervanger voor RAM op het oog. Als Intel met zulke plannen komt dan kan het wel redelijk snel gaan dat RAM vervangen word.
Nee.

IOPS:

NVME doet op dit moment 750K iops / 4KB blocks = 3 GB/s.
DDR4 3200 doet ongeveer 60 GB/s. Of zo je wilt 15M iops.

Throughput:

De snelste NVME drive die ik heb gezien is deze: http://www.legitreviews.c...7gbs-of-throughput_179687 .

Wear:

NVME heeft nog steeds TRIM nodig. RAM niet.

Als je kneiterhard je geheugen telkens weer aan het overschrijven bent (lees: je gebruikt je computer "normaal"), is dat niet zo goed voor de lifetime van je NVME. RAM heeft daar niet zo veel last van.
Jij begrijpt denk ik niet echt wat Optane is.

Volgens mij heeft NVME niet perse trim nodig en Optane maakt gebruik van phase change geheugen.

Dat is 1000x sneller dan flash en gaat 1000x langer mee dan flash.

Want 3D Xpoint hoeft niet net als flash geschreven te worden in blocks.

3D Xpoint kan gewoon net als RAM op bitlevel beschreven worden.

[Reactie gewijzigd door Dark_man op 13 juni 2016 15:20]

Hmm. Maakt weinig uit toch?

- De drivers / aansluiting (PCIE) zijn dan nog altijd de beperkende factor. E.g.: http://wccftech.com/inter...ual-3d-xpoint-ssd-speeds/
- 1000x minder wear is voor een RAM alternatief ook nog steeds te weinig m.i.

Dat laatste kan je opvangen met conventionele DDR als cache... maar dan verdwijnt RAM niet.

[Reactie gewijzigd door atlaste op 13 juni 2016 15:39]

Neen want Intel gaat Optane ook in DIMM modules uitbrengen.

Dus kan er maximaal gebruik gemaakt worden van de snelheid.

Overigens denk ik ook niet dat RAM aan zijn einde komt door 3D Xpoint want de access times zijn nog steeds veel hoger dan RAM.

De driver heeft echte wel veel minder overhead door de manier waarop het aangesproken wordt, die problemen heeft Intel namelijk aangepakt.
Zolang ze PCIE 3.0 gebruiken met een X4 bus niet, RAM geheugen heeft nog steeds een veel hogere bandbreedte. Ik verwacht ook dat de latency via PCIE hoge zal zijn dan dat van speciale slotjes voor geheugen. o.a. vanwege protocol overhead en dergelijke.
Daarom komt Intel met nieuwe chipsets zodat Optane-RAM veel sneller kan worden aangesproken dan via PCIe. In de nabije toekomst zet je je OS en applicaties op een Optane-SSD die bijna de snelheid heeft van gewoon RAM. Fantastische ontwikkeling. Als je bestanden moet uitpakken met Rar of Par, dan is de CPU de bottleneck en niet meer disk-IO.
Ik lees dat het platform voor enthusiast- en workstation gebruik maakt van PCIe met NVMe. Dus het valt nog te bezien of dat deze optane SSD's met PCIe bij release veel sneller zullen zijn dan de bestaande Intel 750 SSD's met PCIe en NVMe.

Ik kijk zelf iig even de kat uit de boom, ze zouden immers later ook nog met een optane versie komen die gebruik maakt van DIMM sloten.
Deze 3D Xpoint geheugen zou met SATA300 zelfs sneller zijn dan de Intel 750 SSD's.

De write snelheid is namelijk veel sneller dan een traditionele flash cell.

Ik denk niet dat je beseft over welke technologie we het hier hebben.

Dit is fundamenteel anders dan traditioneel flash.
Hoe kun je dat nu zeggen? We weten toch nog niet hoe die producten in de praktijk gaan presteren en in welke situaties het een verschil kan/gaat maken.

Ik zeg alleen dat ik sceptisch ben en eerst de kat uit de bom kijk ;)
Ze zullen het ongetwijfeld sneller maken dan de SSD's doe we nu hebben, maar de vraag is of we dat verschil gaan merken bij gewoon gebruik. (n.b. ik praat hier over de optane SSD als PCIe versie met NVMe, dus niet de DIMM versie die later komt.)

Ik merk zelf namelijk geen verschil tussen mijn oude SATA 600 SSD's met AHCI en mijn nieuwe Intel 750 NVMe SSD. Terwijl de verschillen in benchmarks gigantisch zijn.

[Reactie gewijzigd door Gijs007 op 13 juni 2016 18:37]

Mwah, RAM is nog zoveel sneller, access times zijn veel lager (scheelt meer dan een factor 1000), en ook throughputs zijn nog steeds veel hoger. Vergeet niet dat daar ook nog steeds ontwikkelingen zijn, waardoor het steeds sneller wordt.
Ik zie het uiteindelijk eerder in de CPU verwerkt worden dan naar de harde schijf, eigenlijk. hoe korter de lanes en hoe minder tussenliggende elektronica, hoe sneller, potentieel, dus als je je RAM in je cache-geheugen kan vouwen win je daar een stuk meer mee, dan wanneer je het naar je SSD schrijft. Er zal een sweet spot zijn qua snelheid/hoeveelheid, maar voor de meeste toepassingen zal je volgens mij voor systeemsnelheid meer winnen in lagere doorvoertijd dan in toegenomen beschikbare hoeveelheden.

Zie ook de keuze van AMD om in de Zen-serie een deel van de functies van de Northbridge in de CPU te verwerken. Op een gegeven moment valt niet heel veel (betaalbaar) meer te verkleinen, en zullen er andere optimalisaties gevonden moeten worden. Ik denk dat integratie dan meer mogelijkheden biedt voor efficiŽntieslagen dan het toevoegen van extra hardware.
Nee, dan zou een ssd zo kapot gaan
Kijkend hoe flash geheugen in storage wordt gepositioneerd:
Harde schijven verdwijnen langzaam.
SSD/EFD vervangt de bulk storage op langer termijn
De snelle varianten van SSD/EFD worden gebruikt om werk geheugen uit te breiden op een goedkopere manier. Vergeet niet dat SSD/EFD relatief goedkoop en snel is om RAM uit te breiden.

Momenteel kennen veel storage boxen een soort van layered approach: weinig gebruikte data komt op langzame storage en veel gebruikte data op EFD/SSD. Dit zal in de toekomst ook wel zijn met verschillende typen EFD/SSD.
Ik denk eerder dat dit het einde wordt van de scheiding van opslag en RAM en dat dit het nieuwe RAM wordt met een opslagdichtheid vergelijkbaar met en uiteindelijk vele malen hoger dan bij NAND of een HDD. Vergeet niet dat RAM staat voor Random Access Memory en dat het normaal gesproken zo is dat het RAM geheugen lineair wordt uitgelezen, maar dat het ook mogelijk moet zijn om elk willekeurige address aan te spreken. Bij HDDs en SSDs kan dit niet. Ik denk ook niet dat ze dit als RAM gaan implementeren in de SSD versies van dit product, maar uiteindelijk gaat dit het DRAM vervangen en heb je geen apparte SSD nodig, omdat het non volatile is en omdat het een vergelijkbare opslagdichtheid heeft en elk address kan willekeurig uitgelezen of beschreven worden.
Ram geheugen zal nog wel een hele tijd blijven.
De SSD heeft een belangrijk nadeel. Het aantal schrijfacties per geheugencel is beperkt!
Er zijn nog wel een aantal andere puntjes die nog opgelost moeten worden. De SSD wordt nu nog via een driver aangedreven als een extern device. De hele architectuur moet dus op de schop voordat een SSD dierect als geheugen ingezet kan worden.

De ontwikkeling van RAM geheugen staat niet stil en is nog altijd sneller als de SSD. Een computer gebruikt vaak maar een deel van het geheugen intensief. Voor de minder intensieve taken zou een SSD een mooi alternatief vormen. Nu gebeurt dat nog via een swap-file, maar dat kan natuurlijk ook via een directere adressering, zonder file-controler.
Precies wat ik denk.
Misschien is ssd nu al net zo snel als het trage RAM uit het verre verleden.
Dat wil niet zeggen dat we terug willen naar trager.

Zoals andere schrijven: een hiŽrarchie van steeds kleiner en sneller geheugen blijft nuttig.
Kijk maar naar de cache die in de cpu zit.
Begrijp ik het dan goed, is dit een combinatie van werk en opslag in ťťn?
Zie het eerder als "nog snellere SSD's". Vooral in random read/writes denk ik.
RAM is nog steeds het snelst.
Voor Stony Beach klopt dat idd. Maar omdat ze spreken over system acceleration denk ik niet dat je het SSD-geheugen als opslag kan gebruiken, het is gewoon een soort buffer naast het ram die door het systeem kan worden aangesproken om data weg te schrijven & op te slaan.

Zover ik weet noemt men dit type gehegen Phase change memory.
https://en.wikipedia.org/wiki/Phase-change_memory

IBM heeft gelijkaardige technologie:
http://www.theverge.com/2...through-ram-flash-storage
Altijd al goede ervaringen met Intel SSD's.
Als ze die nu nog meer kunnen verbeteren, dan, laat maar komen!
Ik niet, 3 gehad, alle 3 kapot, en dat waren dus de zakelijke varianten... Heb daarna de samsung variant gepakt, en die draait nu nog steeds zonder problemen..
Klopt. Samsung staat bij mij ook op nr. 1 hoor. Vooral de 850 Pro series. Deze draaien hier ook nog altijd even snel.

Maar deze van Intel, die draait hier ook flink. En goed!
Intel heeft met de 320 corruptieproblemen gehad, maar da's inmiddels een jaar of 5 geleden. Verder staan ze volgens mij wel goed bekend wat stabiliteit betreft.
Ze hebben ook 3x een gigantische firmware probleem gehad.
Dat heeft Samsung ook. Ik ben dan ook van Intel naar Samsung en gauw weer terug naar Intel gewisseld.
Begrijp ik het goed dat je straks gewoon een reepje basis geheugen hebt, laten we zeggen 8GB voor het OS etc.. en dat je dan een losse "ssd" erin hebt zitten die dit geheugen aanvult naar honderden GB's?

Dus ipv dat je nu je systeen naar 32 of 64GB upgrade met ram sticks?
Ik vraag me af of je wel Kaby Lake nodig hebt...NVMe ondersteunen ook de oudere (Skylake/broadwell?) boards...Momenteel zou ik niet inzien waarom dit niet met de huidige generatie zou werken. Maar waarschijnlijk is er iets wat ik voer het hoofd zie.
Daarnaast ben ik zeer benieuwd naar de capaciteiten en de prijzen...
Het einde van RAM zal dit nog niet zijn (daarvoor is het verschil te groot vermoed ik), maar voor numerieke simulaties zou het bijvoorbeeld wel super zijn als je (en daarmee bedoel ik een of ander research lab) honderden GB goedkoop snel geheugen kan gebruiken naast de dure RAM (momenteel moet men het doen met honderden GB aan RAM, wat natuurlijk een behoorlijke prijs heeft). Ten minste als dit geheugen snel goenoeg is voor een aanvaardbare rekentijd (dus indien men ipv een week een jaar nodig heeft met Optane-technology zal dit niet handig zijn, indien men bv. ipv ťťn week 3 weken nodig heeft maar door de verhoogde capaciteit misschien 3 projecten tegelijk kan berekenen dan kan het zeker zinvol zijn)

[Reactie gewijzigd door Clemens123 op 13 juni 2016 11:41]

Een goed gebruik van de mogelijkheden van DAX is voor operating systemen een grote uitdaging.

De huidige opslag technologie is nog grotendeels geoptimaliseerd voor trage en ronddraaiende opslag waarbij queuing disciplines optimaliseren voor thoughput of minimum delay. De huidige file systems optimaliseren daarvoor. De nieuwe opslag kan wel als een typisch (snel) block device door de huidig file systems worden gebruikt, maar de oude optimaliseringen zijn dan op zijn best een beetje overhead terwijl de extra mogelijkheden onbenut blijven.

Om de nieuwe persistente geheugens optimaal in te zetten moet met hele andere zaken rekening worden gehouden. Denk daarbij aan DMA en transactionele aspecten (barriers). Ook zullen sommige APIs voor RAM geheugen niet goed te combineren blijken met persistente opslag. Onder Linux zou dat o.a. de zeer belangrijke syscall mmap() betreffen. Staat me bij dat de huidige memory page meta data structures op DAX een enorme verspilling zou opleveren.

Voor sommige zeer data-intensieve toepassingen is een rechtstreeks gebruik van deze opslag zonder tussenkomst van het OS iets wat te verwachten valt. Denk dan aan grote natuurkundige experimenten als de LHC van CERN of hele grote databanken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True