Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties
Bron: DigiTimes

nVidia logo (60 pix)Volgens verschillende fabrikanten van videokaarten zal nVidia halverwege november de eerste DirectX 10-videokaart introduceren. Bij introductie zullen er twee verschillende varianten van de G80 ge´ntroduceerd worden, de GeForce 8800 GTX en de GeForce 8800 GT. De exacte specificaties zijn nog niet bekend, maar de recentste geruchten spreken over een unified shader architectuur en 768MB GDDR4-geheugen met een 384-bit brede bus. Verder zal de kaart een nieuw type anti-aliasing ondersteunen en zal de core maar liefst 700 miljoen transistors bevatten, ruim tweemaal zoveel als de G70. In de komende maand zal er ongetwijfeld meer duidelijkheid komen over de specificaties van de G80. Ondertussen vragen de videokaartfabrikanten zich af hoe groot de vraag naar de GeForce 8800 initieel zal zijn. Gezien het feit dat DirectX 10 alleen gebruikt kan worden in combinatie met Vista en er op het moment nog geen DirectX 10-games beschikbaar zijn is het de vraag of de consument al zit te wachten op een DirectX 10-videokaart.

Moderatie-faq Wijzig weergave

Reacties (90)

Ondertussen vragen de videokaartfabrikanten zich af hoe groot de vraag naar de GeForce 8800 initieel zal zijn. Gezien het feit dat DirectX 10 alleen gebruikt kan worden in combinatie met Vista en er op het moment nog geen DirectX 10-games beschikbaar zijn is het de vraag of de consument al zit te wachten op een DirectX 10-videokaart.
Tsja, toen de Radeon 9700 uitkwam zat je in een vergelijkbare situatie... De kaart ondersteunde DX9.0, maar DX9.0 was nog niet uit, laat staan dat er software was die er gebruik van kon maken.
Toch was de Radeon 9700 een gigantisch succes, ten eerste omdat ie voorbereid was op de toekomst, en ten tweede omdat ie ook in de oudere DX-versies gewoon supersnel was en geweldige beeldkwaliteit leverde.

Als ik hoor dat dit ding meer en sneller geheugen krijgt, en een nieuw soort AA, lijkt me dat deze kaart ook sneller en mooier wordt in DX9, dus ik denk dat hij wel populair wordt, als hij niet belachelijk duur wordt dan.
Of het supersnel DX9 kan weergeven is niet gezegd.

DX10 is namelijk niet op DX9 gebaseerd. Het moet geemuleerd worden.
de dx10 specs zijn wel op dx9 gebazeerd.
alleen de software van dx10 is compleet opnieuwe opgebouwed, en is daarom niet meer 1 op 1 compatible met dx9.
die emulatie layer is niet persee negatief trouwens, de wow32 layer in windows64 is ook erg efficient, en met de verhoogde efficientie van de dx10 software kan het zelfs in theorie meer prestaties leveren als de hardware gelijk is, zelfs met een dx9 kaart.
Het API moet geemuleerd worden, de hardware niet. Emuleren wordt hierdoor nogal een beladen term, terwijl het kwa performance niet zoveel hoeft te kosten.
niks van waar, onder WindowsXP zal ELKE kaart native DX9 draaien (want er bestaat geen DX10 voor WindowsXP)
nVidia zal dus gewoon een driver uitbrengen zoals die vandaag al bestaan met native support
er is dus geen enkele reden denkbaar waarom deze kaart trager zou zijn dan de huidige kaarten, integendeel: ze heeft meer en efficientere pipelines
Haha, dx10 is gewoon een uitbreiding van dx9.
onder tweakers word hij iniedergeval populair (of de ATI tegenhangers anders) want die zitten al maanden te zeuren "heeft het nog zin om een dx9 kaart te kopen?"
onder tweakers word hij iniedergeval populair (of de ATI tegenhangers anders) want die zitten al maanden te zeuren "heeft het nog zin om een dx9 kaart te kopen?"
Klopt... Ik heb voor m'n Core2 Duo 'maar' een 7600GT besteld, omdat ik van plan ben om binnen korte tijd te upgraden naar een DX10-kaart.
de reden dat ik nu nog wacht met de aanschaf van een high end videokaart is dat er nog geen dx10 ondersteuning geboden wordt. Het is mijns inziens zonde om zo’n 400-500 euro uit te leggen voor een high end dx9 videokaart waar je over 2 jaar in feite niet veel meer aan hebt omdat dan vista verschenen is met talloze dx10 games.
Hey, da's nog steeds mijn videokaart in mij XPS laptop.
En ik kan nog steeds gamen! Deze eerste dx9 kaart doet het met zijn 8 pixel shaders het nog heel goed. Het wordt idd. tijd voor wat nieuws. Guess what, dat zal waarchijnlijk een G80Go worden, want dan weet ik dat ik een hele tijd meekan!
Laptop met 300W voeding dan zeker :P
Accutijd van een kwartier ofzo.
vergis je niet in de 9700 mobile gpu... da's een sneller geclockte 9600, dus iets heel anders dan de desktop 9700 gpu. Deze laatse had namelijk meer pixel pipelines bovenop de hogere frequentie, en das niet zo met de mobile versie... daarom is de snelheid van een 9700 mobile niet te vergelijken met zijn grotere broer de 9700 desktop versie... veel mensen denken dat deze hetzelfde zijn terwijl de architectuur compleet anders is...

As you no doubt expect, the Mobility Radeon 9700 is based on the R360 architecture; its desktop brother being the Radeon 9600 XT.
bron : http://www.anandtech.com/mobile/showdoc.aspx?i=1957&p=2
Ik betwijfel of de eerste DirectX 10 kaarten zullen aanslaan.

Er is niet echt een goede reden om een DirectX 10 kaart te moeten hebben tenzij je developer bent.

Voor Vista zou je het niet moeten willen kopen en games zal ook nog wel tot minimaal halverwege 2007 duren voordat we iets van DirectX 10 features gaan zien (op een paar games uitgezonderd misschien ala Flight Simulator X).

En tegen de tijd dat er games zijn die DirectX 10 fatsoenlijk ondersteunen zijn er alweer betere/goedkopere kaarten.

//edit: wel zonde wat Nvidia doet kwa marketing imho, DirectX 10 zou je beter een getal vanaf 10000 kunnen nemen voor de nieuwe kaarten om beter op te vallen of beter nog gelijk een nieuwe/passender naam eraan meegeven i.p.v. die hoge getallen.
Ik denk dat men te veel zeuren over DX10, daar is dat kaartje niet alleen voor bedoeld. DX9 zal er prima op werken, beter dan de huidige hardware (mag ik aannemen). Het zal waarschijnlijk bij de hardcore gamers aanslaan omdat zij zeer waarschijnlijk weer records zullen verbreken. En daar is deze kaart op gericht. De meeste mensen zullen genoeg hebben aan de 8300 en 8600 versies. Zelf wacht ik op de 8950GT ( als die ooit komt)

DX10 komt later wel en ik vind dat dat niet met elkaar samen moet hangen. DX10 is leuk maar zal zeker een jaar of meer duren voor je top games hebt met DX10 ondersteuning. De games die volgend jaar uit gaan komen zullen niet allemaal optimaal gebruik van DX10 gaan maken, dus waarom al die heisa?
Vind ook dat het inderdaad wat raar geinterpreteerd wordt de laatste tijd. We liepen voorheen helemaal niet vreemd te kijken als een kaart nieuwe DirectX feutures ondersteunt, maar nu met DX10 lijkt het ineens een ander verhaal. In de hardwarelaag is er niet zo gek veel anders, er zijn gewoon nieuwe instructies toegevoegd. Het wezenlijke verschil aan DX10 is dat de softwarematige kant ervan ANDERS is als die van de voorgaande DX versies. Echter voor de videokaart is het niet meer dan een stel extra instuctiesets die verwerkt kunnen worden bovenop de al bestaande instructies van alles voorgaande DX versies. DirectX9 onder WINXP zou zelfs best instaat zijn om deze nieuwe functies aan te spreken en de grafische pracht ook te laten zien. Echter de DX10 veriant uit Vista is efficienter en kan daardoor sneller met de kaart communiceren waardoor ALLES (of dit nou DX9 of DX10 games zijn) sneller zullen draaien dan onder WinXP.

Deze 8800 is natuurlijk sowiezo sneller dan zijn voorganger en natuurlijk kan je gewoon je huidige games er mee spelen onder WinXP met minimaal 50% extra fps tov de toprange kaarten van nu. En deze is ook helemaal niet nutteloos, want zelfs de beste kaarten momenteel hebben moeite de nieuwste spellen in extreem hoge resoluties te draaien met bijvoorbeeld 4xAA/16xAF.

Ik ben het overigens met je eens dat de nieuwe functiesets van deze videokaart die onderdeel uitmaken van DX10 niet zo bijster efficient 'zouden kunnen zijn'. Dit geld namelijk in veel gevallen ook voor Shader Model 3.0, heel leuk en aardig, maar de performancehit is duidelijk te merken bij gebruik van deze nieuwe shadertechnieken. Net zoals voorheen de FX serie ook zo beroerd was in DX9 t.o.v DX8 instructies. ATi had overigens wel supergoeie DX9 performance met de R300 core. Het kan best zijn dat deze G80 wel heel erg futureproof is net als de R300 dat ooit was, hoewel DX10 nog niet echt benut wordt zou het kunnen dat deze er wel erg goed en efficient mee overweg gaat en dat we met een G80 in ons bezit extra voordeel halen uit Vista ten opzichte van de oudere kaarten.

Ik ben in elk geval wel erg benieuwd naar de prestaties van deze kaart onder Vista
Wellicht hadden de beelden die DX9 op het scherm tovert, zeker als ze wat extra instructies aan DX9 hadden toegevoegd best even mooi kunnen zijn als straks bij DX10. Echter er is eenvoudigweg niet voor die oplossing gekozen.

DX10 is niet hetzelfde als DX9 met een paar extra instructies.

DX10 is namelijk compleet anders dan DX9 en is van de grond af opnieuw geschreven. De benodigde hardware is ook compleet anders van opzet met haar Unified structuur van de pipelines.

De impact voor zowel de software en hardwareindustrie is daaromveel ingrijpender dan jij suggereert en daarom is er ook zoveel ophef over.
Alles zal goed komen in November....

Voor Sint alvast een nieuw Nvidia 590 MBtje met een Quad coortje en twee 8800 GTX'jes in SLI reserveren.

Nu eerst nog even sparen, kan er ook een 30" apple cinema display bij , die kosten nu nog maar Ą2100.

Ook meteen maar even de huurbaas bellen, dat ik voortaan geen hur meer kan betalen, en dat hij de verwarming alvast maar afsluit....ik heb dan mijn eigen kacheltje.

Maar nieuwe performce records zal ie wel neer zetten.
"snap" en toen ging het licht weer aan werd te waker

goede morgen...... :+
Komt ie ook uit op AGP :P :+
ik dacht alleen isa
ik hoop alleen dat hij niet zoveel stroom gebruikt als beweert word.
dan moet ik weer een nieuwe voeding kopen :(
...is het de vraag of de consument al zit te wachten op een DirectX 10-videokaart.
Hij "schijnt" dubbel zo snel te zijn als een 7950GTX, ook in Dx9. Uiteraard zitten hier genoeg mensen op te wachten.
Als ik nog eerstejaarsstudent was en een woning huurde inclusief electra dan zou ik dit wel halen. Kost toch nix extra in dat geval. Gewoon 24/7 aan laten staan en ook overklokken.
als ik nog student was had ik geen geld voor high end videokaarten..
Dan zou je vast geen student milieukunde zijn
ik merk dat mijn gx2 is gelimiteerd door de processor: Pentium D950.

in bijvoorbeeld 3dmark2006 zie ik geen verschillen als ik de videokaart overklok, maar wel een enorme toename als ik de CPU overklok.
dus ik denk dat deze nieuwe kaart voor dx9 zeker niets toevoegt als je geen beest van een cpu/geheugen erachter hebt zitten.
Dan vergeet je even dat de nieuwe kaart - behalve hogere kloks - veel meer shader pipelines heeft. Goed, het zal dan wel geen factor 2 schelen als je CPU onvoldoend meewerkt, maar er zal wel een verschil zijn, zeker op hoge resoluties en in de hoogste kwaliteit.
dat is het geruchten circuit, van alle geruchten over de 7800 en de 7900 klopte ook geen bal, nvidia lekt niet, gewoon afwachten dus op de eerste echte reviews
ik vermoed dat hier een externe voeding meegeleverd wordt...

heb hier een asus 7800gt dual, en die heeft ook zo'n externe voeding....is maar een heel klein/licht kastje (12volt/6.6 ampere)

maar op de kaart zitten ook 2 molex aansluitingen, waar ie ook op werkt als je voeding sterk genoeg is

voor de overklokkers is het wel handig natuurlijk, zo''n externe voeding....dat ontlast de ''normale'' voeding een beetje :)
6,6 Amp is geen probleem voor een redelijke voeding (450 watt en hoger van een goed merk), die leveren meestal 25 amp of meer op de 12v lijn.
Heb hier een 300 watt voeding die 't ookwel moet redden. Hij red in ieder geval een 7950.
Of gewoon geen videokaart ;-)
ik hoop alleen dat hij niet zoveel stroom gebruikt als beweerDDDDDDD wordTTTTT.
Typisch ... eerste post en al direct weer dat geklaag over het hoge stroomverbruik terwijl daar nog niets over geweten is.
Wie verplicht jou om zo'n kaart te kopen? Er zijn toch genoeg zuinige kaarten op de markt? Het is toch logisch dat de topkaart het meeste stroom zal verbruiken, da's met cpu's ook zo.
Binnen kort zijn warmte ontwikkeling en stroom verbruik niet meer de enige aspecten waar we ons druk over moeten maken.Let eens op de lengte van deze kaarten. Mijn 7800gtx pas nu al amper in de kast, hoe dit met een 8800gtx moet gaan lukken vraag ik me dan ook af. Maar ze hebben er warschijnlijk op gerekend dat iemand die deze kaart koopt ook een kast heeft die groot genoeg is.
Beetje raar om er vanuit te gaan dat elke nieuwe kaart standaard groter zal zijn. Sinds wanneer is dat het geval? er zijn imho al kaarten geweest die veel groter zijn dan de kaarten van nu, zelfs heel vroeger al met VESA Local Bus kaartjes etc.
Door meerdere lagen PCB te gebruiken of kleinere productieprocessen etc kan je een kaart al weer een stuk kleiner krijgen. Het zou goed kunnen dat de 8800 juist weer ietsje kleiner is. Who knows!?, maar er van uit gaan dat elke generatie groter zou zijn hadden we nu wel kaarten van ruim een meter lang gehad :+

Of nog zo een, Gravis Ultrasound MAX anyone? O+
Hoe weet je dan dat de kaart nog groter gaat worden? En als je dan toch gelijk hebt, koop dan gewoon een kleinere kaart.
sorry.. dubbelpost :(
Vraag me alleen af of deze kaartjes op dit moment nou nog geen overkill zijn voor al de bestaande machines.

en dan heb ik het niet over de nieuwe core 2 systeempjes maar de wat oudere zoals P4 HT en Intel Core duo!!
zeker niet, want ook op DX9 gebied zou dit een killer moeten zijn voor de huidige generatie kaarten. dat er een hele hoop die-oppervlakte is gereserveerd voor DX10 wil niet zeggen dat die geen DX9 meer aan zou kunnen, integendeel
Wel 650 euro uitgeven voor een videokaart maar dan geen Core 2 Duo?
Doorgaans ondersteunen de bordjes waarop de meeste P4's zitten geen PCI-E. Die zijn meestal nog AGP, dit wordt geen AGP kaart denk ik.
Sinds wanneer zijn P4 borden geen PCI-e ? Volgens mij moet je ondertussen zoeken naar een bord dat geen PCI-e is, zelfs als het een P4 bord betreft ............ tenzij ze al meer dan een jaar geleden zijn gestopt met het produceren van P4's.

PCI is al reeds sinds een jaar werkelijk uit, die borden worden echt nog mondjesmaat verkocht en zijn dan in de regel gewoon al uitgefaseerd en niet meer in productie.
Ik ben erg benieuwd hoe ze al dat grafisch geweld koel willen gaan houden met lucht. Kaarten zoals de X1900XT en 7900GTX hebben het al aardig moeilijk om met lucht koel te blijven.

Als het zo door gaat ben je binnenkort misschien wel verplicht waterkoeling te gebruiken.

Ik ben ook wel benieuwd hoeveel sneller deze kaarten gaan worden tegen over hun oude broertjes in DX9.
Mijn X1900XT is anders 46 tot 74 graden, daar lijkt me nog rek in te zitten als ie 120 aankan.
Precies ik wilde net zeggen, ik vind de G71 toch echt niet warm worden hoor! Heb zelfs net mijn 7800GS AGP van 375 naar 575MHz geclocked, hoezo sick :). en hij wordt onder full load nog niet eens 60 graden met volt mod en al.

De eerste 3d kaartjes kon je niet eens aanraken, dat was standaard 80 graden oid.

Als je oplet zie je dat de geschiedenis zich steeds weer herhaalt. Productieproces wordt totaal uitgemelkt tot hij zo veel energie verstookt dat het belachelijk wordt, en vervolgens komt er weer een nieuwe procede en alles is weer zuinig, koel en stil. Tot dat deze weer uitgemelkt wordt. En elke keer weer gaan mensen zeuren. Je hebt nogsteeds een keuze hoor, het hoeft niet in je PC, maar het fijt dat alles wat eventueel MOGELIJK is toch geproduceerd wordt (ook al loopt het verbruik de spuigaten uit) is helemaal niet erg. Deze tak van ontwikkeling zit imho tegen de LIMITS aan van wat mogelijk is met de huidige elektro. Er zullen altijd extreme kaarten blijven, om 2 simpele redenen, het is mogelijk en er is vraag naar.
Dat is al bekend volgens een bericht van afgelopen week:

nieuws: Mogelijk eerste foto's van nVidia G80 verschenen

De aansluitingen voor waterkoeling zijn al standaard aanwezig op de kaart!
ndertussen vragen de videokaartfabrikanten zich af hoe groot de vraag naar de GeForce 8800 initieel zal zijn. Gezien het feit dat DirectX 10 alleen gebruikt kan worden in combinatie met Vista en er op het moment nog geen DirectX 10-games beschikbaar zijn is het de vraag of de consument al zit te wachten op een DirectX 10-videokaart.
gek dat ze zich dat afvragen... aangezien Vista zelf zal profiteren van DX10 (mooiere features IN windows zelf zoals b.v. aeroglass (wat ook met DX9 kan maar ook nog geavanceerdere desktops niet dat IK daarop wacht maar zat mensen wel.

verder is er nog nooit een DX versie geweest waar meteen spellen voor waren :? ok het is nu nieuw dat je Vista moet hebben maar volgens mij wachten vele mensen juist met upgraden tot de DX10 kaarten en of Vista er is.

ook heb ik ergens gelezen (helaas weet ik niet waar) dat nVidia veel beter gaat presteren in DX9 dus dat is sowiezo lekker.

ten slotte de kaart is immers al (zo goed als) af, waarom wachten? ze hebben JUIST het voordeel dat de R600 van ATI later komt dus veel mensen zullen nVidia kiezen!
(wat ook met DX9 kan maar ook nog geavanceerdere desktops niet dat IK daarop wacht maar zat mensen wel
WELKE nog geavanceerdere desktops?
Voor zover ik weet zijn er geen DX10 only features in Aero?
die kunnen toch komen :*) dat bedoelde ik ermee... daarnaast zou aeroglass eigenlijk DX10 vereisen maar dat is veranderd. maar er zullen heus wel nieuwe komen als DX10 er is :)
Direct3D 10 is qua mogelijkheden bijna identiek aan Direct3D 9. Het brengt wel een nieuw driver-model met zich mee en de interfaces zijn beter voor de programmeurs en voor de hardware. Maar echt nieuwe graphics moet je niet verwachten.
de snufjes zitten hem idd niet direct in de graphics, maar toch kunnen met een hoop van deze nieuwe features effecten op je scherm getoverd worden, op een efficiente manier, die hiervoor nog niet mogenlijk waren door de vele grotere programeerbaarheid van de GPU, en in het bijzonder de shaders.
of het er veel zullen zijn is nog maar de vraag. Ik denk dat er ook een hoop mensen zullen willen afwachten wat ATI brengt. Zeker als de G80 toch niet unified blijkt te zijn.
Wordt er niet een beetje teveel geluisterd naar geruchten, en te weinig naar Nvidia zelf en gezond verstand?

Nvidia heeft steeds om het hardste geroepen dat ze absoluut geen unified architecture gaan gebruiken.
Uiteraard moeten ze wel softwarematig UA ondersteunen, omdat DX10 dat voorschrijft, maar ze zijn zo ongelooflijk stellig geweest dat ze dat niet in hardware zouden doen, dat ik toch wel erg verbaasd zou zijn, als ze dat toch wel hebben gedaan.

Dat het gebrek aan DX10 juist voor Nvidia een probleem zou zijn, lijkt mij uiterst onwaarschijnlijk. Bij Nvidia zijn nieuwe features zoals DX9 of DX10 altijd checkbox features geweest. (Dat is al vanaf de TNT zo geweest)
Daarom ook dat ze nog niets voor een unified architectuur voelden. De kaart moet met name goed zijn in DX9 en zou daarom ook aparte pixel en vertex shaders krijgen, en pas in tweede instantie komt dan DX10. Wat het eerste jaar toch nog vrijwel niet gebruikt zal worden.

En dan ben ik erg benieuwd naar dat nieuwe type anti-aliasing. We hebben nu toch wel zo ongeveer alles gehad dacht ik? Edge, MSAA, SSAA, TRAA... Of zouden ze nu ook temporal AA introduceren?
Nvidia heeft steeds om het hardste geroepen dat ze absoluut geen unified architecture gaan gebruiken.
Neen hoor, hebben ze nooit expliciet gezegd. Maar zo heeft de geruchtenmolen het overgebracht.

Het kan ook dat ze een vrij revolutionaire architectuur zullen hebben, die moeilijk als unified of non-unified bestempeld kan worden (hybride hebben ze zelf al in de mond genomen geloof ik). Zo kan ik mij voorstellen dat een klassieke texture unit tijdens vertex processing zo goed als ongebruikt blijft, terwijl een architectuur met afzonderlijke bewerkingen voor geheugentoegang en filtering wel alle componenten kan gebruiken... bijvoorbeeld.

Daarbij, ze hebben bijzonder veel tijd gehad om zich voor te bereiden op Direct3D 10 en Vista, dus ik geloof niet dat deze kaart hoofdzakelijk nog voor Direct3D 9 bedoeld is. De featureset scheelt niet eens zo veel. Dus ik verwacht echt een Direct3D 10 volbloed.
Ze hebben het wel degelijk zo expliciet gezegd.
Ze hebben letterlijk gezegd dat zij pas overgaan naar UA hardware wanneer zij dat nuttig achten, en dat dat wat hun betreft voor de G80 generatie nog niet zo is. (uiteraard dan in het engels :))

Daar is niets aan verminkt door de geruchtenmolen!

Nogmaals, je moet er rekening mee houden dat de eerste tijd er amper DX10 games zullen zijn, en dat het voor Nvidia dus belangrijker is, dat het ding de DX9 benchmarks wint, dan dat ie 1 theoretische DX10 benchmark wint.
Nvidia heeft altijd op die manier geredeneerd.
WTF! Nvidia doet nu al 2 jaar aan uitstel van de G80. Deze zou in eerste instantie in dec. 2004 uitkomen. De G70 core is(en was al) aan de oude kant. Je gaat me toch niet vertellen dat ze al die tijd niets anders hebben gedaan als een "softwarematige dx10" ondersteuning bouwen op een dubbele 7950 core(qua ps en vs's).

Maar ja, het verbaasde me ook al toen AMD 4 maanden gelden pas in actie kwam, nadat al meer als een jaar bekend was, dat Intel met de core2duo uit zou komen.
Wat een onzin. De G80 is een DX10 kaart, het heeft dan ook geen zin om 2 jaar voor de introductie van DX10 een DX10 kaart uit te brengen.
Heb jij een link waaruit blijkt dat AMD pas 4 maanden bezig is om een antwoord te bedenken voor de core2duo?

Er zit heel erg veel verschil tussen wat bedrijven zeggen en naar buiten bringen en wat er werkelijkheid is.
Sony, Intel en Nvidea roepen van te voren vaak dat ze nu met iets geweldigs bezig zijn dat het tig keer sneller gaat worden als de wereld ooit heeft gezien en meer van dat soort geblaat en als puntje bij paaltje komt zijn ze gewoon een paar procent beter als het vorige model. Het valt dan ook meestal tegen wat er uiteindelijk uitkomt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True