Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 67 reacties
Bron: DigiTimes, submitter: XWB

Volgens enkele anonieme bronnen zou nVidia van plan zijn de G70-chip met ondersteuning voor SLI op Computex Taipei voor te stellen. Deze beurs gaat door van 31 mei tot 4 juni in Taiwan. Naar verluidt zou de G70 twee keer zoveel prestaties kunnen bieden als het huidige topmodel, de GeForce 6800. De G70-chips worden door TSMC gebakken op 110nm in tegenstelling tot ATi's R520 die op 90nm gefabriceerd wordt, aldus de moederbordbouwers. nVidia had zoals verwacht geen commentaar op deze geruchten en ook de fabrikanten van videokaarten of moederborden wilden niet officieel reageren. Wel wisten de kaartfabrikanten te vertellen dat de G70 ten vroegste tegen het einde van het derde kwartaal verstuurd zou worden en voor 549 dollar in de winkels te vinden zou zijn.

Moderatie-faq Wijzig weergave

Reacties (67)

kan iemand mij uitleggen wat het voordeel is om 110nm te gebruiken??
90nm genereert toch minder warmte enzo??
110 nm is een verder ontwikkeld proces met waarschijnlijk betere yields en dus mogelijk een snellere marktintroductie. 90 nm is op dit moment sterk in ontwikkeling. AMD heeft het nu aardig onder de knie, maar hoogwaardige 90 nm massaproductie is misschien niet goed bij de foundry's van Nvidia voorhanden. Misschien is 90 nm nog wel te schaars bij foundry's om nu al goedkoop te zijn, dat zijn wat redenen die ik kan bedenken. Ze kunnen later altijd nog naar 90 nm overstappen met ditzelfde chipdesign, mochten ze dat willen/kunnen.
Ze kunnen later altijd nog naar 90 nm overstappen met ditzelfde chipdesign, mochten ze dat willen/kunnen.
Dat is volgens mij niet waar, volgens mij moet het design aangepast worden.
En volgens mij heeft hij gewoon gelijk, design hoeft niet aangepast te worden, transistors worden kleiner, die wordt kleiner, spanning zou omlaag moeten en clocksnelheden omhoog, maar verder komt er weinig verschil met kleinere transistors
De Prescott heeft aangetoond dat het helaas niet zo simpel is. Bij 90 nm komen er nieuwe problemenen die je zal moeten oplossen door het ontwerp van je chip aan te passen.
Het probleem bij de Prescott -is- juist dat ze het design hebben aangepast. AMD heeft geen enkel nadelig effect ondervonden tijdens de overgang van 130 naar 90 nm voor één design; de Athlon 64. Had Intel bij de Northwood core blijven gebruiken, eventueel met matige aanpassingen zoals extra cache, dan hadden ze misschien meer succes.
De enige reden zal waarschijnlijk zijn dat de fabrieken die ze tot nu toe gebruikt hebben nog niet voldoende 90nm produktielijnen beschikbaar hebben.
De 6800 reeks is op het 130nm proces gemaakt, dus 110nm is de volgende stap. We hebben het hier over grafische chips, niet over cpu's...
En wat is voor het productieproces het verschil tussen grafische cores en gewone cpu's ?
@ACM

Er zitten kleinere bedrijven achter, de die's zijn groter, er zitten meer transistors op, en meestal lopen ze een generatie productie technieken achter. nVidia en ATi hebben bij mijn weten geen eigen fabrieken, en laten gebruikelijk aziatische bedrijven met afkorting die ik nooit kan onthouden hun chips bakken.
Men optimaliseert het proces steeds meer, wat niet mogelijk is wanneer je steeds overstapt... waardoor er vanalle problemen kunnen ontstaan(kijk naar de Prescott van Intel).
Naar verluidt zou de G70 twee keer zoveel prestaties kunnen bieden als het huidige topmodel, de GeForce 6800.
Een beestachtig grote stap vooruit in prestaties :7 De 6800-reeks zelf verdubbelde al de prestaties van zijn vorige generatie. Kennelijk is er ook een boel ruimte voor verbetering van videochips, immers de Xbox360 heeft zomaar 48 pixelpijplijnen :o. Dan vraag je je toch af hoe snel de videokaarten voor de PC zich dan gaan ontwikkelen :Y)
48 pixel shader cores. Da's niet gelijk aan 48 complete pijplijnen. Ik ken de details niet maar het zou al mooi zijn als er (maximaal) 16 pixels per clock effectief kunnen getekent worden (net zoals de huidige generatie topkaarten). Gezien dit aantal cores is 12 of 24 pixels per clock even waarschijnlijk. En als we prijs en warmteproductie meerekenen zal het wel eerder bij 12 blijven...
Waar haal jij vandaan dat het shader cores zouden zijn? De specs die "gelekt" zijn hebben het over
48-way parallel floating-point shader pipelines
!
c0d1f1ed heeft wel degelijk gelijk, op texutere mapping gebied heeft ook fudo weer een ander aantal pipelines, of zo werd gesuggereerd. In werkelijkheid liegen ze, zoals zei het willen doen geloven kan het helaas niet, enkel om verglijkingen met de NV30 te vermeiden, verpakken ze het zo. Wat hij precies met Core bedoelt is waarschijnlijk een gedeelte binnen de parallel pixel rendering pipeline wat shaders afhandeld, daar heeft de Fudo er 24 van en de XBOX 360 GPU heeft er 48. Er zijn woorden die slechts weinig echte vaste betekenis hebben, core, letterlijk vertaald kern, is er zoeen van.
Als ie volgens jou gelijk heeft, waarom beantwoord je mijn vraag dan niet?
WAAR staat dat het over 48 shader cores zou gaan ipv 48 shader pipelines?

De betekenis van pipeline is namelijk een stuk vaster dan die van 'core'.

Jullie nemen een gerucht, verdraaien vervolgens de termen in het gerucht en gaan dan op basis van die nieuwe termen de fabrikant van leugens beschuldigen. Dat is echt compleet belachelijk.
ook de term pipeline is erg luchtig maar inderdaad een beetje vast staat die wel, en een shader pipeline is uitgesloten, bestaat niet, en het is niet op basis van die termen dat ik iemand ook maar ergens van beschuldig, ze hebben er gewoon geen 48, geen 48 pipelines, geen 48 cores, wel 48 shader units, in een stuk of 16 pipelines, misschien ook wel 8.....
Inderdaad, shader pipelines, als je het zo wil noemen. Feit is dat het aantal shaderbewerkingen dat moderne GPUs kunnen uitvoeren per clock niet gelijk is aan het aantal pixels dat finaal de pijplijn verlaat.

De Geforce 6600 bijvoorbeeld heeft 8 shader pipelines maar kan 'slechts' 4 pixels per clock naar de kleurbuffer schrijven. Deze architectuur wordt bestempeld als 8 pijplijnen, en de performantie scheelt effectief niet zo veel omdat de meeste shaders meerdere clockcycli nodig hebben.

Anderzijds zullen die 48 shader pipelines ook wel ook wel ergens raar geteld zijn. In het beste realistische geval gaat het om 48 vector-units. Nog veel aannemelijker is dat het gaat om 48 afzonderlijke floating-point units. De meeste shaders gebruiken immers niet vaak alle 4 vectorelementen. Je kan het dan ook beschouwen als een geoptimalizeerde 12 pijplijnen.

In ieder geval is het fysisch onmogelijk dat het gaat om 48 volledige pixel-pijplijnen. En dan nog, het is allemaal een gerucht...
Ik noem het geen shader pipelines. De specs noemen het zo. Als jij dan perse over wat anders wilt praten dan wat in de specs staat, waarom zou je dan uberhaupt nog naar die specs kijken?

En wat is dat nou weer voor onzin dat het fysisch onmogelijk zou zijn dat het om 48 volledige pixel pipelijnen zou gaan?
Dat is helemaal niet onmogelijk. Het is alleen maar duur!

Je zou dus kunnen stellen dat jij denkt dat het veel te duur is voor de Xbox360, maar onmogelijk is het niet.

En daar kan ik wel inkomen, want dat vind ik ook vrij veel. Zeker als je bedenkt dat consoles in het verleden nooit zover hebben voorgelopen op PC hardware.

Maar als je er vanuit gaat dat de specs die gelekt zijn op dit punt verkeerd zijn, (of opzettelijk zeer misleidend) heeft het dan nog zin er over te discussieren, want dan zijn we weer terug bij af: dan weten we immers nog niets over dat ding.

In ieder geval gaat het niet over 48 pixel pijplijnen zoals je in je laatste zin noemt, want in een unified architectuur heb je geen aparte pixel en vertex pipelijnen meer.
En dat kan de generieke term "shader pipeline" weer erg logisch maken.

Helaas weten we nu na de launch nog niet veel meer. Afwachten tot een site als beyond3d het ding gaat bekijken.
Houd er rekening mee, dat in de Xbox360 naar verluid een ATI R500-chip zit met die 48 pixelpijplijnen. R520 (Fudo) voor de desktop zal dan toch ook niet veel daarvan verschillen. Daarnaast houden nVidea en ATI elkaar meestal goed bij op prestatiegebied van de top-videochips, dus ik geloof zeker dat we binnenkort een stel prima videochips op de markt zullen zien.
Als je naar de specs kijkt (zoals unified architecture) dan is het erg onwaarschijnlijk dat de R520 daar op zal lijken.
Tot nu toe heeft het er immers steeds op geleken dat ATI "pas" bij de R600 naar een unified architecture over zou stappen.
unified architecture is nauwelijks een spec.
Het gaat om het samen voegen van pixel en vertex shaders binnen 1 shader, klinkt niet eens zo ontzettent groots, bovendien heeft nVidia aanegegeven het niet te zien zitten.

Op enkel basis van unified architecture en een vreeemd gerucht over de R600 baseer jij dat de X360 HPU en Fudo niet om elkaar gaan laten, beetje zwak tegen alle andere dingen die wij gehoord hebben, ht zijn allemaal geruchten, en zoals dat met geruchten gaat, nieuwer is meestal betrouwbaarder, vaker voorkomend ook.
Nauwelijks een spec? Ga je mond spoelen zeg!

Een kaart 32pipelines geven ipv 16 klinkt ook niet zo groots. Maar doe het maar even!

Dat Nvidia en ATI/Microsoft er zo totaal verschillend over denken zou je al te denken moeten geven, dat het wellicht toch wel wat groter is dan jij denkt.

Welk vreemde gerucht over de R600 heb jij het trouwens over? Dat ATI in de R600 graag een unified architecture wil hebben is al zoooooo lang bekend. Als je dat een vreemd gerucht vind dan heb je de afgelopen 2 jaar niet opgelet.
Dat Fudo het hoogstwaarschijnlijk niet zal hebben is al even goed bekend.
Als je dan naar die vermeende X360 specs kijkt dan kun je toch niet anders concluderen dan dat die specs dichter bij de R600 geruchten zitten dan bij de R520 geruchten?
Van 16+6 pipelines naar 48 pipelines is ook een veel te grote sprong voor R520. Totaal niet realistisch.

Zoals je zelf al zei zijn vaker voorkomende geruchten vaker betrouwbaar. Juist daarom is het nog onwaarschijnlijker dat de R520 er op gaat lijken.
Ze maken de laatste 2 generaties wel ineens grote sprongen zeg. Vorige x was het al dubbele performance en nu weer. Hoop dat ze ook verder kijken dan alleen maar te zorgen voor dubbele snelheid. zoals energie, geluid etc.
Verwacht dat deze rond kerst pas echt goed leverbaar is.
Meestal zit daar nogal een paar maanden verschil tussen. Lancering en leverbaarheid.
Ze maken de laatste 2 generaties wel ineens grote sprongen zeg. Vorige x was het al dubbele performance en nu weer.

Fout. Vorige keer was het dubbele performance, nu zeggen ze dat het een verdubbeling van de performance wordt. Dat soort stook-het-publiek-vast-lekker-op praatjes heb ik vaker gehoord en statistisch gezien valt het straks allemaal behoorlijk tegen.
En je weet dat omdat .... je zowel insider bent bij nvidia als ati??? Je komt met statistische onzin af, heb je een steekproef gedaan dan? Onderzoek? Of verzin je maar wat?
Je bent wel erg snel met fout te zeggen zonder ook maar enige onderbouwing.
nou de uitspraken van de verschillende fabrikanten naast de benches die kwaliteitsites als Toms hardware bijvoorbeeld doen stroken met hetgeen meelman zegt. daar voor hoef he zelf geen steekproef te houden maar enkel de ontwikkelingen te volgen.
En die benches zijn zeker wel aan te voeren als statistisch materiaal om je stelling te onderbouwen.
Waar zijn dan die benches van Tom's dan die meelmans uitspraken onderbouwen?

aval0ne zegt namelijk niet dat de vorige keer geen sprake was van dubbele performance, maar dat je absoluut niet kan bepalen of Nvidia en ATI het publiek aan het opstoken zijn met praatjes over de nieuwe kaarten.

Als je naar statistisch materiaal kijkt dan zie je dat ATI bij een nieuwe generatie (R100->R200->R300->R420) steeds dubbele performance heeft gehaald.
Bij Nvidia is in het in verleden soms wat minder snel omhoog gedaan (daardoor maakte ATI steeds wat terrein goed) maar nu gaan ze uiteraard in hetzelfde tempo mee.

Daarmee word de stelling dus juist onderuit gehaald.

Oh en btw, Tom's is absoluut geen kwaliteitsite meer. (Voor graphics is eigenlijk alleen beyond3d nog echt goed)
Ze maken de laatste 2 generaties wel ineens grote sprongen zeg.

Ik heb het idee dat NVidia en ATI de laatste 2 jaar bewust hebben gedaan of ze niets beters konden produceren.

Als je ziet dat de nieuwe Xbox een kaart met 48 pipes heeft op 500 Mhz.
Vraag ik me af waarom een kaart met 4 rops voor meer dan 200 euri in de winkel ligt.
Nieuwe features zou ook geen overbodige luxe zijn. Ook de nu nieuwe generatie gpu's zullen dx9.1 zijn (met mischien een paar uitbreidingen). Dit wordt al de derde generatie op dezelfde standaard.
Ja, inderdaat, kijk alleen maar naar dat DX getalletje, want dat verteld PRECIES wat je kaart allemaal kan,


F O U T !!!!!!!!!!!!!!

DirectX versie nummers geven een klein beetje iets aan, maar lang niet wat een kaart precies kan, en helaas is het alleen een gekozen marketing getal, als ze willen hadden ze het oko wel DX13.1 kunnen noemen.

<EDIT>
even vergeten erbij te zeggen,
DX9.0 en 9.1b/c hebben wel degelijk hele, hele grote verschillen, bovendien is er een kans dat de G70 PSM4.0 ondersteunt, Fudo zal PSM3.0 ondersteunen, nVidia heeft hierin een kleine voorsprong genomen.
</EDIT>

De features gaan best hard vooruit, en we hebben er echt wel wat aan, alleen het duurt zon ongelovelijk lang om een een spel te ontwikkelen, dat van de features die er nu bedacht worden, pas over een jaar 2 spellen zullen zijn.
Inderdaad zit er een heel groot verschil tussen dx9.0 en dx9.1b/c

Dx9.0 bestaat namelijk wel, en dx9.1 bestaat niet. :)

Het wordt nogal eens vergeten dat PS3 en VS3 al gewoon gedefinieert zijn in DX9.0. Ze zijn daarin alleen niet verplicht i.t.t. PS2 en VS2
Sry hoor maar ik vind er momenteel dus echt niets aan. Al die baggerale kaarten van tegenwoordig... Ooit moest ik altijd het nieuwste van het nieuwste hebben, maar dat is me op den duur zo zwaar tegengevallen dat ik daar niet meer intrap. Wat ik de afgelopen jaren nogsteeds de meest interessante GPU ooit heb gevonden is de R300, die zijn tijd echt ver vooruit was. Momenteel zit ik nogsteeds met een R9500@9700 en het jeukt absoluut niet om een nieuwe/betere kaart aan te willen schaffen. Ik denk dat ik vanaf nu niet veel meer ga uitgeven aan mijn PC. Zeker niet zoals ik dat eerst deed. Films speelt ie prima af, 3DS en Photoshop teert toch vooral op je processor, het enige spel dat ik nu nog speel is GTR (Race simulaties bewijzen in elk geval nog hun nut op de PC), voor de kwaliteits-games ben ik sinds een jaar overgestapt op de XBOX en dat wordt binnenkort de XBOX360. Die zal kwa prestaties zover op de PC vooruit liggen dat het upgraden van je PC helemaal geen nut meer lijkt te hebben, traag zal hij toch wel blijven. Daar zou je namelijk echt geirriteerd van raken. Koop je een console van 500 Euro, krijg je daar brute snelheid voor die zijn tijd ver vooruit is, koop je de nieuwste videokaart van 500 Euro, dan schiet je daar vrijwel niets mee op... zo zie ik het momenteel, verschrikkelijk zonde van je geld dus.
mooi, dan hoef je ook niet meer op tweakers.net te komen.

Het spijt mij echt, maar iemand die yich niet meer intresseerd voor vernieuwingen op computer gebeid, hoort hier niet thuis.

Of je de hardware nodig hebt ligt eraan wat je ermee gaat doen of wat je ermee wilt doen, als jij nog niet de limiten van je kaart bereikt (omdat je inferieurre oogjes toch niet het verschil zien dus 1024*768 en 1280*960 met of zonder AA) dan moet je idd geen nieuwe videokaart kopen.

En als je het geld niet hebt, moet je het ook niet kopen.

Oja nog een kleine kanttekening,

4x Dual Core AMD opteron met NUMA (8 cores, 8MB L2 Cache en 25,6GB/s bandbreedte) en 4 6800Ultra's(2 Asus dubble GPU kaarten in SLI) zijn sneller als 1 XBOX 360, theorethisch :7
Ah, dus je mag alleen nog maar op tweakers komen als je echter iedere hype aanloopt?

Maar als je je gezond verstand gaat gebruiken en eens gaat nadenken of een nieuwe technologie wel zinvol is (omdat bv andere onderdelen een bottleneck vormen) dan zit je hier verkeerd?

Soms zou je dat inderdaad denken op de FP, maar ik hoop toch dat het nivo van tweakers.net wel iets hoger is.
Quote:
4x Dual Core AMD opteron met NUMA (8 cores, 8MB L2 Cache en 25,6GB/s bandbreedte) en 4 6800Ultra's(2 Asus dubble GPU kaarten in SLI) zijn sneller als 1 XBOX 360, theorethisch.

4 6800ultra's is onmogelijk.... Asus dubble gpu kaarten kun je er niet twee van in Sli zetten; SLi ondersteunt maar 2 kaarten maximaal. Bovendien: mensen die zeggen dat een XBox360 sneller is dan een computer en zijn tijd vervoruit is zijn gewoon blind. Als deze kaart de snelheid van twee 6800ultra's haalt, is deze kaart in z'n eentje al veruit sneller dan de grafische kaart in de Xbox360.
Stilstand is achterstand :7
Ik vind het sneller als verwacht eigenlijk dat ze met deze kaart komen. Maar een gerucht kan natuurlijk zijn wat het wil, waarheid of niet.

in ieder geval:

de 6800 is toch nog steeds aardig 'in de lift' zeg maar, en dan komen ze met een nieuw model dat deze gewoon even dubbel overtreft.


uitkijken wordt het dus ook naar ATI de komende tijd, wat zij hier als high end tegenover gaan stellen.
Want als nvidea met een nieuwe high end komt die de 6800 reeks goedkoper maakt, moet ati zijn vergelijkbare reeks ook in vergelijkbare prijzen houden. (en dus een nieuwe high end kaart ergens lanceren)
Geruchten komen niet zomaar uit de lucht vallen.

nVidia is natuurlijk allang bezig met deze chip omdat ze anders weinig te doen zouden hebben met de ontwikkelingsafdeling.

Of deze chip al daadwerkelijk zo ver gevorderd is dat ze hem over twee weken al op Computex kunnen tonen is natuurlijk wel een twijfelachtige zaak.

Dat de geForce 6800 Ultra nu rond de 500 euro kost betekent wel dat als deze G70 chip daadwerkelijk in september in de winkels ligt voor 550 euro, dat er binnen vier maanden wel eens een enorme prijsverschuiving zou kunnen ontstaan.

Dat zou dus kunnen betekenen dat de huidige geForce 6200/6600/6800 serie aanzienlijke prijsdalingen zullen ondergaan.
Mij lijkt dat erg vroeg om al meteen met een niewe kaart op de proppen te komen. k had eerder gedacht dat men de kat uit de ATI boom zou kijken om te zien wat er daar gebeurd...

Ook raar vind ik dat er van deze 6xxx generatie geen 'ietsje meer ' variant komt. Iets in de stijl van een 6850 of 6900
dat deden ze vroeger toch wel dacht ik...
ik denk dat ze de kaart al tot zijn uiterste gepusht hebben..

Overbodig? ik geef gewoon antwoord op zijn vraag
Dat twee keer sneller dan de huidige versie ken ik zo langzamerhand wel. dat schreeuwen ze elk jaar als er een nieuwe chip uitkomt, en elke keer blijkt uit reviews dat het toch een heel stuk minder is.

Just my 2 Euro cents...
Je moet ook meerekenen dat de andere hardware en de applicaties vaak niet met meteen met deze performantiesprong meekunnen.

De bottleneck is nu reeds de CPU voor zeer veel spellen, en dus heb je dual-core nodig, maar dan moet weer je programma goed multi-threaded zijn, etc.

Kortom, die kaarten leveren misschien wel de dubbele performantie, maar dat krijg je pas volledig te zien bij een nieuwe generatie CPUs en applicaties. Zo is de Geforce 6800 makkelijk twee maal krachtiger dan de 5800, in een modern systeem en recent spel! Daarenboven, oudere DirectX 8 spellen draaien aan meer dan 200 FPS, daar gaan ze dus geen 400 van maken, maar zich concentreren op de allernieuwste shader-effecten. Daar waar het nodig is.
op dual core ga je op het moment ook niet op vooruit...
er moeten eerst applicaties en spellen voor worden geschreven....
Ten tijden van de GeForce DDR de GeForce 2 GTS en de GeForce 6800 Ultra, schreeuwde ze het niet alleen, het was ook zo........

EDIT:
Zou je anders een voorbeeld kunnen noemen van zo'n aankondigging waarin ze gezegd hebben dat de nieuwe generatie 2 maal zo snel was en ze het niet waar hebben kunnen maken?
Bij de geforce 6800 Ultra was dat dan ook niet moeilijk }>


Edit: dat soort voorbeelden zijn denk ik schaars tot niet bestaand. Het is meestal niet moeilijk om een extreme situatie te vinden (die in de praktijk nooit voorkomt) waarin een nieuwe kaart extreem goed presteert. Dat wordt dan ook massaal gedaan door die PR jongens. Naderhand kan dan niemand ze beschuldigen dat het niet waar was wat ze zeiden.

Uiteraard was het ondertussen wel hardstikke misleidend, maar dat is weer wat anders.

En als je geen extreme situatie kan vinden waarin je kaart in een bench twee keer zo snel is, dan laat je gewoon wat lekken. Zo'n gerucht kan ook niemand je op aanvallen, want je hebt het officieel nooit gezegd.
Werkelijke lancering einde Q3, dan klinkt een paperlaunch op einde Q2 wel aannemelijk. Wel raar eigenlijk want nVidia kan een kwartaal lange ze niet leveren c.q. aan verdienen terwijl de verkoop van de 6800 onherroepelijk ter zal lopen met de bekend making van de G70.
Tenzij ze verwachten dat ATI snel met de R520 komt. Dan wil je wel een paperlaunch doen, want dan wachten mensen tenminste op G70 ipv dat ze R520 kopen.

Zoveel last zal de 6800 verkoop er ook weer niet van hebben omdat de mensen die zo'n ding graag willen hebben 'm waarschijnlijk al wel gekocht hebben. Die dingen dalen ook niet erg in prijs, dus zoveel nieuwe gegadigden komen er dan niet.
Je kan straks beter je pc laten draaien op je GPU dan op je CPU... }>

Lijkt het nou zo of gaat de ontwikkeling van GPU veel sneller dan die van CPU?
Op een GPU kan je vrij makkelijk heel veel pipelines langs elkaar gooien, iets wat voor een CPU heel moeilijk is. De GPU is ook bijna één grote FPU. (Aantal Hz op GPU ligt ook ietsjes lager dan op een CPU)
Maar de tijd dat elk jaar 2x zo snelle procs uitkwamen is idd beetje voorbij, maar dual core zal daar (met goeie software) wel weer een lift aan geven.

De Cellprocessors die in de PS3 komen lijken wel een beetje als GPUs die als CPUs werken maar verwacht dan niet dat je x86 erop kan draaien.
tegenwoordig, als je een Dual Ultra hebt met een 3000+ processor dan merk je al in 3D mark dat dat een best bottleneck is..
Als je 2 Ultra's kan kopen waarom zou je dan niet iets duurders/beters als een 3000+ kopen..Alhoewel je natuurlijk wel zou kunnen OCén. Ik zou in dat geval wel voor een FX gaan denk ik, vanwege de unlocked multiplier. Echter dan misschien wel proberen 2e hands want 800 euro voor een processor, sorry, maar ik vind het nogal wat..
Mja dat zijn die 2 Ultra's ook samen, dat dan weer wel ;)

Is 't niet dat alle consolegames op de computer gemaakt worden en dus per definitie die computers altijd gelijkwaardig/beter zijn als consoles? Geen idee hiervan eigenlijk, ben al jaren console-af.
Sowieso zijn supercomputers }>altijd sneller als de snelste/nieuwste consoles (zeg het maar...klepel horen hangen en alles..ik weet het..)
8 jongens,

maak je nou niet zo druk van avond om 19:30 op MTV kun je kijken hoe de XBOX360 draait en vergeet niet vergelijk nooit een console met een pc. Vind ik net zulke onzin als amd met intel vergelijken

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True