Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties
Submitter: player-x

Op internetfora zijn de eerste foto's van AMD's komende Radeon HD 6000-kaarten verschenen. Ook komen er steeds meer details over de nieuwe lijn van grafische kaarten, waarvan het eerste model al op 25 oktober zou verschijnen.

De foto's zijn opgedoken op de Chinese website Chiphell. Het gaat om een model met de gpu die de codenaam Cayman draagt en dat als HD 6870, 6850 of 6830 moet verschijnen. Dit model beschikt over twee dvi-, twee mini-displayport- en een enkele hdmi-aansluiting. De kaart is door zijn rode lijnen en ventilator wat uiterlijk betreft vergelijkbaar met de huidige HD 5800-modellen.

De andere kaart waarvan foto's zijn verschenen betreft een Radeon HD 6300-model, dat een Caicos-gpu gaat bevatten. Dit model is voor de low-end en bevat een gpu die passief kan worden gekoeld. Uit een gpu-z-screenshot blijkt verder dat de kaart 1GB ddr3-geheugen heeft en dat de kloksnelheden van de core en het geheugen op respectievelijk 650MHz en 1600MHz liggen.

Alle HD 6000-kaarten worden nog op 40nm geproduceerd en AMD heeft bij het ontwerp van de chips voortgeborduurd op het ontwerp van de gpu's van de HD 5000-lijn. De Cayman-kaarten zouden een geheugenbus van 384bit krijgen, terwijl de Caicos-modellen het met een bus van 64bit moeten doen.

De eerste kaarten die gaan verschijnen zouden echter de HD 6770 en HD 6750 zijn, die de HD 5830 en HD 5770 moeten vervangen. Deze nieuwe mainstreamkaarten krijgen respectievelijk de Barts XT- en Barts Pro-gpu's. Volgens SemiAccurate houdt AMD op 12 oktober een evenement rond de lancering, maar komen de kaarten pas omstreeks 25 oktober op de markt. Later in het jaar moeten de HD 6800- en HD 6900-kaarten voor de high-end verschijnen, terwijl begin 2011 de low-end moet worden bediend.

Uit zowel de foto's als het bericht op SemiAccurate valt op te maken dat de chips groter zijn dan de huidige modellen die ze moeten opvolgen. De grote vraag is daarmee in hoeverre de prestaties en het verbruik zijn toegenomen.

Radeon HD 6000 Radeon HD 6000 Radeon HD 6000 Radeon HD 6000 Radeon HD 6000 Radeon HD 6000 Radeon HD 6000 Radeon HD 6000 Radeon HD 6000
Moderatie-faq Wijzig weergave

Reacties (109)

Ben nu al benieuwd naar de benchmarks van de 6k kaarten. Ben ook benieuwd waar nVidia mee gaat komen. Hopelijk even goede kaarten met physx, dan kan ik weer nVidia kopen :D.
nvidia-only physx gaat dood.

direct compute of openCL physics zal niet zo heel lang meer op zich laten wachten.

en nvidia is pas net klaar met de 4xx serie helemaal te voltooien van enthousiast to budget. het gaat nog maanden (6-9? misschien meer) duren voor er een volgende generatie van nvidia klaar is.
zolang nvidia geld heeft aan developers om phsyx te gebruiken in hun games, zal het niet snel uitsterven.
En dat weet jij door? Hoe kun jij voorzien wat er met Physx gaat gebeuren?
logica.
zou jij iets in je game stoppen dat maar door ongeveer de helft van je public gebruikt kan worden als er alternatieven zijn die werken bij 100% van je klanten?
Hetzelfde zag je met tesselation, waar ATI eerder mee was. Je zag het niet in games terug totdat jaren later ook nVidia het ondersteunde.
Ik raak door die naamgeving alleen maar in de war. Kunnen ze niet gewoon beginnen met jaartal, range(low-mid-highend evt met een 1 2 en 3), en dan nog iets van een logisch typenummer dat gewoon ergens in de lage regionen ligt. Wat heeft het voor nut om over te stappen op de 6000 range als je meteen alweer bij nummertje 6900 zit.

Verder wel goed om te zien dat de ontwikkeling niet stil staat, ben zelf nog geen uber fan van amd kaarten (ivm linux ondersteuning die het gewoon nog steeds laat afweten zei het steeds minder tov die van nvidia), maar ze zijn goed aan de weg aan het timmeren, zowel fysiek als softwarematig.
Die naamgeving doet juist grotendeels wat jij wilt.

Eerste getal is de generatie. Dus van 4 naar 5 naar 6. (stuk handiger dan jaartal)
Het tweede getal geeft nu al de range aan:
7 budget
8 mainstream
9 high end
En het volgende getal maakt nog een verdere onderverdeling.

Een super high-end kaart uit de 6 serie krijgt daarom dus een 6900 nummer.
En als er meerdere modellen in komen, dan worden dat 6950, 6970 en 6990.
Meer ruimte hebben ze niet nodig.

Wil je zowel goede prestaties als een relatief lage prijs, dan weet je van tevoren dat je naar een ..850 of ..870 model moet gaan. 4850, 5850 en nu 6850.

Een hele logische en overzichtelijke naamgeving dus.
Ik vraag me af waarom zowel de 68xx en de 69xx een geheugenbus van 384 bit hebben.
Als dit waar is en ze inderdaad voor 384 bit gaan krijgt de 69xx serie dus 2x384 bit.
Als je naar afbeelding 9 kijkt kan je dit zien.
krijgt de 69xx serie dus 2x384 bit.
Oké dan is het logish voor mij.
Als ze de 6970 een multi-GPU kaart wordt zoals de 5970 bestaat uit 2x 5850, lijkt het me praktisch dat de 68xx en 69xx serie dezelfde geheugenbus hebben.
Een 5970 heeft 2 5870 GPU's die op de klokfrequentie van een 5850 draaien. Het verschil in klokfrequentie kun je er zelf bij klokken. Het verschil in aantal stream processors is iets lastiger zelf erbij te hobbiën. Het is dus eerder een dubbele 5870 dan een dubbele 5850...

[Reactie gewijzigd door brute51 op 7 september 2010 18:27]

Lijkt me logisch. Op het moment dat je het geheugen niet sneller kan maken, of er is niet een variant die meer bits tegelijk kan verwerken (bijv gddr5 ten opzichte van gddr3), dan moet je wel de geheugenbus vergroten om de bandbreedte te verhogen. Blijkbaar is dat nodig om de chip van genoeg data te voorzien.

Ziet er overigens niet verkeerd uit. Ik hoop dat ze een beetje zuinig zijn want de die ziet er niet heel klein uit.
Eerst even de grootste bedreiging van Nvidia aanpakken dus, de gtx 460. Interessant dat de geheugenbus van 256 naar 384 gaat. Dat ze op 40 nm blijven lijkt me logisch na de aanloopproblemen die ze daarmee gehad hebben, stap je niet over naar 28 nm op het moment dat je het proces eindelijk onder controle hebt.
Hoe bedoel je dat precies, en waarop baseer je dat dit meteen een dreiging is voor de GTX460? Er is nog geen prijsinfo bekend, als deze chips bijvoorbeeld schreeuwend duur worden zie ik ze niet zo snel de GTX460 uit de markt drukken, en als ik de specificaties geloof en AMD voortborduurt op de performance/naamgeving van de 5xxx serie, lijkt me dat dit segment een stuk meer richting high-end dan value for money aanloopt.

Met de snelheid waarop de chips nu de markt op worden gemikt moet ik trouwens zeggen dat ik wel kan wachten tot de HD7xxx serie er is...

[Reactie gewijzigd door Singular1ty op 7 september 2010 18:04]

Nou dat beroerde yields veel geld kosten. Dan kunnen ze beter de nu verbeterde yields van het 40 nm proces blijven gebruiken met een geoptimaliseerde architectuur, dan direct op 28 nm te gaan produceren en weer beroerde yields hebben. Hebben ze langer de tijd om 28 nm te perfectioneren, wellicht een soort 4770 uitbrengen om ervaring op te doen en de 7000 lanceren nadat nvidia een antwoord op de 6000 serie heeft. Mooi Haasje Over spelen, is een stuk leuker dan AMD hobbelt achter Intel aan op het processorvlak.

En dan snel je reactie wijzigen. Ik baseer dit op het feit dat de twee kaarten die het meeste last hebben van de GTX460 als eerste vervangen worden. Dan kan je er vanuit gaan dat in ieder geval de 6770 sneller en van het zelfde prijsniveau als de gtx 460 gaat zijn.

[Reactie gewijzigd door 140398 op 7 september 2010 18:15]

Sorry voor reactiewijziging ;) Het is inderdaad logisch om eerst het beste wapen van de competitie aan te pakken, maar vooralsnog ben ik eerst benieuwd naar de prijzen. Dat er op 40nm wordt gewerkt zal wel een indicatie zijn dat het niet enorm veel duurder wordt, maar toch.
Waarschijnlijk gelijk of zelfs wat goedkoper, indicatie is dat de chips iets groter zijn, maar daar staat tegenover dat men het proces beter begrijpt, en dus waarschijnlijk hogere yeilds en klok kunnen halen.

De plannen warren om deze chips op 32nm uit te brengen.
TSMC zou deze bakken maar heeft het proces geschrapt na alle probleem met 40nm, en de oplossingen voor 32nm zouden ook 28nm bruikbaar maken.

De volgende gen 7xx0 zal hoogst waarschijnlijk voor een groot deel bij AMD in huis gebakken worden, hangt waarschijlijk voornamelijk af wie het eerste zijn zaakjes voor elkaar heeft op 28nm GloFo of TSMC.

AMD/ATi heeft imho maar een zwak punt tegenover nVidia, en dat is dat SLI veel beter schaalt dan CF.

Als ik nu een 2 kaarten systeem zou kopen gaan daar nVidia kaarten in, en hoewel de 6870 waarschijnlijk aardig sneller is dan de GTX480. (eerste indicaties 30% sneller dan een 5870)
Is dat nog maar de vraag of dat ook zo is bij 2 kaarten, want zelfs een GTX460 setje is gemiddeld sneller dan een set 5870s.

Het is dus afwachten of de HD6870 CF sneller is dan GTX480 SLI

@MartijnAbel
Ben verre van een nVidia fan, vind het zelf een arrogant bedrijf wat me bijna door bumpgate veel geld had gekost en niet te spreken over de +30 uur die het me heeft gekost aan de telefoon en onderzoek en advocaat, maar als ze iets beter maken dan een ander mag dat nog steeds best gezegd worden.

Waar CF gemiddeld een rendement heeft van 60~70% van de tweede kaart, heeft SLI een rendement van ongeveer 90%

Neemt niet weg dat 4770 en 5770 in CF geen slechte investering is.
Heb zelf een water gekoelde 4770 CF setup in mijn HTPC, en een gamePC met 5870 CF.
Ik heb van beide aankopen geen spijt alleen is gewoon een fijt dat SLI beter schaald dan CF.
En laten we het maar helemaal niet hebben over SLI 3x en CF-X

[Reactie gewijzigd door player-x op 7 september 2010 22:40]

want zelfs een GTX460 setje is gemiddeld sneller dan een set 5870s?

In de meeste reviews die ik zie komen ze de HD5970 nog niet voorbij, laat staan 2 losse HD5870's

http://tweakers.net/revie...ten-in-sli-inleiding.html

http://nl.hardware.info/r...eforce-gtx-460-sli-review
De volgende gen 7xx0 zal hoogst waarschijnlijk voor een groot deel bij AMD in huis gebakken worden, hangt waarschijlijk voornamelijk af wie het eerste zijn zaakjes voor elkaar heeft op 28nm GloFo of TSMC.
het laatste wat hier over gezegt is, is dat ze beide worden gebruikt.
nvidia zegt bij tsmc te blijven.

als een van de 2 problemen heeft zal ATI nog altijd hun chips kunnen leveren. als TSMC een probleem heeft en GF niet heeft Nvidia een probleem.
er zit wat dubbel werk in, dus wat extra kosten, maar de veel grotere zekerheid zal het dat voor AMD meer als waard zijn.
crossfire slechter schalen als SLI?
dacht ik dus niet :P

kijk maar naar de performance van de 4770 CF en de 5770 CF ;)
tevens draait een 5830CF setup een GTX480 er ook uit met een lager verbruik, dus hoezo slecht schalen?
Crossfire schaalt zeker slechter dan SLI.
Hier of hier kan je bijvoorbeeld lezen dat een GTX460 SLI setup in staat is een 5870/5850 CF setup te verslaan. Nvidia heeft bewezen met de 460 SLI dat het tegen de 90% performance erbij kan trekken, terwijl dit vaak met AMD kaarten tegen de 60% liggen, of het aan de kaarten ligt weet ik niet, het kan ook iets zijn in de drivers.

[Reactie gewijzigd door C0rnelis op 7 september 2010 20:35]

Het schalen van crossfire en SLI hangt van te veel dingen af. Is het een nvidia powered game? Welke hardware wordt er gebruikt? Is bij het spel de cpu een bottleneck? Welke drivers? Maakt het spel gebruik van Physx bij de nvidia kaarten?
@C0rnelis
Ik vind dit niet echt goede artikelen om aan te halen. De eerste link toont maar 3 spellen zonder meerdere resoluties aan te halen. Daarnaast zijn die 3 spellen volgens mij alle 3 in het voordeel van nvidia (al is dit laatste geen belangrijk punt voor mij.)

De 2e link toont de schaling van GTX460 SLI tegenover een 5970, een enkele 5870 en een enkele 5850. Daarbij haalt een 5970 (wat trager is dan 5870 crossfire) net iets betere gemiddelden. Daar staat wel tegenover dat het minimum wel weer lager is. Het is maar net wat de gebruiker belangrijk vindt.

[Reactie gewijzigd door pc_pulsar op 8 september 2010 10:41]

amd's chips zijn vaak zeer goedkoop om te produceren: zie ook de die-size (die is bijna 30% kleiner dan die van welke nvidia chip dan ook)
De 460 is op dit moment NVidias best bod, en het is geen slechte... Zelfs qua verbruik niet. Aangezien ATi ook graag in de markt wil blijven, mag je aannemen dat ze hier iets tegen doen. Dat kunnen ze want a. de dies zijn nog steeds kleiner dan NVidias opties, b. de prijzen zijn nu al een jaar op hetzelfde niveau (de 5770 begint langzaam iets weg te zakken), dus daar zit onderhand rek in, en c. ze hebben nu de yields op orde, ze hebben het proces goed onder de knie, en TSMC zit niet meer te spelevaren.

Daarnaast hebben deze 6xx0s een nieuw type shader, waarbij nu elke shader lastigere berekeningen kan doen, in plaats van 1 op de 5. Daar win je ook prestaties mee, zeker in DX10 en bij GPGPU. Voeg daarbij dat ze meer buscapaciteit krijgen, en een iets groter oppervlak, en ik zou zeggen dat dit een goede zet is.
Bedreiging? Sinds de AMD's 5000-reeks kan nVidia nauwelijks meer volgen.
nVidia's antwoord met de 400-reeks kwam pas véél later, en nu komt de 6000-reeks alweer.

En nee geen fanboy talk hier, ik heb zelf nVidia.
eigenlijk al sinds de Ati4000 reeks die waren gewoon goedkoop en snel.
nVidia wist in die generatie uiteindelijk wel veel snellere kaarten te bakken, maar toen de 295 er was stond Ati5k al voor de deur. de GTX2xx serie was daarnaast stukken duurder, met een vet verbruik door de 55nm technologie.
Laten we het er op houden dat Nvidia een lange aanloop voor het haasje over nodig heeft en Ati er dan binnen 3 maanden weer overheen komt. Het valt me ook op dat Ati sinds de 4000-serie eigenlijk de leiding heeft.
Het wordt pas spannend als 1 van de partijen niet met een beter product kan komen terwijl ze wel later zijn. Nu schommelen ze wat om elkaar heen.
Ik denk dat de leiding pas begonnen is sinds de 5000 serie. De 4000 serie was wel erg gewaagd aan die van nvidia.
wat koop je voor sneller als ati elke 4 weken hun prijzen met 10euro weet te drukken?
Wat ik me afvraag is waarom er op de eerste 2 plaatjes nog Ati staat, en op de rest alleen nog maar AMD. ik vraag me af of dit de laatste Ati-serie word of toch de eerste AMD Radeon serie.
Wat ik me afvraag is waarom er op de eerste 2 plaatjes nog Ati staat, en op de rest alleen nog maar AMD. ik vraag me af of dit de laatste Ati-serie word of toch de eerste AMD Radeon serie.
Omdat GPU-z deze kaart nog niet officieel ondersteunt?. 2e Plaatje zou ik zo niet weten waarom, kan zijn dat het een hoax plaatje is.
nieuws: AMD stuurt ATI-merknaam met pensioen

Daarom dus, het zal inderdaad de eerste AMD kaart worden.
Die eerste is ook een screen van GPU-Z en die zal inderdaad nog steeds ATi zeggen.
2e screen is een standaard koeler lijkt me dus daar zal nog wel een ATi sticker aanhangen. Al is het natuurlijk ook handig om mensen een beetje zand in de ogen te strooien. Plak daar een AMD sticker op en iedereen weet natuurlijk dat dit de volgende generatie videokaart is.
Het eerste plaatje is van een 5xxx kaart, welke nog gewoon bekend staan onder ATI Radeon.
Vermoedelijk zal de 6xxx serie dus de eerste zijn die verkocht zal worden onder de nieuwe merknaam AMD Radeon.
iedereen blijft maar roepen dat de gt400 serie slechter of trager is maar dis is niet de hele waarheid het is een heel ander concept als he cuda technologie correct gebruikt zou worden in games en benchamrks is deze kaart natuurlijk veel sneller (andere features van de kaart niet eens meegenomen).

ik vind de 400 serie een zeer interesante kaart al is ie mischine niet altijd de snelste hij heefd veel potentie als ie correct gebruikt word.
nadeel is dat er geen games puur voor die kaart zijn technologie gemaakt worden omdat game gevelopers dan potentiele klanten met een ati kaart uitsluiten.
Je geeft met je verhaal in principe al aan waarom een voor één merk gespecialiseerd spel helemaal niet relevant is. Het is fijn dat de techniek vele malen beter zou zijn, maar als 'de rest' van de fabrikanten dat niet ondersteunt heb je er geen reet aan. Een game maker ziet namelijk dat het overgrote deel van zijn markt een andere dan nvidia (met CUDA) kaart bevat. Zo is Intel al de grootste verkoper van GPUs en is AMD de belangrijkste concurrent op het high-end vlak.

We kunnen dus alleen maar beoordelen op de werkelijke resultaten, behaald in 'het wild'. En daar blijkt gewoon dat nvidia op het moment met haar 400 series tekort heeft geschoten ten opzichte van de 5000 series. En nu neemt AMD een nog duidelijkere voorsprong en is het wachten (wederom) op een nvidia. Als nvidia deze keer niet snel komt met iets speciaals (en dat, naast op papier, ook waar kan maken), dan zie ik ze bij AMD een extra halfjaartje in hun vuistje lachen.
Zo is Intel al de grootste verkoper van GPUs

wat compleet niet relevant is aangezien die gpu's traag zijn niet geschikt voor games zijn en in laptops geplaatst worden.

en is AMD de belangrijkste concurrent op het high-end vlak.

ja atl/amd en nvidia zijn elkaars grootste concurent er zijn geen andere spelers in the game gpu markt die relevant zijn op het moment.

nvidia heeft het op een toekomst technologie gegooit maar helaas voelen al de game and software developers er niks voor net zoals bij het hele 64 bit verhaal.
en naast cuda heefd de nvidia gpu meer unieke features die am net bied op het moment.


feit blijft dat als goed gebruikt de nvidia kaart de snellere kaart is al slurpt dat ding stroom.
feit blijft dat als goed gebruikt de nvidia kaart de snellere kaart is al slurpt dat ding stroom.
zucht...
Zo ken ik er nog wel een paar. Als AMD's stream technology goed gebruikt zou worden zou nvidia ook niks zijn. Dit is gewoon onzin wat je nu zegt

[Reactie gewijzigd door Sinester op 8 september 2010 12:44]

Zo ken ik er nog wel een paar. Als AMD's stream technology goed gebruikt zou worden zou nvidia ook niks zijn. Dit is gewoon onzin wat je nu zegt
En waarom staat er bovenaan bij foto 1: 5xxx serie?
Inderdaad, goed opgemerkt!
Tja, ik zou het niet weten?
Omdat GPU-Z de 6xxx series nog niet herkend, dus ziet hij het als een 5xxx serie.
Als ik naar het laatste screenshot kijk, zou de HD6770 de zelfde mainstream-klasse moeten bedienen als de HD5830, zou ik daar uit mogen speculeren, dat deze rond de 200E gaat zitten, en de HD6750 waarschijnlijk de HD5770 gaat vervangen en dus op de 150E gaat zitten?
Initieel wel ja, maar ik denk dat de prijzen alsnog een tikje gaan dalen binnen een paar maanden, zeg maar 6850 250 euro, 6830 200 euro, 6770 175, en de 6750 ergens rond de 140-150... Zeker als NV de 460 ook nog wat laat zakken wordt het een interessante Kerst.
Dit is een doorontwikkeling van de HD5XXX reeks en niet zo zeer een compleet nieuwe architectuur. Ik verwacht wel een performance boost t.o.v. de HD5XXX reeks maar geen nieuwe revolutionaire functies zoals eyefinity en ondersteuning voor directX 11 ten tijde van de introductie van de HD5XXX reeks. Ik had eigenlijk liever gezien dat de chips kleiner waren dan de evergreen family maar wel een performance boost gaf t.o.v. de evergreen family.
Zuiniger maar toch krachtiger; dat is meer de trend waar we naar toe willen.
Maar hiervoor moeten we toch wachten totdat zij naar een andere productieproces gaan en van de 40nm afstappen.
Tegen die tijd als de HD7XXX komt ga ik pas upgraden; ondersteuning voor directX 12 en wellicht helemaal gericht op 3D gaming.

Nee voorlopig hou ik het bij mijn HD5770 in crossfire :9
Wie zegt dat dat niet zo is? goed ze zijn groter, maar volgens de geruchten zou de HD6970 niet terug geclocked worden om onder de 300watt te blijven.

En die 40nm zegt ook niet alles, hoe lang hebben we met CPUs niet op 65nm gezeten? en op 90nm? Ik kan me cpu's herinneren die pas bij de 2e steping zuiniger waren dan dezelfde cpu op 90nm...

ATI kan het 40nm proces in middels zo onder de knie hebben dat ze misschien een behoorlijke boost in stroomverbruik/ performance kunnen geven.

Maar goed dat weten we pas als we ze vast hebben ;)
Ligt het nu aan mij of komt deze serie ontzettend snel achter de 5000-serie aan? Het lijkt wel alsof de nieuwe generaties elkaar steeds sneller opvolgen...
Het zal me benieuwen hoeveel sneller deze kaarten nu weer zijn :9~
Inderdaad erg snel. Ik had verwacht dat ze eerst nog een 5890 kaart zouden uitbrengen met hogere clocks.
Misschien komt die nog wel als fabrikant X een superclocked variant uitbrengt, tenzij de 5k serie net zo snel uit de winkels verdwijnt als de 4k serie deed toen de 5k serie kwam ;(
De 5000 serie is al meer dan een jaar oud. Nvidia had hier alleen héél laat pas een antwoord op, daarom lijkt het allemaal wat recenter dan het in werkelijkheid is. ATi had de 5890 uit kunnen brengen maar dat had geen nut gehad, want hier was geen concurrentie voor.
Mwah, ze zijn nog niet op de markt. De 5xxxx serie is toch ook alweer een jaar oud? Sowieso zie ik de laatste tijd minder revolutie maar vooral evolutie in de videokaarten, dus dan geeft het niet als er wat sneller nieuwe versies komen.
De release op papier was inderdaad een jaar geleden, maar de kaarten waren pas een hele tijd daarna goed verkrijgbaar.
Nou, ik weet niet hoor, maar er waren genoeg mensen die aan het einde van deze maand, maar dan 2009 een 5870 hadden...
Zelf heb ik begin november mijn 5850 gekocht. Deze 6000 serie zou die maand zo ongeveer uit moeten komen. Zo'n 14 maanden later dus.

Zelfde trouwens voor Nvidia: De GF100 kaarten waren ook een stuk later beschikbaar.
Dat valt eigenlijk wel mee, Nvidia was gewoon heel erg laat met hun DX11 kaart. Met als gevolg dat de DX11 "oorlog" eigenlijk nog maar net begonnen is.
En nu ze er zijn heeft ATi blijkbaar alweer een antwoord klaar.
Word nu wel heel duidelijk dat Nvidia veel te lang heeft aangemodderd met hun Fermi architectuur.
Maar goed eerst maar eens wat reviews zien wat deze dingen kunnen.
Anderzijds kan dat betekenen dat de fermi architectuur, mits uitgevoerd ineen kleiner procedé misschien wel beter schaalbaar is. Intel heeft er ook even over gedaan om in te zien dat 't p4/netburst pad een dead end was. 't duurde best lang voor de eerste c2d's er waren, maar daarna ging het best hard met de ontwikkelingen en haalden ze de achterstand in...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True