Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 125, views: 23.794 •

AMD heeft gisteren de officiŽle naamgeving en foto's van de HD 6850 en HD 6870 vrijgegeven. De hele presentatie, inclusief specificaties, lekte echter ook uit, hoewel die informatie eigenlijk pas vrijdag beschikbaar had mogen komen.

AMD gaat op vrijdag de eerste twee videokaarten in de HD 6000-serie introduceren. De HD 6870 en de HD 6850 zijn niet de snelste videokaarten die in de serie zullen verschijnen; ze zijn dan ook gericht op de mainstream-markt. AMD gaf officieel de foto's vrij, maar de slides doken ook ditmaal op bij een Chinese website.

HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850 HD 6870 / HD 6850

Volgens de slides is de HD 6870 even snel als de HD 5850, terwijl deze over een kleinere gpu beschikt. Zo bedraagt het aantal streamprocessors 1120, terwijl de HD 5850 er 1440 heeft. Het aantal texture units nam ook af, van 72 naar 56. Omdat de geheugensnelheid met 4200MHz iets lager is dan bij de HD 5850, nam ook de geheugenbandbreedte iets af. De HD 6870 maakt het lagere aantal rekeneenheden echter goed met een veel hogere kloksnelheid van de gpu: 900MHz,  waar de HD 5850 op slechts 725MHz is geklokt.

De HD 6850 heeft ook een Barts-gpu, maar er zijn slechts 960 van de 1120 streamprocessors geactiveerd. Dat betekent dat het aantal simd-engines van 14 naar 12 afneemt, waardoor er ook 8 texture units verloren gaan. De gpu en het geheugen zijn met respectievelijk 775MHz en 4000MHz ook lager geklokt. AMD vergelijkt de HD 6850 zelf met de GTX 460 768MB-variant, die in ieder geval in AMD's benchmarks een stuk langzamer is.

De die size zou zijn afgenomen van 334 naar 255mm2, wat een hele besparing is. Vanwege de hogere kloksnelheden zou de HD 6870 echter nog steeds 151W verstoken, evenveel als de HD 5850. Daar staat weer tegenover dat het idle verbruik van de videokaarten is afgenomen van 27 naar 19W. De videokaarten zijn verder uitgerust met twee dvi-poorten, een hdmi-poort en twee mini-displayports. De overige slides laten verbetering zien op het gebied van tesselation, waarbij de videokaarten in het beste geval tot twee keer zo snel zijn als een HD 5870.

De prestaties van de videokaarten mogen op 22 oktober bekend worden gemaakt. Voorlopig zijn wel al de nodige foto's te bewonderen van HD 6850's of HD 6870's van onder andere Sapphire en Asus.

AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides AMD HD 6000-serie slides Asus HD 6850 / Sapphire HD 6870 & 6850 Asus HD 6850 / Sapphire HD 6870 & 6850 Asus HD 6850 / Sapphire HD 6870 & 6850 Asus HD 6850 / Sapphire HD 6870 & 6850 Asus HD 6850 / Sapphire HD 6870 & 6850

Reacties (125)

Reactiefilter:-11250123+196+27+30
En stukjes review zijn ook al uitgelekt. :)
Als we dat mogen geloven zal de HD6870 žetsjes langzamer zijn dan de HD5870, maar niet veel. Dat was al verwacht, maar de HD5870 zou ook net zo snel zijn als de HD4870x2 en dat bleek ook wat optimistisch, dus toch positief als de geruchten dat een HD6870 de HD5870 weet te benaderen, blijken te kloppen.

[Reactie gewijzigd door bwerg op 20 oktober 2010 09:16]

Thanks voor de link, zou een goede aanvulling zijn op de nieuws post. Verder interresante ontwikkeling maar nog niet lonend. Wat ik nog niet heb kunnen vinden wordt dit dan direct x 11 of 12?
DX11 want 12 is nog niet eens uit bij MS :D
Volgens mij moeten deze kaarten het vooral hebben van de efficienty van hun ontwerp en de daarbij horende prijsreductie en stroomverbruikreductie.

Ook apart dat de memory bandwidth terug loopt en er minder SIMD engines, stream processors en texture units in zitten dan bij de voorganger. Dan moeten ze wel een heel stuk efficiŽnter zijn om dezelfde en hogere prestaties neer te zetten.

Hoewel het natuurlijk de vraag is of ze hogere prestaties neer zetten, dat ze langzamer zijn dan hun gelijknamige voorganger vind ik erg verontrustend. De nieuwe serie verlegd de grenzen eigenlijk niet. Nu hebben ze van nVidia niet direct wat te vrezen maar stilstand is achteruitgang, dat blijft toch wel zo.
Het is niet zo duidelijk wat nou 'de voorganger' is. Op basis van de naamgeving is het inderdaad de opvolger van de HD5800 en valt het allemaal wat tegen, maar gezien de specs en prijs vallen deze kaarten ergens tussen de HD5700 en HD5800 in. Verwacht dus ook dat deze kaarten een stuk goedkoper worden dan de HD5800's, waarmee het toch wel een sterk product kan worden. De echte single-chip high-end kaarten komen onder de naam HD6900, en zullen dan uiteraard wel een heel stuk sneller zijn dan de HD5800. Op basis van specs en prijzen (al is dat laatste een beetje speculatie) zal dat dus de opvolger zijn en als die ook zo efficiŽnt zijn zal het geen tegenvaller worden.

[Reactie gewijzigd door bwerg op 20 oktober 2010 09:26]

Verwacht dus ook dat deze kaarten een stuk goedkoper worden dan de HD5800's
Hoogstens een klein beetje maar vemoedelijk in dezelfde prijs range.
Er is geen reden voor AMD om de prijzen flink te verlagen. Ze zullen gaan zitten op de plaats waar de marges het beste zijn. Liefst net onder prijzen van de qua performance meest vergelijkbare nVidia kaarten als dat mogelijk is.
Nee, er zijn al verschillende HD6800's opgedoken en alles wijst erop dat de HD6850 en HD6870 in het segment van 150-250 euro gaan zitten, dus tussen de HD5700's en HD5800's in.

Nvidia heeft de prijzen van de GTX470 en GTX480 flink verlaagd t.o.v. de launchprijs, en de GTX460 doet het ook erg goed in de range van 140-200 euro. Dus zo grote voorsprong op Nvidia hebben ze nu niet meer, reden om weer een beetje scherpe prijzen neer te zetten. De HD6800's zijn ook heel wat kleiner dan de HD5800's dus goedkoper te produceren.

[Reactie gewijzigd door bwerg op 20 oktober 2010 09:42]

Er komt ook een (high-end) 6900-serie. Zie de roadmap, die al weken, zo niet maanden, op Wikipedia staat
Met kleinere chips lijkt me dat idd logisch, zeker gezien dan de X2 varrianten makkelijker te maken zijn.

Ook een volledig geactiveerde 6800 (mogelijk door software/bios update) zou weer een stuk sneller zijn.
De HD6900's worden geen dual-varianten van de HD6800's, maar het worden gewoon aparte, grotere GPU's. Nog iets groter en meer verbruikend dan de HD5800-chips, dus dat in combinatie met de extra efficiŽntie die je bij de HD6800's ook al ziet zullen de HD6900 wel dicht bij (over zelfs over) de HD5970 brengen.
De HD 6990 Wordt geloof ik wel een dual-gpu kaart.
150 - 250 euro, waarschijnlijk dus een verdeling van 150-200 voor de HD6850 en 200-250 voor de HD6870. Hiermee wordt de HD6870 niet veel goedkoper als de HD5850, die ongeveer gelijk presteerd.

Er komt alleen een model bij (de HD6850) in een prijssegment waar AMD momenteel niets heeft: 150-200 euro.


Tevens ben ik niet echt onder de indruk. De namen doen de verwachting scheppen dat dit volwaardige opvolgers zouden zijn van de huidige HD5850/5870. Echter presteren beide kaarten iets minder als hun voorgangers. De lange periode van duidelijke naamgeving (sinds begin HD reeks) bij ATi/AMD is hiermee om zeep geholpen.

[Reactie gewijzigd door knirfie244 op 20 oktober 2010 11:42]

Je vergeet dat AMD production-constrained is, ze kunnen niet genoeg wafers laten bakken als ze zouden willen (of dat capaciteitsgebrek bij TSMC is of overinhaligheid van het groene kamp, laten we in het midden), en dus is dit wel degelijk vooruitgang. De 68x0-chips zijn een stuk kleiner dan de 58x0s die ze (prestatietechnisch) vervangen. Hierdoor kunnen ze er meer van bakken, waardoor ook de prijs nog wat kan zakken. Qua power / mm2 gaan ze dus hard vooruit, en dat was de bedoeling.
No offense, maar de serie van de HD2xxx naar de HD3xxx was ook niks anders dan een refresh.

Ze mogen het best een nieuwe serie noemen want er is ook daadwerkelijk wel wat veranderd in design, en nieuwe dingen zoals Multi-stream displayport en Bluray3D (en andere UVD3 dingen).

Nu kan je tenminste zien: "Oh, het is een HD6xxx, dus hij heeft UVD3, Bluray3d, etc...".
Dat de performance niet veel meer of minder is, zou voor de 'onwetenden' ook duidelijk moeten zijn aan de prijs, want die is niet veel anders dan de vorige serie en zo kan je ze makkelijk vergelijken.

voor de wat meer technische mensen weten ze wat ze in huis halen, door naar de specificaties te kijken en / of reviews te checken.

Het is uiteraard jammer om te zien dat er niet weer schokkende sprongen zijn zoals in de HD3xxx naar de HD4xxx, en ook de HD5xxx was leuk (niet alleen performance, maar ook nieuwe features). Maar het is wel een goede vooruitgang, ze zijn ready om gelijk weer in te springen op de laatste nvidia kaarten en het is tenslotte maar een jaartje na de HD5xxx. Mijn HD5850 heb ik pas sinds januari, vind het helemaal zo slecht niet om te zien dat er nu al een refresh is (al is het wel jammer dat ik mijn bak weer outdated vind op dit moment :)).
Maar de prijzen van de HD5xxx zijn de laatste tijd ook aan het dalen. Dus wil wil AMD echt iets toevoegen aan de markt, zullen de prijzen redelijk wat moeten verschillen met een oudere generatie, waar eigenlijk nauwelijks verschil tussen zit wat ik zo lees. Want het verbruik en prestaties zijn aardig het zelfde gebleven.

Of topic: Zelf heb ik plannen om binnenkort een nieuwe videokaart te kopen, maar als student heb ik daar niet veel geld voor. Misschien dat ik dan toch een HD5850 ga kopen, want deze zullen denk ik nog wel wat dalen in prijs als de HD68xx reeks wordt uitgebracht.
De prijzen van de HD5800's zijn aan het zakken, maar ze zijn nog steeds even duur als toen ze net geÔntroduceerd werden dus netto is er gewoon helemaal geen prijsdaling. Tevens zal de HD5800 sowieso niet in de weg lopen voor deze nieuwe kaarten, want de HD5800's gaan EOL.
Bovenstaande kaarten zijn de mainstream kaarten van de nieuwe serie. De mainstream van nu zet dus dezelfde prestaties neer als de high-end van toen (onder voorbehoud).
Het is zo goed als een feit dat het wat efficienter is geworden maar die dingen die jij noemt worden deels ook opgeheven door de 900Mhz ipv 725Mhz, dat zijn HD5870 speeds :D (hoewel mijn trouwe oude HD5850 gewoon 1Ghz op de core deed na wat getweak)

Dus 10% meer Hz en dan kan er van bijna alles 10% af om hetzelfde te bereiken ;) 10% minder SIMD/stream/texture units moet daar toch wel mee te compenseren zijn denk ik zo.

Denk wel dat ik me HD5870 in ga ruilen voor een HD6850 en dan ga OCen als een gek (denk dat ze ondanks de standaard speeds nog wel wat ruimte hebben) en later zet ik er 1tje bij als ze goedkoper zijn als 170 euro ;)

[Reactie gewijzigd door watercoolertje op 20 oktober 2010 09:31]

Als je het hebt over het aantal cores op de HD6800's, dat verschil met de HD5800's is echt een stuk meer dan 10%. De HD5870 heeft 1600 SPU's, de HD6870 waarschijnlijk 1120 of iets wat daar heel dicht bij zit. Dat is 30% minder. Maar de cores zijn ook wat krachtiger door architectuurverbeteringen, met name de overgang van 5D-shaders naar 4D.
Dat begreep ik, maar 1/3de van de 30% wordt al opgepoetst door de de kloksnelheid (oftewel 10%), dan blijft er nog z'n 20% extra performance over die inderdaad door optimalisatie bereikt is ;)
Je maakt een kleine rekenfout.
10% van 725 is natuurlijk 72. 725+ 72= 797 Mhz
900 is 24,1 % sneller dan 725. Er is dus "maar" voor 5.9% getweakt aan de core. :D
6% winst is ook mooi, maar duidelijk minder dan 20% waar jij het over hebt :)
En dan alsnog klopt deze berekening niet ;P
Je berekening klopt denk ik wel maar de uitleg niet.
Ik denk niet dat je als je 10% minder van alles hebt en de kloksnelheid met 10% verhoogt de prestaties gelijkblijven, dat is afhankelijk van veel meer punten en niet alleen van kloksnelheid, en simd's en dergelijke.
Het belangrijkste is dat er nu slechts 76 % van de oorspronkelijke die-oppervlakte nodig is. Als je 4 vakjes van ongeveer 84 mm≤ nodig had en nu heb je genoeg aan 3 vakjes, dan kan je uit 12 vakjes 4 ipv 3 gpu's snijden. + 1/3 aan gpu's uit dezelfde wafer of productiekost met een kwart reduceren. De kans dat een kleine gpu mislukt is kleiner (hogere yields) en kleinere gpu's passen beter in de ronde rand van de wafer zodat je nog meer gpu's eruit kan halen.

Voor de rest is het een overgang van natte vinger werk naar op maat van de DirectX 11 games. Zonder de games wist je niet in welke verhouding je de geheugenbandbreedte, stream processors, SIMD engines,... moet configureren. Nu weet je in welke verhouding deze componenten gebruikt wordt, je snijdt de overbodige zaken eruit en verhoogt de relevante componenten.

AMD had een tijdje met 5800 poen geschept en nVidia kwam met de dure Fermi langs die ze tegen dumpingprijzen moest verkopen. GTX 460 (GF104) is ongeveer 350 mm≤ groot. AMD heeft zijn R&D-kosten allang eruit, doet eventjes mee aan de dumping en schakelt naar merkbaar lagere productiekosten om terug winst te maken. nVidia gaat moeten slikken dat AMD de prijzen nog wat meer naar beneden klopt, terwijl de Fermi productie duur blijft.

De naamgeving steunt blijkbaar op de breedte van de geheugenbus, nog altijd 256 bit zodat het in de HDx800 blijft. Dat was zo bij 3800 en 4800.

[Reactie gewijzigd door rapture op 20 oktober 2010 09:52]

Volgens mij moeten deze kaarten het vooral hebben van de efficienty van hun ontwerp en de daarbij horende prijsreductie en stroomverbruikreductie.
Weet iemand wat voor prijs de 6870 dan ongeveer zou meekrijgen?
de kaart is vooral sneller/even snel omdat de snelheid is verhoogd. dat is dus de reden dat hij met minder units moet doen dan zijn voorganger
Beetje raar dat een nieuwe serie met dezelfde merknaam langzamer is dan degene ervoor. Tevens is een vergelijking van een 5870 met een 4870x2 wel een hele vreemde.

Als de HD6870 de 5870 niet eens voorbij streeft, waarom zou je dan uberhaupt overstappen?
Als je een HD5870 hebt is dat een goeie vraag. Alles daaronder kan interessant zijn om te upgraden met deze serie. Heb zelf een 5770 en ga die waarschijnlijk upgraden naar een 6870. Dus van mid-segment afgelopen serie naar mid-segment nieuwe serie. Voor een upgrade van de HD5870 (high-segment) moet je nog 1 a 2 maanden wachten tot de single GPU HD69xx (high-segment) uitkomen.
Je moet niet kijken naar de naam, maar naar de prijs/prestatie van de kaarten en het segment waarin ze geplaatst worden (low,mid,high,ultra).
Van 5870 is overstappen niet interesant, maar voor mij iemand met een HD4890 kan het wel interesant zijn.
echt verwarrend die naamgeving...
En wanneer komen de high end kaarten ?
Zal er een single gpu kaart komen in deze serie die serieus sneller is dan de gtx480 ?
High end kaarten worden eind dit jaar verwacht met inderdaad een single GPU oplossing die sneller zou moeten zijn dan de GTX480. Hoeveel sneller is afwachten tot de eerste benchmark resultaten uitlekken.
echt verwarrend die naamgeving...
Dat is inderdaad wel zo ja. Als ik een 6870 koop, dan verwacht ik dat die sneller is dan de 5870. Dat lijkt deze keer niet het geval te zijn. Men heeft zo te zien de kaarten qua specificatie zo te zien "achteruit" gepositioneerd om ruimte te maken aan de top, terwijl de naamgeving hetzelfde is gebleven.

Maar ja. Naamgeving boeit aan het eind van de rit weinig. Als ik ergens in juni van volgend jaar naar een andere computer ga kijken, dan trek ik budget X uit voor een grafische kaart, en dan neem ik de snelste stille kaart die voor dat budget te krijgen is. (Tot nu toe was dat altijd nVidia, maar met de 5000 en 6000 serie van AMD kan dat veranderen....)

[Reactie gewijzigd door Katsunami op 21 oktober 2010 21:45]

Ik vind het nogal vreemd dat ze de 6850 en 6870 niet als high end game kaarten gebruiken, als ik 6850 hoor dan denk ik dat het een vooruitgang is op mijn HD 5850, omdat hij van de volgende generatie is....

Nouja we zullen zien welke kaarten nu goede prestaties zullen leveren.

[Reactie gewijzigd door Thomasx4 op 20 oktober 2010 09:17]

het is inderdaad even wennen het is een refresh met nieuwe architectuur die de basis vormt van de high-end kaarten die later uitkomen.
Wat vreemd dat die 6850 op alle benchmarks 20% of meer hoger scoort, behalve bij 3D Mark Vantage.

3DMark nVidia optimized?
Misschien hebben ze de physics aan laten staan? Daardoor krijgen nvida kaarten altijd een onwijze boost in Vantage...
En terecht. Als Vantage Physix ondersteunt, en je gebruikt een kaart die dat ook kan, dan moet die kaart een boost krijgen qua score. Dat zou namelijk in spellen ook het geval moeten zijn.
In het ATI-topic is ook al gesuggereerd dat vantage erg goed gebruik wist te maken van de 5D-cores die de radeons tot nu toe gebruikten. Nu zitten er 4D-cores in, wat in vantage dus niet helpt, maar who cares als het in games wťl een verbetering is? :)
Vantage zegt sowieso geen zak... Zo waren de HD5850 en 5870 in Vantage ook sneller dan de GTX470 en 480, terwijl laatstgenoemden in de praktijk (games) respectievelijk 5-10% en 10-15% sneller zijn.

OT; Ben nu toch wel erg benieuwd wat deze kaartjes straks gemiddeld gaan kosten en of de HD6850 daarbij op GTX470 768mb niveau wordt gezet, of meer op de 1gb versie welke toch zo'n 3 tientjes duurder is. Enfin, nog ff afwachten!

[Reactie gewijzigd door MW1F op 20 oktober 2010 10:00]

Ik snap niet dat altijd zo uitgebreid die specificaties naar voren komen. Het geeft de concurrentie namelijk ook wat lekkers mee.
Die weten het anders vrijdag? Je moet je publiek natuurlijk ook een beetje warm maken om over te gaan op een koop he.. Doe je dat niet verkoop je minder, en anders geef je wat kennis eerder aan de concurrentie...

Niks anders als een simpele afweging waar ATI zelf wel het beste antwoord op weet ipv een of andere tweaker ;)
Ik vraag me heel erg af, of 't het wel waard is om deze te halen ipv de
Palit GeForce GTX 460 Sonic
Dat is aan jouw :) Misschien moet je de plaatjes is goed bekijken, ik weet aan de hand daar van meer dan genoeg... Buiten dat ik een (redelijk high end) GPU die IDLE 19watt gebruikt zowiezo al een topper vind aangezien me PC dag en nacht aan staat en ik 1 a 2 uur per dag game ;)

[Reactie gewijzigd door watercoolertje op 20 oktober 2010 09:25]

Wat is idle? Is dat een 2D desktop laten zien? Of is dat een soort slaap-modus wanneer het beeldscherm uitgeschakeld wordt?
Denk bij 0% load, dat kan in beide situaties zo zijn denk ik zo... Als je niks op je scherm doet/beweegt zal die ook niet veel moeite hoeven te doen om die beelden te maken ;)

Maar zeker weten doe ik het niet, maar hoe zuiniger die IDLE is betekend volgens mij ook dat ook al zou die meer gebruiken bij browsen dat dat nog steeds zuiniger is als vergelijkbare kaarten met een hogere IDLE wattage ;)
Als je in desktop mode zit en er dus geen grafisch zware berekeningen worden gemaakt.
De videokaart kan hier zelf tussen schakelen, als jij een game opstart zal hij vanzelf overschakelen naar de prestatie instellingen en daardoor meer watt verbruiken.
Sluit je de game weer af dan zal dit zichzelf weer in energiebesparingmodus zetten.
denk 't niet, dat is een prima kaart, deze kaart ziet er goed uit en alles maar (kan in de link staan weet ik niet) een prijs is nog niet gezegd (corrigeer me als ik het fout heb ;)). daarbij ben ik van mening dat wat het nog doet je niet moet vervangen, zo heb ik b.v. nog een nvidia geforce GTX 200 (als ik het zo uit me hoofd doe). is al tijdje oud maar werkt nog prima met spellen als mw2 en dan nog een paar browsers open...
De highend kaarten zouden ook dit jaar nog moeten komen maar hier hebben we verder nog geen gegevens over, dat is wel vreemd.
Omdat AMD met de 5970 nog steeds de top kaart heeft is er misschien geen reden om al de high end kaarten uit te brengen. Er hoeft geen concurrent van de performance troon af gestoten te worden.
we zullen moeten wachten op benches, maar ik denk dat ik voor de hd6870 ga, heb nog een videokaart nodig.
ziet er leuk uit, alleen vraag ik me af waarom de titel uitgelekt is. ze hebben ze vrijgegeven dat is toch wel iets anders.
Leuk dat deze serie nog even veel gebruikt als een normale PC met on board graphics.

Wel leuk te combineren met on board graphics als het moederbord het toe laat.

Voor de gamer weer iets om naar uit te kijken.

Het word tijd dat fabrikanten en ontwikkelaars eens meer kijken naar de stroomverbruik, chips bakken op een 22 of nog liever 16 NM technologie meer combineren en ook de geheugens op 22 of 16 NM dan kan veel stroom bespaard worden.
Denk je dat de fabrikanten dat niet zouden willen? probleem is dat het steeds moeilijker wordt om de chips kleiner te krijgen en 40nm was het enige wat nu ging lukken, volgende generatie wordt 28nm.
fabrikanten kunnen niet "zomaar" over gaan naar 22nm, de machines die hierachter zitten moeten geoptimaliseerd worden en dat duurt even.
Hoe het werkt:
Machine wordt gemaakt, er wordt eerst geheugen chips mee gemaakt op laten we zeggen ~25nm. Na 1-2 jaar is de machine geoptimaliseerd (lees foutmarge ~5-10%) en gaan ze complexere chips maken (CPU's en GPU's), dit doen ze op ~32nm (marge voor complexiteit).

Wat jij wil is GPU's op 22nm/16nm, dit zou betekenen dat ze geheugen op 15nm/10nm moeten bakken en zijn geoptimaliseerd, dit duurt nog wel even (3-5 jaar).

De reden dan ook dat ze gecancelled hebben lijkt mij een teken dat ze de 32nm niet goed geoptimaliseerd hebben en er dus teveel fouten in zitten, dat kost geld dus houden ze het bij 40nm :P

Dus ik zou zeggen, hebt geduld. O-)

[Reactie gewijzigd door HesRuud op 20 oktober 2010 10:30]

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Smartphones Beheer en beveiliging Google Laptops Apple Sony Games Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013