Meer informatie over Radeon HD 4800-familie uitgelekt

Op de Taiwanese versie van Tom's Hardware zijn verschillende slides verschenen met informatie over AMD's nieuwe Radeon HD 4800-familie. Daarnaast zijn enkele foto's van de videokaarten gepubliceerd.

Initieel zal AMD twee kaarten introduceren: de Radeon HD 4870 en de 4850. Beide kaarten krijgen de beschikking over de tweede generatie uvd-engine waarmee beeldmateriaal met een resolutie boven 1080p gedecodeerd kan worden. Ook de anti-aliasing en anisotropic filtering zijn verbeterd: 24x CFAA is één van de nieuwe features. Daarnaast wijst AMD op de mogelijkheden om de kaart in te zetten voor onder andere natuurkundige berekeningen en kunstmatige intelligentie.

AMD claimt dat de kaarten relatief zuinig zijn dankzij ATI's Powerplay-technologie en het gebruik van een energiezuinig tweede generatie 55nm-procedé. Zuinig is echter een groot woord: de Radeon HD 4870 heeft twee zespins-pci-e-stroomaansluitingen die elk 75 watt kunnen leveren. De Radeon HD 4850 heeft genoeg aan een enkele 75W pci-e-stroomaansluiting. Beide kaarten zijn in het bezit van twee Crossfire-aansluitingen, wat betekent dat men maximaal vier videokaarten via CrossfireX kan laten samenwerken.

De informatie van Tom's Hardware bevat niet de kloksnelheden van de kaarten. Eerdere geruchten spreken echter over 480 shaderprocessors, een coreklok van 850MHz voor de Radeon HD 4870, een shaderklok van 1050MHz en geheugen dat maximaal op 1,93GHz draait. De Radeon HD 4850 moet het doen met een 650MHz coreklok, 850MHz shaders en 1,73GHz-geheugen.

De 4870 en 4850 zullen schappelijk geprijsd worden met een adviesprijs van respectievelijk 329 en 229 dollar. Het is de verwachting dat de officiële aankondiging van de kaarten op 16 juni zal plaatsvinden, maar dat het tot begin juli zal duren voordat de kaarten in grote getale leverbaar zullen zijn.

ATI Radeon HD 4870

Door Hielko van der Hoorn

26-05-2008 • 19:39

50

Reacties (50)

50
49
21
12
0
0
Wijzig sortering
Het enige wat ik dus niet snap is dat ondanks en hogere core, memory en shader speed de kaarten van ATi nog steeds niet significant sneller zijn dan die van Nvidia...

Nvidia werkt nog steeds met een core van ongeveer 600 a 650, DDR3 memory van 2Ghz en max 128 shaders (per GPU)... het verbuik is welliswaar wat hoger maar het lijkt alsof ATi kaarten niet optimaal gebruik maken van de shaders, corespeed en DDR4 (of zelfs DDR5) geheugen...
Bij Nvidia gaan ze nu een 512 en 448 bits geheugen bus gebruiken. Met "langzaam" ddr3 geheugen kom je dan ook aan 125GB/s. Dat zit om en nabij de specs van de Ati kaarten. Die met een 256 bits bus met bijna de dubbele snelheid werken.

Ook zijn de schaders van Nvidia hoger geklokt, plus dat ze totaal anders werken. Dat kan je niet echt met elkaar vergelijken. CJ legt een heleboel uit in het ATI-topic, dat vind ik zelf altijd interessant om te lezen :)
de r600 had 2 a 3 zwakte punten, de kleine hoeveelheid TMU's (16 maar, met r700 verdubbeld naar 32 (nvidia heeft er meer maar, dat is eigenlijk alleen nuttig in oude games)), AA wat door de shaders werd gedaan, en nu weer in hardware word gedaan.

en het 3de, zoals roy al zegt het feit dat ATI's shaders op de zelfde snelheid liepen als die van de core.
die van nvidia lopen 2.5 keer sneller als de coresnelheid, wat een hele slime zet was van ze.
nu zijn de shaders van ATI ook losgekoppeld van de core, en lopen ze wel geen 2.5 keer sneller maar toch wel bijna 25% sneller als de core (van een core die toch alweer ~10% hoger ligt als die van de r600).

[Reactie gewijzigd door Countess op 27 juli 2024 00:46]

Anoniem: 112015 27 mei 2008 23:16
Ati/AMD doet hier gewoon 2 dingen die het leven snel, koel en goedkoop houden:

-Ze houden de chip klein, waardoor die relatief koel blijft, weinig energie gebruikt, goed te klokken en goedkoper te maken valt.

-Ze gebruiken gddr5; dat al met 256bit boven de 100GB/s bandbreedte zit. Met gddr3 heb je hiervoor 512 bit nodig. 256 bit betekend een VEEL eenvoudiger printplaat, wat veel goedkoper te produceren valt.

Deze 2 zaken zorgen er voor dat er meer verdiend wordt op de kaart, of dat de prijzen later verder omlaag kunnen, om competitief te blijven met de concurrent.

Dit zie je nu ook gebeuren met de HD3850, die al vanaf 61 euro te koop is :o . Al ze hier nog altijd winst op maken, wat ik wel verwacht, hebben ze dus afgelopen maanden veel verdiend. (toen kostte de 3850 nog zo'n 150 euro)

Ik denk dat ze echt op de goede weg zijn, zeker als ze iets leuks verzonnen hebben om straks meerdere van deze chips aan elkaar te knopen. En dan bedoel ik niet standaard crossfire, maar iets dat in de chips zit gebakken, waardoor meerdere van deze chips als 1 GPU worden gezien, zonder schalings-problemen. Tijd zal het leren...
IK dacht juist dat dit een zeer zuinige kaart ging moeten worden. Met de 3000-serie ging het de goede kant op. Maar qua energie verbruik doet deze serie dus er weer een lap bij. Jmmr!
En dan zwijgen we best over nVidia. ;)
Load niet Idle wel. Dan zouden ze tussen de 10-20 watt moeten zitten. Load 115 voor de HD4850 en 155 voor de HD4870. Opzig goed te doen als je ziet dat een 9800 GTX ook rond de 160 watt gebruikt en een HD3870 X2 rond de 200. De HD4870 moet de HD3870 X2 kunnen evenaren qua performance.
IK dacht juist dat dit een zeer zuinige kaart ging moeten worden. Met de 3000-serie ging het de goede kant op. Maar qua energie verbruik doet deze serie dus er weer een lap bij. Jmmr!
En dan zwijgen we best over nVidia.
Ik snap niet echt goed dat iedereen altijd zeurt dat het energieverbruik omlaag moet. Als je weinig energieverbruik wilt hebben moet je een low-end kaart kopen. Als je Crysis op 1920x1200 op high op 30 frames per seconde wilt spelen heb je gewoon een bepaalde hoeveelheid rekenkracht nodig, en die rekenkracht wordt geleverd door een bepaalde hoeveelheid transistoren op je GPU, die weer een bepaalde hoeveelheid energie verbruiken. Nu is er uiteraard het een en ander te doen aan energievebruik in het ontwerp van een chip, maar echt veel verschil maakt het niet.
De enige reden dat Intel's nieuwe 45nm chips bijvoorbeeld zuiniger zijn geworden is omdat de performance niet dramatisch is verbeterd. Tegelijkertijd zijn de chips wel op een zuiniger procedee gemaakt, en dus gaat het verbruik omlaag. Dat is iets dat NVIDIA en AMD ook kunnen doen hoor, sterker nog, als je een Geforce 4 kaart zou nemen en zou verkleinen naar een modern procedee, dan zou het ding ongetwijfeld maar een paar watt verbruiken. Het enige probleem is dat een Intel IGP chip waarschijnlijk nog krachtiger zou zijn.
Samenvattend: Als je veel performance wil verbruik je nu eenmaal veel stroom, en de voornaamste reden dat de AMD kaarten minder stroom verbruiken dan de NVIDIA kaarten is dat de NVIDIA kaarten veel meer performance leveren.

Uiteraard is idle-verbruik een ander verhaal, omdat dan delen van de kaart uitgezet kunnen worden, maar er is dan ook nog niets bekend over idle-verbruik van deze kaart.
Als deze kaart goed scoort qua prijs/kwaliteitsverhouding is dat toch genoeg? Moeten we nou echt gaan zeuren over 20 Watt meer of minder? Als je 200-300 euro voor een videokaart over hebt, kun je de stroomrekening toch wel betalen hoop ik?

Prijs en performance zijn voor mij gewoon veruit de belangrijkste factoren, en ik snap niet waarom mensen altijd het verbruik erbij halen bij elke nieuwe kaart.
het is gewoon lastig. het betekent voor velen een nieuwe voeding,
betere koeling in de rest van de kast etc...
Nope de kaart blaast de ware lucht de kast uit dus extra case cooling heb je hier niet nodig. En als je een 9800 GTX in je PC kunt hebben lukt een HD4870 dus ook. Een HD3870 X2 draait al op een 550 watt voeding. Dus 500 moet net kunnen ik zou dan zelf toch wel voor 550-600 gaan.
Idd...moet ik aan een nieuwe voeding als ik deze zou gaan kopen, maar ik wacht nog even.

@ Astennu: Ik denk dat je met 400 Watter A-merk ook voldoende hebt, maar je kunt natuurlijk ook te weinig stekkertjes hebben. En dan heb uiteraard nog van die mooie :| verloopstekkertjes, maar dat staat weer voor geen meter in m'n casemod!!
Prijs/Prestatie en Performance/Watt lijkt hij het te gaan winnen.
Dat zei je vorige generatie ook al, maar effect heeft het nauwelijks gehad in marktaandeel. Zie bv bij de pentium 4 vs Athlon xp, prijs prestatie maakt geen marktleider. AMD heb ik altijd een zwak voor gehad, maar nvidia kunnen ze momenteel niet pakken.
Het gaat niet alleen om geld: meer watts = meer warmte = meer herrie van je koeling.
En dan was er natuurlijk ook nog zoiets als milieu, of energieschaarste. Of dacht je dat die enorme olieprijzen en ons energieverbruik niets met elkaar te maken hadden?
24x CFAA is één van de nieuwe features
24x? Heeft dat überhaupt nog zin dan?

[Reactie gewijzigd door masser120 op 27 juli 2024 00:46]

Dit is een Edge Detect AA werkt ook op Alfa textures of zo. Ik heb het zelf wel eens bekeken en bijvoorbeeld bomen die normaal niet goed mee gepakt worden worden dan wel mee gepakt. Het ziet er echt super mooi uit. HD3870 is er alleen te traag voor om dat op hoge reso te doen. HD4870 zou verbeterde AA hebben dus ben benieuwd.
de r600 zou AA doen in de shader units. de r700 heeft daar weer gewoon dedicated hardware voor, dus AA zou zoals vanouds geen probleem meer moeten zijn bij ATI.
Een potje Live For Speed met mijn nVidia kaartjes op 1680x1050 en 32X QAA is anders heerlijk!, En ook nog eens inclusief Supersampling!

Ik geef je groot gelijk dat het enigsinds overkill is, maar zodra het zonder framedrops op het scherm getoverd kan worden ga ik het ook niet uitzetten natuurlijk.

Het zal niet iets zijn voor de nieuwste spellen, maar ALS de situatie er geschikt voor is is het echt prachtig. Net alsof je naar een gerenderde scene zit te kijken zo strak is de AA. En samen met supersampling ben je ook gelijk van al je jaggies af die je ziet bij kabels en hekken etc.

Ik wist eerst niet eens dat SLI voor extra Antialias modes zorgde, dit vond ik een super dikke pre van nVidia, zeker omdat ik het ook erg goed kan toepassen.

Het is hoe dan ook wel wat over de top, want ook 8X AA en 16X AA zijn zondermeer goed te doen. Hoe dit bij ATi momenteel met de 24X CFAA zit weet ik niet, maar dit lijkt ook "CF = Crossfire" en zal dus niet werken met een enkele videokaart (gokje).

Ik hoop dat ze tegenwoordig wat effecienter zijn met de AA bij ATi, want hoewel veel benchmarks het lijkt alsof ATi effecienter is in AA is dat niet mijn ervaring in de praktijk wat ik eigenlijk nogal raar vind. De Widetent en Narrowtent AA heb ik nooit gunstig kunnen gebruiken, veel te blurry en onwaarschijnlijk traag, dit in tegenstelling tot de 32x AA van nvidia. ATi heeft dan wel weer een prima kwaliteit 4X AA , en veel hoger zal ik bij ATi ook niet gaan. Het zal me dan ook benieuwen hoe deze 24X CFAA zijn werk zal doen.

Hoe dan ook is de AA nog lang niet op hetzelfde niveau als een pure render, er is dus nog altijd genoeg ruimte voor verbetering. Of het ook altijd nuttig en zichtbaar is de grote vraag. Ik kan alleen zeggen dat ik toch behoorlijk versteld stond van de 32X AA kwaliteit, in racegames met van die strakke dunne lijntjes, borders en curbstones is het verrekte mooi. Jaggies zijn echt verleden tijd. In die context zal je dus echt wel wat kunnen hebben aan 24X CFAA lijkt mij.

[Reactie gewijzigd door BruT@LysT op 27 juli 2024 00:46]

Anoniem: 194689 @BruT@LysT27 mei 2008 08:17
CFAA staat voor CustomFilteringAntiAliasing. een manier om verschillende soorten antialiasing te gebruiken op de plekken waar dat mooi uitkomt. Het is trouwens ook niet nieuw want de HD2900XT had het ook al maar dan supertraag.....
Laat de hd 4870 nou geen enkele videokaart zijn, maar crossfire op het kaartje zelf zegmaar. Voor de rest, je hebt gelijk... AA is mooi :)
waar heb je het over de 4870 zal net als de 4850 een enkele videokaart zijn.
de 4870X2 zal "crossfire op de kaart" zijn
de hd4870x2 zou wel 2 GPU's huisvesten, maar zou geen traditionele crossfire kaart meer zijn zoals de hd3870x2.
het systeem zou de gpu's maar zien als 2 GPU en er zou shared memory mogenlijk gemaakt worden, wat zou betekenen dat er stukken minder driver optimalizaties en belangerijker game optimalisaties nodig zijn om de x2 kaart goed te laten presteren.
Ik geloof dat jij de 4870X2 bedoelt ;) er komt wel degelijk een single 4870 welke ook bedoeld wordt in dit artikel.

[Reactie gewijzigd door SanderHG op 27 juli 2024 00:46]

Nu we steeds meer op TFT schermen overstappen wordt de resolutie op een gegeven moment de beperkende factor in het opschroeven van de beeldkwaliteit. Anti-Aliasing kan dan helpen.
Dat is altijd al een beperkende factoor geweest. mede door slecht programmeer werk. Meeste gamedevelopers koppelen nogsteeds de groote van hun interface aan de resolutie waarop de game gedraait wordt. Waardoor je met een verrekijker de game interface moet bekijken op hoge resoluties.
op een resolutie van 19200x10800? (nee niet 1080P maar 10800P :P)
dan heb je iets aan 24x :D
future proof drivers.

[Reactie gewijzigd door stewie op 27 juli 2024 00:46]

hoe hoger de resolutie hoe minder je er aan hebt meestal, of je moet heel dicht op een groot scherm gaan zitten natuurlijk.
je zal zien hoe groter iets word juist hoe meer fouten je zult opmerken, dus heb je meer aa nodig.
Of een heel groot scherm hebben, Beamers/LCD/plasma's :p
Maar dan zit je weer met het gebrek aan contrast, waardoor kartelranden sowieso minder opvallen.
Ik betwijfel of het kwalitatief iets toevoegt, maar het vergroot wel de 'pats-factor' natuurlijk...
voor games mss niet, voor andere toepassing mss wel
zou deze het doen met een 3870 erbij in crossfire?
Ja, dat heet CrossFireX.

Over de performance van CFX kan worden getwist, maar het kan.
Dit is niet waar. CrossfireX houdt in dat er 3 of 4 kaarten samen kunnen werken, in plaats van slechts 2. Ook kunnen bijvoorbeeld een HD3870 en HD3850 in CFX werken.

Een HD3870 en een HD3650 werken al niet samen, dus een HD3870 en een HD4870 kan je vergeten. Wel is de kans groot dat de HD4870, HD4850 en HD4870X2 alledrie samen in CrossfireX zullen kunnen werken.
Dan zou hij het vast over Hybrid hebben.

Ikzelf ben best benieuwd hoe snel de 780 (versie van dan) een 4xxx generatie IGP gaat verkrijgen.
Het is de verwachting dat de officiële aankondiging van de kaarten op 16 juni zal plaatsvinden, maar dat het tot begin juli zal duren voordat de kaarten in grote getale leverbaar zullen zijn.
Volgens mij had CJ laatst nog gezegd dat de 4xxx serie een Hard Launch had. Dat zou dus betekenen dat hij direct verkrijgbaar zou moeten zijn.
er komt ook een hardlaunch, maar de echte massaproductie duurt altijd even om op gang te komen, dat bedoelen ze met begin juli (voor OEMS in standaard PC bijvoorbeeld).
in retail zou hij meteen goed te vinden moeten zijn.

[Reactie gewijzigd door Countess op 27 juli 2024 00:46]

Het is mooi om te zien dat de tijd van de "uber" dure single GPU voorbij is. In iedergeval voor ATi dan. De uiteindelijke power zal wel iets minder zijn dan de nV tegenhanger zoals het er nu uitziet, maar de prijs is er ook na.

Ben erg benieuwd naar de eerste reviews :)
dat komt omdat de nieuwe life-cycles van AMD/Ati en Nvidia weer dichter bij elkaar liggen, waardoor de top-kaarten sneller en langer met elkaar moeten concurreren. 1 tot 2 jaar terug had elke topkaart een half jaar de performance-kroon en dat 'rechtvaardigde' de hogere prijzen
Anoniem: 136223 @dasiro26 mei 2008 23:55
Nee, dat komt doordat AMD zo goed als failliet is, en dicht tegen kostprijs aan moet zitten om de concurrentie nog goed aan te kunnen..

Het is niet voor niets zo dat Nvidia relatief duur blijft ;)
Of bijvoorbeeld Intel's high-end CPU.. Die is niet bepaald € 300,-- of wel soms? 8)7

Het lijkt er inderdaad wel op dat de het energie slurpende bij de AMD/ATI er bij de GPU's relatief harder daalt. Maar dat zal ongetwijfeld liggen aan de lagere snelheid..
Zolang AMD/ATI het qua kracht niet wint, proberen ze het op stroom-efficiency te winnen.

& over enkele jaren -hopen ze althans- hard terug kunnen slaan met goede results tegen weinig stroom verbruik! (zo is m'n losse mouw/hand analyse)

[Reactie gewijzigd door Anoniem: 136223 op 27 juli 2024 00:46]

http://finance.yahoo.com/q/ks?s=AMD
AMD heeft nog 1.75 miljard op kas. failliet zijn ze dus nog niet.

nvidia's 8800GT kaarten bijvoorbeeld zijn enorm snel gezakt om de goedkoper te maken hd3870 bij te houden kwa prijs/prestaties.
met de hd4870 vs gt200 zou de productie prijs verschil nog veel groter worden (als nvidia er voor kiest om de gt200 op 65nm uit te brengen zou je aan ongeveer 2 hd4870's per 1 gt200 denken, gaan ze naar 55nm, zou dat 1.5 zijn, en dat is zonder yield te bekijken trouwens, alleen wafferruimte).

ATI is wel een andere weg ingeslagen zoals apoca zegt, meerdere (voorlopig 2) kleinere, goedkope GPU's om high-end kaarten te maken, dat plan hebben ze al een tijdje liggen (specs voor de r700 lagen al een tijdje vast namelijk).
op GPU gebied doet ATI het al weer vrij aardig, en de hd4870 zou weer on-par met nvidia moeten krijgen wat marketshare betreft.
op CPU gebied zal het afhangen van hoe goed 45nm lukt bij AMD en hoe goed nehalem het gaat doen.
op server gebied gaat nehalem het goed doen, maar op desktop gebied is dat nog maar de vraag vanwegen de extreem kleine L2 van de chip. nehalem heeft wat dat betreft het zelfde 'probleem' als de k10, maar heeft maar de helft het l2 cache van de huidige k10's en de k10.5 verdubbeld de l2 weer.

met wat gelukt hoeven we dus geen 'enkele jaren' te wachten tot AMD terug is.

[Reactie gewijzigd door Countess op 27 juli 2024 00:46]

http://finance.yahoo.com/q/ks?s=AMD
AMD heeft nog 1.75 miljard op kas. failliet zijn ze dus nog niet.
En vlak onder "Total Cash (mrq)" zie je ook "Total Debt (mrq)" staan, die 4x zo hoog is...
met de hd4870 vs gt200 zou de productie prijs verschil nog veel groter worden (als nvidia er voor kiest om de gt200 op 65nm uit te brengen zou je aan ongeveer 2 hd4870's per 1 gt200 denken, gaan ze naar 55nm, zou dat 1.5 zijn, en dat is zonder yield te bekijken trouwens, alleen wafferruimte).
Ohja? Weet jij al 100% zeker dan dat de RV700 op 45nm gemaakt zal worden? En weet jij al hoeveel transistors beide architecturen zullen gebruiken? Daarnaast is een factor 2 verschil in waferruimte nog geen factor 2 verschil in kosten, op 45nm produceren is duurder als op 55 of 65nm produceren. En daarnaast is er nog zoiers als Yield, als de 45nm productie bij TSMC (of waar de RV700 dan ook geproduceerd wordt) pas net opgestart wordt kan deze nog zeer laag liggen, wat de kostprijs verschil nog eens minder maakt.
op server gebied gaat nehalem het goed doen, maar op desktop gebied is dat nog maar de vraag vanwegen de extreem kleine L2 van de chip. nehalem heeft wat dat betreft het zelfde 'probleem' als de k10, maar heeft maar de helft het l2 cache van de huidige k10's en de k10.5 verdubbeld de l2 weer.
Half zo veel L2 cache ja, maar 4x zo veel L3 cache, afhankelijk van wat de bandbreedte en latency naar de L3 cache is, zal de kleine L2 cache misschien zeer weinig invloed hebben. Daarnaast is er quickpath en de geintegreerde triple channel geheugencontroller, waardoor de bandbreedte limiet (waar de grote caches als compensatie voor dienden) opgelost.

[Reactie gewijzigd door knirfie244 op 27 juli 2024 00:46]

Ik vraag me af of het zoveel scheelt in prijs of je op 65nm of 55nm bakt? Ik snap dat dat kleiner is en daardoor goedkoper maar dit gaat toch alleen over de core van een videokaart. Ik heb geen idee wat een core kost maar weet wel dat een kaart uit meer dingen bestaat. Geheugen, koeler en tal van andere chips. Ik neem aan dat die niet op 55nm worden gebakken en dat die onderdelen ook een groot deel uitmaken van de prijs. Dus om nou te zeggen dat voor de prijs van 1x gt200 2xhd4870 gemaakt kan worden heb ik zo mijn twijfels over. Bij een cpu kan ik er wel inkomen dat een kleiner proces stukken goekoper produceren is omdat het daar puur en alleen om de cpu gaat en niet om het complete moederbord.

[Reactie gewijzigd door wiene op 27 juli 2024 00:46]

met de hd4870 vs gt200 zou de productie prijs verschil nog veel groter worden (als nvidia er voor kiest om de gt200 op 65nm uit te brengen zou je aan ongeveer 2 hd4870's per 1 gt200 denken, gaan ze naar 55nm, zou dat 1.5 zijn, en dat is zonder yield te bekijken trouwens, alleen wafferruimte).
2? Volgens mij passen er wel 3 of 4 RV770 chips in een GT200. Het is alleen maar de vraag of dat daadwerkelijk goedkoper is. Ten eerste is 65nm een stuk volwassener dan 55nm, wat ongetwijfeld voor beter yields zorgt. Daarnaast is 55nm mogelijk ook duurder per wafer (en dus per chip), hoewel ik daar geen cijfers van heb.

Yield uitrekenen is echter een stuk minder makkelijk. Daarvoor moeten we namelijk ook weten welke maatregelen bij beide chips is genomen om yields te vergroten. Zo is de kans groot dat NVIDIA net als bij G80 een of zelfs meerdere SIMD eenheden ("SP clusters") extra in de chip heeft zitten, of meerdere geheugencontrollers, TMU's of ROPs. De vraag is dan ook hoeveel van dergelijke trucs AMD heeft gebruikt. Als dat minder is (en dat is bij een dergelijke kleine chip vrij waarschijnlijk), zouden de yields bij AMD wel eens lager kunnen liggen dan bij NVIDIA. Daar komt dan nog eens bij dat bij een kleiner procedee fouten in de wafer of tijdens het proces grotere effecten kunnen hebben dan bij een groter procedee, omdat een relatief groter deel van de chip beinvloed wordt.

Het is dus niet zomaar te zeggen dat kleinere chips op 55nm betere yields zullen hebben dan op 65nm, en dan hebben we het nog helemaal niet gehad over ontwerp en ontwerpfouten en hun invloed op de yields.
10/20w idel trekt mij toch echt overstag. Zoveel game ik nieteens maar als ik het doe dan wel graag met leuk beeld. Die 4870 komt er 100% 4GHz geheugen is gwoon te geil :P
Heb al een aantal leuke 3870x2's laten lopen ervoor.

Als ik het inschat is ddr5 gebruiken ipv grotere geheugenbus als je kijkt naar de 2900 ook een stuk efficienter vooral met oudere games
Me toekomstige kaart is al gekozen: HD4870 :P

Alleen hoe kom ik er achter of de voeding in mijn Dell Dimension E520 de twee pinnen heeft en of-ie uberhaupt het zal trekken?

Nieuwe PC kopen is geen optie.
Meestal zit er bij een kaart wel een molex naar 6 pins pci-e voedingsstekker. Zolang je genoeg molex connectors vrij hebt op je voeding zou het normaal geen probleem mogen zijn...

Op dit item kan niet meer gereageerd worden.