Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 113, views: 31.425 •

De topkaart uit ATI's Radeon HD 4000-serie zou vier keer sneller zijn dan de HD3870. Dit blijkt volgens het Duitse Hartware.net uit een uitgelekte productpresentatie met details over de nieuwe serie die in juni wordt verwacht.

Uit de details blijkt onder meer dat het energieverbruik van de RV770-serie dankzij de in de 3000-serie geÔntroduceerde Powerplay-techniek vooral idle binnen de perken blijft. De topkaarten uit de nieuwe 4000-serie zouden voor het eerst voor ATI de ietwat arbitraire teraflops-grens moeten doorbreken.

Ook over de verwachte maximumprijs van videokaarten gebaseerd op de nieuwste gpu wordt ondertussen gespeculeerd, waarbij blijkt dat ATI de kaarten vooral als budgettair aantrekkelijk alternatief voor het aanbod van Nvidia op de markt wil zetten.

ATI RadeonEnigszins verrassend is het gerucht dat de topkaarten met de RV770-gpu ddr5-geheugen zullen gebruiken, aangezien ddr4 de voorlopige klokfrequenties van de kaarten zonder problemen aan kan. De verschillende gpu's van ATI hebben de broodnodige uitbreiding in het aantal tmu's gekregen, waarbij de RV770-core over 32 stuks beschikt. De RV770 en RV740 beschikken over 256-bit bandbreedte, terwijl de RV710 het met een bus van 128bit moet doen. De chips worden door Tsmc op 55nm gebakken en zijn gepland voor het tweede kwartaal van 2008. Of de geruchten over de op prijs-prestatie gerichte videokaarten van ATI op waarheid gebaseerd zijn, zal dan moeten blijken.

KaartCoreGeheugenTimingShadersEnergie (idle/load)Prijs
4870X22xRV7701GB gddr51050/18002x480<25W / 250W<$499
4870RV7701GB gddr51050/2200480<10W / 150W<$299
4850RV770512MB gddr5850/1800480<10W / 120W<$249
4670RV740512MB gddr41000/1200240<10W / 100W<$149
4650RV740256MB gddr4800/1000240<10W / 80W<$129
4470RV710256MB gddr3900/80040<10W / 50W<$79
4450RV710128MB gddr2700/50040<10W / 30W<$59

Reacties (113)

Reactiefilter:-1113096+127+213+30
Met heel snel geheugen heb je denk ik geen 512bit bus nodig? Het is slechts een gok, maar ik denk dat AMD gekozen heeft voor ddr5 geheugen omdat dit goedkoper is dan een 512bits bus. Als zij zeggen dat de kaart 4x zo snel zal zijn (ga ik even uit van 2,5x want dan is het nogsteeds een monsterkaart) dan zal die 256bits bus niet heel erg bottlenecken denk ik.
Als zij zeggen dat de kaart 4x zo snel zal zijn (ga ik even uit van 2,5x want dan is het nogsteeds een monsterkaart)
Die 4x is volgens mij een vergelijking tussen een dual-GPU kaart en een single-GPU kaart. Zo kan ik het ook. ;)
Dat, en het feit dat de HD3*** serie gewoon traag is voor zijn tijd. Voorheen waren er snelheidsverdubbelingen te zien wanneer een nieuwe serie begon, maar de HD3 serie was bijna niets beter dan de HD2 serie, afgezien van stroomverbruik.
De HD3*** serie was ook niet ťcht als volgende serie bedoelt zoals de HD2 serie dat was t.o.v. de X1K serie. De HD3 serie zijn eigenlijk gewoon HD2 serie kaarten op een kleiner procedť met hier en daar wat aanpassingen (toevoeging van PowerPlay, DX10.1). Om duidelijkheid te creeŽren qua bijv. DX10.1 hebben ze het dus de HD3 serie genoemd.
Dat neemt niet weg dat Nvidia in de tussentijd wel hun prestatie verdubbelt heeft, zoals ieder jaar, waar ati nu dus een jaar achterloopt. Oke, dat is heel "jip en janneke"-achtig uitgelegd maar het klopt wel een beetje... ATi is weggevallen uit het highend segment... hopen dat ze nu een inhaalslag maken.
Dat neemt niet weg dat Nvidia in de tussentijd wel hun prestatie verdubbelt heeft
sinds de g80 heeft nvidia niks meer gedaan hoor, en dat is al 1 jaar en 3 maanden geleden. zeker zijn prestaties niet verdubbeld iniedergeval.
ik weet niet waar jij die verdubbeling bij ziet maar ze hebben alleen de veel te dure en niet te krijgen ultra geintroduceerd die maar marginaal sneller is.
en vanaf de 1950 tot de 2900xt heeft ATI ook zijn prestaties verdubbeld.
en op dit moment is ATI zelfs de snelste met hun 3870x2. dus wat nouw weggevallen uit het high-end sigment. dat was alleen het geval voor de 3870 en zeker voor de 3870x2
die x2 van nvidia lijkt even op zich te laten wachten en er gaan al genoeg geruchten over een hele hete kaart om je zorgen te gaan maken.
en ook over hun vervolg chip de gt200 gaat het gerucht dat hij veel zal verbruiken (nog net iets meer als de hd2900xt zelfs)
Die 4x is volgens mij een vergelijking tussen een dual-GPU kaart en een single-GPU kaart. Zo kan ik het ook.
Zo kan je het ook? Zo hoort die vergelijking ook.
Een kaart met multiple GPU's blijft gewoon 1 product die je op je mobo prikt. Dus die vergelijking is gewoon valide.
Dat is waar, maar de HD3870 X2 is er ook gewoon, dus ze vergelijken de beste kaart uit de nieuwe serie met de ťťn na beste kaart van de oude serie...
en? ze zeggen toch duidelijk waarmee ze het vergelijk en dat het TOT 4x sneller is.

daarbij gaat het vanaf de r700 ook normaal zijn dat de high-end uit meerdere chips bestaat. bij de 3870x2 is het toch nog een beetje voor leuk erbij zeg maar.

[Reactie gewijzigd door Countess op 18 februari 2008 17:27]

Ik kan mij herinneren dat een tijdje terug voor grafische kaarten op laptops gekozen werd voor ddr4 in plaats van ddr3. Het voordeel lag niet zo zeer in de hoger bandbreedte van ddr4, maar vooral in het lagere stroom verbruik.

Mogelijk gebruikt ddr5 ook weer minder stroom dan ddr4 en dat is natuurlijk mooi meegenomen. Ik heb helaas niet de kans om dit te verifieeren, dus hopelijk weet iemand meer over het stroomgebruik van ddr5?

Ik vind het overigens fantastisch als blijkt dat het idle stroom verbruik inderdaad zo laag zal liggen als voorzien.

Vergelijkingen van videokaarten zouden wat mij betreft enkel op prijs gedaan moeten worden, als de algemene kwaliteit vergelijkbaar is.

Dus als een dual-core ATI vergeleken wordt met een single-core nVidia kaart en ze kosten hetzelfde en ook het stroomverbruik ligt op gelijke hoogte, waarom niet?

Edit:

Volgens dit artikel op http://www.eetasia.com/ART_8800503578_499486_NP_74d933d1.HTM heeft GDDR5 de volgende "Power consumption" eigenschappen:

GDDR5 is designed in a way to only consume power when really needed. Several features and methods are implemented in a way to allow a demand driven power management:

* Extremely wide clock frequency range and data rates
* Multi level, demand driven termination enabling
* Low power modes for DRAM core
* Low supply voltage of 1.5V
* Data and address bit inversion
* Power-down and self refresh modes

Dus als ik het juist begrijp kan het geheugen zichzelf uitschakelen als het niet nodig is.

Volgens een artikel van Samsung gebruikt GGDDR5 20% minder stroom dan GDDR3, maar dat zegt helaas niets over GDDR4 in vergelijking tot GDDR5. ( http://www.physorg.com/news116087405.html )

[Reactie gewijzigd door Luke Skywalker op 18 februari 2008 19:13]

Zie het zo:

256 bit met een geheugenklok van 1Ghz is even snel als 128 bit met een geheugenklok van 2Ghz.

Is gelijk een autobaan: 4 banen met maximumsnelheid van 60 km / uur is even snel als 2 banen met 120 km / uur.

Natuurlijk is dat niet 100% correct, maar het geeft een goede indicatie!
Het voorbeeld met de auto's lijkt me niet helemaal correct, beide situaties zijn alleen even snel wanneer de weg continu vol is met auto's die bumper aan bumper rijden met de door jou gestelde snelheid. En dat lijkt me een volkomen onrealistische situatie.
Voor auto´s inderdaad, electronen hebben er minder moeite mee :P
of de autos mogen pas gaan rijden als de weg vrij is, dan klopt het weer wel :)
4 banen met maximumsnelheid van 60 km / uur is even snel als 2 banen met 120 km / uur.

Natuurlijk is dat niet 100% correct, maar het geeft een goede indicatie!
Het is inderdaad niet correct en alleen juist bij een theoreteische constante maximale auto-flux (data flow).

Bij niet volledige flux is 4x60km/uur (1GhZ @ 256 bits) qua pure snelheid langzamer dan 2x120 km/uur (2 GhZ @ 128 bits). Dat zal echter niet alles zijn:

Je zult ook de wachttijden moeten meenemen om op de snelweg te komen.
Daarnaast, het "verdelen" van data over 256bits zal een andere tijd in beslag nemen dan het verdelen over 128bits. Welke daarbij sneller is hangt af van het formaat van de aanbieder & de ontvanger.

Als (slecht?) voorbeeld: een 10000rpm schijf met een accesstime van 1 minuut zal in de praktijk langzamer zijn dan een 4200rpm schijf met een accesstime van 10ms. (Beide wil je overigens niet hebben)
Ziet der goed uit, ben benieuwd naar de prestaties van deze nieuwe beeldplankjes. En ik zie ook alweer gddr5, wat gaat dat hard zeg :))
Het gaat idd snel met GDDR, maar ik weet niet of dit nou zo veel zin heeft. Aangezien Nvidia nog met GDDR3 werkt in de 8 series. Als je de high-end kaarten van beide partijen tegen elkaar aflegt scoort Nvidia toch beter(op prestatie gebied).
Er is natuurlijk ook nog de latency die elke generatie weer iets groter wordt waardoor dus enkele MHz. vertraging ontstaat tov evensnel geklokt geheugen van een "oudere" generatie.

Ik weet niet hoe zich dit met GDDR3 tov GDDR5 verhoudt, maar dat er grote verschillen zijn tussen DDR en DDR2 en DDR3 moge duidelijk zijn.
Dat is niet correct, latency wordt uitgedrukt in kloktikken. Dus een latency van 5 kloktikken op 1000MHz is even lang wachten als 10 kloktikken op 2000MHz. De latency gaat inderdaad omhoog, maar relatief gezien blijft het gelijk of wordt zelfs beter.
Wow ze gaan wel erg snel nu met de kaartjes :D
Woot kan m'n 3850 binnekort alweer de verkoop in joh :P

Maare 4x zo snel als de huidige 3870 vind ik iets te voorbarig... dat gaat ze niet lukken denk ik :9~

[Reactie gewijzigd door cc_tuner op 18 februari 2008 12:07]

Waarschijnlijk kun je jouw 3850 samen met een RV7xx gebruiken d.m.v. CrossfireX, als je genoeg PCI-E (2.0) sloten voorhanden hebt...

Een 3850 kun je ook al erg goed mixen met een 3870, met diezelfde CrossfireX.

De 4670 lijkt me een fantastisch kaartje.

ATI is erg goed bezig, op bijna alle fronten beter dan nVidia, behalve ruwe performance daar zitten ze net ietsjes onder. Maar dat is tegenwoordig niet meer belangrijk, Het gaat toch om het totaalplaatje: energiezuinig, koel, goedkoop EN snel! Daar is ATI de beste in geworden, nu al, en het wordt steeds beter!
vergeet de performance boost niet met de Hybride techniek die ze gaan toepassen

http://www.fudzilla.com/i...&id=5753&Itemid=1
3 verschillende soorten geheugen in 1 serie, lijkt me wat veel van het goede
4 verschillende zul je bedoelen. ;)

GDDR2
GDDR3
GDDR4
GDDR5
Waarom ? als de memory controller het toch aan kan ? dit geeft bedrijven als sapphire veel ruimte om zelf kaarten te maken.
Mag ik toch lijen van wel... De 4870 is dan een halfjaar/jaar (weet het niet precies) nieuwe, dus dan mag ik toch hopen dat het topmodel sneller is.
De HD3870 is net zo snel ongeveer, deze word 4 keer sneller. Wat is er dus sneller?
De X2 ja maar dan vind ik dat je em ook moet vergelijken met de huidige X2. Zo als ik het nu lees is de HD4870 2x zo snel als een HD3870 dus ook 60-70% sneller dan een 8800 GTX. En die komt en in X2 vorm uit waardoor hij nog sneller is.

Echter zit nVidia ook niet stil die komen met hun GT200 chip. Maar dit is wel interessant. AA zou ook weer verbeterd zijn zodat ook de 2-4x AA modes sneller zijn. Daar verliest ATi het nu maar wint de 8x en hoger wel weer.
de HD3870 even snel als de 8800GTX?

guess again: de HD3870 is bijna zo snel als de 8800 GT (dus niet GTX!) in bijna elke test.

Desalniettemin wordt de 4870X2 ongetwijfeld sneller dan de 8800GTX. Zo niet kunnen we gedag zeggen aan AMD voor high-end kaarten, gezien nVidia tegen die tijd bijna toppers van de 9000-serie zal introduceren. AMD kan het zich niet permitteren 2 generaties achter te zitten...

(na herlezen: ik heb het wel over de 3870, niet de 3870X2 !!)

[Reactie gewijzigd door kiang op 18 februari 2008 18:53]

de 3870X2 is nu de snelste kaart die er is. Die verslaat de 8800 Ultra al.
En als die 4870X2 4 keer zo snel is als een single 3870 zal die de 8800 serie makkelijk verslaan.
De 3870X2 is volgens de meeste reviews, onder andere AnandTech, al sneller dan de 8800Ultra. Volgens de tweakers review zit hij tussen de 8800GTX en de 8800Ultra in.

De RV770, waarop de HD4870 gebaseerd is wordt volgens de geruchten 50% sneller dan de RV670, waarop de HD3870 gebaseerd is. Dat wil zeggen dat deze als single core al sneller zal zijn dan de 8800GTX.

Het vergelijken van de 4870X2 en de 8800GTX lijkt dan een beetje zinloos...
Ja, zet die 3870X2 maar in Crossfire tegenover een SLI setje 8800GTX. Vergelijk de prijzen en prestaties, en dan praten we gezellig weer verder.
Inderdaad. Als consument is het toch alleen belangrijk om je af te vragen wat je aan prestaties, geluisniveau, stroomverbuik, e.d. krijgt voor je geld? Wat maakt het dan in vredesnaam uit of je een dual of single GPU kaart hebt?
Is er nog iemand hier die De AMD X2's en Intell C2D's inferieur vindt aan een Pentium4, omdat ze meerdere cores hebben?
Voorlopig zie ik het 'X2 telt niet als single kaart'-argument als NV marketingpraat (zie reactie van NV CEO enkele dagen/weken geleden).
Inderdaad. Als consument is het toch alleen belangrijk om je af te vragen wat je aan prestaties, geluisniveau, stroomverbuik, e.d. krijgt voor je geld? Wat maakt het dan in vredesnaam uit of je een dual of single GPU kaart hebt?
daar maakt het in hemelsnaam uit... Ik wil geen verwarmingsketel onder m'n bureau, dus ik bedank voor energieverslindende dual GPUs...
een dual gpu ontwerp kan zuinige zijn als single hoor. de huidige zijn dat niet maar bieden ook veel meer prestaties, maar 2 chips die samen even veel prestaties leveren als 1 single chip kunnen wel degelijk zuiniger zijn, en makkelijker te maken dus goedkoper.

en de GPU markt gaat toch die kant op.
de laatste single chip high-end kaart gaat de gt200 chip van nvidia zijn. daarna word alle high-end multi-gpu.
die gt200 heeft trouwesn meer als 1 miljard transistors en 65nm process en een verbruik van 250 watt volgens de laatste geruchten.
dat is even veel als het hier door ati voorgestelde dual gpu ontwerp.
omdat ATI's chips kleiner zijn kunnen ze makkelijker experimenteren met een kleiner procedť en kunnen ze ook strengere eisen stellen aan de chips zonder dat de yields te laag worden. allemaal dingen die of de prestaties of het verbruik van de chips kunnen verkleinen waar nvidia met hun enkele grote chip geen gebruik van kan maken.

ja er zitten nog wel wat haken en ogen aan dual en multi gpu, maar verbruik (of eigenlijk vooral prestaties/watt) hoeft er daar geen van te zijn.

[Reactie gewijzigd door Countess op 18 februari 2008 20:27]

De markt gaat echt niet de kant op van de dual-gpu, tenminste niet in de huidige vorm.

Toen de P4 aan z'n einde kwam, en dual-CPU opstellingen populairder werden, dacht men ook dat dit de toekomst was. dual x-PU's zijn echter niet echt efficiŽnt, doordat ze om met elkaar te communiceren door de tragere bus moeten (simpel uitgelegd). EfficiŽnter is wat we nu bij CPU's, en volgens mij over een generatie of 2 in de GPU gaan zien: meerdere kernen. Hierdoor stijgt niet enkel de efficiŽntie per kloktik, maar ook de performance per watt, waardoor ook relatief zuinigere GPU's mogelijk zijn.

Dual-GPU's zijn nu enkel de way to go voor de meest veeleisende gebruiker, maar zullen nooit courant worden voor andere segmenten, multi-core GPU's zullen dat wel. Zeker als de markt nVidea volgt op vlak van physics op de GPU: dan worden multi-threaded GPU-taken echt nuttig.
Me twee losse gpu's heb je nog steeds enkele grote nadelen; er is een bus nodig tussen de gpu's en iedere gpu heeft zijn eigen videogeheugen. Vooral dat laatste is een behoorlijk nadeel, de kosten lopen op en het beoogde stroomvoordeel van twee zuinige core's doe je hiermee deels/helemaal ten niet.

Multi-cores hebben dit nadeel niet, tenminste als ze van hetzelfde geheugenbuffer gebruik kunnen maken. Multi-cores zijn dan de toekomst, multi-gpu's zijn dat zeker niet.
dat is ook een van de redenen dat ATI een ringbus controller heeft gemaakt.
in toekomstige multi-gpu chips worden die aan elkaar gekoppeld.
Wat een mooie idle verbruiken hebben die kaarten! Dat vind ik echt mooi om te zien. Als je gaat gamen trekken ze aardig wat maar tijdens simpele dingen dus niet. Dan zou ik ook een topkaart overwegen :) Het gaat toch wel de goede kant op met stroomgebruik van al die hardware, leuk om te zien.

Worden dit ook de eerste videokaarten die over de 1Ghz core gaan? Dat is toch ook wel een leuke prestatie :)

[Reactie gewijzigd door R-O-Y op 18 februari 2008 12:35]

Inderdaad. De meesten hebben het over die grafische prestaties en de concurrentie met nVidia, maar die idle verbruiken van deze ATi-serie zijn gewoon fantastisch!
Eindelijk weer mooie prestaties bij "sensible" verbruiken! :)

Ik wil gelijk m'n 8800 GTS wegdoen, het ding zit gewoon veels te veel te slurpen in idle.
Vanwege die hoger verbruiken liet ik die hoge prestatie kaarten links liggen, maar dit zit er in Idle heel goed uit, als dit klopt heeft ATI/AMD goed werk geleverd.
Als de prijs kwaliteit verhouding echt zo goed is als ze zeggen krijgen we een zeer goed alternatief voor Nvidia's kaarten.
hmm ziet er leuk uit, maar gddr5....... is dat niet ietwat overdreven?
En dan de bandbreedte, 256 bit; het kan aan mij liggen maar gaat dit niet erg beperkend werken? Dat is voor een high-end kaart toch niet echt spectaculair lijkt mij. De high end kaarten van nvidia zijn nu al met 386 bit interfaces uitgerust......
hmm ziet er leuk uit, maar gddr5....... is dat niet ietwat overdreven?
En dan de bandbreedte, 256 bit; het kan aan mij liggen maar gaat dit niet erg beperkend werken?
Eerst noem je geheugen met veel bandbreedte overdreven en daarna noem je een 256 bus beperkend omdat het niet genoeg bandbreedte zou kunnen leveren?

Er is maar een ding belangrijk: bandbreedte. Of je dat door een brede bus of door snel geheugen bereikt, maakt niet uit.
Dat is nou juist het probleem, bandbreedte is afhankelijk van de 'zwakste schakel' of de bottleneck.
Als je 1 gig DDR5 hebt met een 128 bus dan is je bandbreedte en de bijbehorende prestaties nog steeds laag. En andersom geld hetzelfde 512 bus met heel traag geheugen werkt ook niet lekker.
En zoals in het artikel al staat DDR5 is onnodig wat betreft snelheid en waarschijnlijk erg duur, dus liever nog ff ddr4.
Maar daarentegen wel zuiniger (juist omdat het ruim onder zijn max. zit) en beter overclockbaar? ATI zal best wel een goede reden gehad hebben om die overstap te maken.
Zijn ze nu afgestapt van de 512 bit bandbreedte? De 55nm chips klinken zeer interessant.
Nja min of meer wel omdat bij een 2x kaart 2x 512 bit bus te lastig is. En 256 Bit bus met GDDR5 zorgt voor evenveel bandbreedte als 512 Bit met GDDR3/4.

Ook was de 512 Bit bus nog niet efficiŽnt genoeg de 256 Bit was in verhouding veel efficiŽnter. Bij een nieuwe versie van de 512 Bit bus zouden ze met meer channels de efficiŽntie beter kunnen maken echter is dit alleen te doen als je maar 1 chip op de kaart gebruikt. Misschien komt dit wel terug zodra ze een soort van dual core GPU gemaakt hebben.
512 bit is betrekkelijk ingewikkeld en duur om te maken. 256 heeft minder lagen/banen nodig, waardoor de ontwikkel- en productiekosten omlaag geschroefd kunnen worden. Aangezien die chips met GDDR5 overweg kunnen, verwacht ik, ondanks de gehalveerde bus, geen gemis aan bandbreedte.
de 2900xt was toch ook al met 512 bit?
klopt echter waren de kosten vrij hoog HD3870 met GDDR4 doet het in verhouding beter. Dus als je sneller GDDR4 of 5 geheugen pakt is het verschil met een 512 Bit GDDR3 bus weg. 512 bit was ook een stukje duurder om te maken kaarten worden veel complexer. En de bus kon efficiŽnter. Hij werd nu niet optimaal gebruikt.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013