Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 104 reacties

Uit een eerste testreeks kan worden geconcludeerd dat de Radeon HD 4870 X2 de Geforce GTX 280 van nVidia onttroont als snelste videokaart. De druk ligt nu op de schouders van de driverontwikkelaars van AMD.

Met de Radeon HD 3xx0-serie wist AMD al de aandacht op zich te vestigen, maar de nieuwe Radeon HD 4850 en HD 4870 verslaan de nVidia-videokaarten niet alleen op prijs/prestatie-verhouding: de laatste weet zelfs het prestatieniveau van de 100 dollar duurdere Geforce GTX 260 te evenaren. De prestaties van de Geforce GTX 280 bleken echter een stap teveel.

Met de komst van de Radeon HD 4870 X2-videokaart, met daarop twee RV770-gpu's en 2GB gddr5-geheugen, moet hier echter verandering in komen. De eerste tests op onder meer Anandtech, PC Perspective en Driverheaven tonen aan dat de HD 4870 X2 met een verwachte adviesprijs van iets boven de 500 dollar, de vergelijkbaar geprijsde GTX 280 in de meeste games voor blijft, vaak met ruime marge. Alleen in Crysis moet de AMD-videokaart zijn meerdere erkennen in de snelste nVidia-videokaart. De HD 4870 X2 wint het nipt van twee losse HD 4870-videokaarten in Crossfire-opstelling, waarschijnlijk geholpen door de extra gigabyte geheugen van de HD 4870 X2. Wat verder opvalt is de uitstekende schaling van de prestaties van de enkele HD 4870 naar de HD 4870 X2, die in sommige gevallen meer dan 90 procent bedraagt. Volgens de testers staat of valt alles echter nog steeds met de aan- of afwezigheid van een Crossfire-profiel voor de games. De high-end AMD-videokaart zal waarschijnlijk eind augustus worden uitgebracht.

Het energieverbruik van de HD 4870 X2 ligt op vol vermogen ongeveer 100W hoger dan de vorige dual-gpu-kaart, de HD 3870 X2, terwijl een enkele GTX 280 nog iets minder verbruikt. Omdat de bios van de AMD-kaart nog niet helemaal klaar was - wat de reden was waarom Powerplay, de energiebesparende technologie van AMD, nog niet werkte - konden de testers nog geen energieverbruik voor systemen in rust optekenen. Net als bij de gewone HD 4850 en HD 4870 zal AMD de temperatuur van de gpu's op de HD 4870 X2 constant tussen 80 en 90 graden moeten houden, ongeacht de grafische belasting. Een goede luchtaan- en -afvoer in de computerkast is dus essentieel.

AMD Radeon HD 4870 X2 benchmarks

Moderatie-faq Wijzig weergave

Reacties (104)

Naar wat ik heb meegekregen op verschillende fora's heeft deze kaart geen last van micro-stuttering. Een veelvoorkomend probleem bij andere videokaarten met 2 gpu's op 1 kaart (zoals de HD3800x2 en de geforce 9800gx2)
Good news! I can confirm that based on my own tests microstuttering is gone on R700!

I've tested with R700 (ATI Radeon HD 4870 X2) and R680 (ATI Radeon HD 3870 X2) in Crysis (1600x1200 and High settings). I used Fraps and enabled Frametimes logging. I recorded 2 seconds from exactly the same point in game (loaded from save game). Based on my recorded data, with ATI Radeon HD 3870 X2 frames are rendered after ~21,5 and every other frame after ~49,5 ms. With ATI Radeon HD 4870 X2 all framres are rendered after ~ 21,9 ms.
http://www.xtremesystems....p?p=3132311&postcount=469
zeer brute kaart, alleen jammer dat amd hier geen concurerende prijs voor gaat vragen zo te zien, als hij 500 euro word dan neem ik toch 4870cf :Y)
Het betreft een adviesprijs en is nog geen officiele prijs. De verwachte prijs ligt rond 460 euro maar kan volgens mij nog wel goedkoper.

Nu ik de performance zo zie begrijp ik wel waarom Nvidia de prijs met 150 dollar heeft laten zakken voor de 280 en dan nog is de vraag of de kaart zichzelf kan verkopen :) Ik mag alleen hopen dat ATi een ontwerp heeft aangemeten waarop ze kunnen voortborduren om serie na serie op gelijke nivo te blijven staan met Nvidia. Nvidia heeft te lang aan de top gestaan waardoor ze te hoge prijzen vroegen voor hun high end kaarten.

En als de plannen van AMD zich doorzetten waarbij CPU en GPU gaan samenkomen dan kunnen we nog leuke dingen gaan verwachten. Wel hoop ik dat de industrie inziet dat er een nieuw model moederbord uitgedacht moet worden om efficienter te gaan koelen want we kunnen niet eeuwig koelvinnen erin blijven prikken om het spul te koelen.

Aangaande de opmerkingen over het stroomverbuik, op zich valt het best wel mee, het vreet nu eenmaal stroom en je ziet wat er van komt, kleinere procede's en dan word het auto 2 GPU's op 1 plank. Ik denk dan ook dat we verdere besparingen in de toekomst niet hoeven te verwachten want als het procede straks nog kleiner word dan prikken ze er 4 op :)

Wat ik me verder afvraag is of AMD nu niet al in staat is om een moederbord te fabriceren met geintregeerde GPU's erop. Voordeel voor hun zelf is dat ze kant en klaar produkt kunnen aanbieden en voor de gamer wat makkelijker te verkopen als een geheel. Afwachten maar, Intel houd zich verdacht rustig ;)
Ik denk dat de prijzen flink gaan variëren per fabrikant, en per model. Zo lijkt het me ook wel dat er bijvoorbeeld een 1GB versie van uitkomt, waardoor de prijs weer een flink stuk omlaag kan.

Het stukje gpu op moederbord vind ik persoonlijk minder interessant. Ik wil niet als ik een nieuwe gpu koop ook mijn een nieuw moederbord hebben. En het zal ook niet helemaal 100% stabiel zijn als je een GPU er nog op prikt. Dit zou ook betekenen dat je de computer elke keer als je een nieuwe GPU koopt opnieuw moet installeren, en zelfs een nieuwe (bijvoorbeeld) Windows licentie zou moeten aanschaffen. Wordt het alleen maar duurder. Combo's zullen denk ik wel alleen maar interessant worden voor de oem markt. Waar je ook grafische computer nodig kan hebben.
Losse verkoop van kaartjes, MoBo's en CPU's zie je nu al vol op en de verkoop word steeds moeilijker daarvan, er is al zo een hoop op de markt 2de hands, daar waar de prijzen voor nieuw schappelijker zijn. Nu kun je in 1 keer alles kwijt zijn of in 1 keer een alternatief systeem opzetten wat op zich makkelijker is en goedkoper. ALs een merk als AMD alles in 1 produkt kan wegzetten word de aankoop ook een veelvoud goedkoper. Assemblage en vervoerskosten worden goedkoper en een makkelijker te overzien.

Eender zoals nu de consoles het doen, een totaal oplossing aanbieden en die zijn, op wat factoren na tov. een PC ook goedkoper in productie. We zullen zien waar we naartoe gaan, persoonlijk zie ik liever een alles in 1 oplossing, zal ook een hoop gaan schelen met drivers en de maximale optimalisatie van de verschillende onderdelen zie ik ook wel wat in :)

Tegenwoordig kun je bij diverse merken ook al een MoBo+graka+ geheugen kopen, beetje hetzelfde idee. Maar het concept van de huidige moederborden moet gewoon op de schop. 13 jaar geleden begonnen we een 1MB videokaartje, geen fan niks erop. Daarna kwam de 4MB add on kaartjes, wat makkelijk te doen was. Tegenwoordig is de graka dermate zwaar in warmte afvoer dat deze niet meer past in het huidige concept, onder de CPU geplaats. Hang er daar 3 onder en je hebt of een probleem of een giant koelkast, en dat met vinnen is niet echt prettig. De industrie mijmerd gewoon te lang door op een verouderd concept.

En die Windows licentie ben ik niet zo bang voor, dan zal MS ook mee moeten groeien en met een ander licentie systeem moeten komen die een gebruiker op een andere manier identificeert, ze mogen best een beetje buigen ;)
D'r is al voldoende intergratie en dat bediend 'n markt aandeel die daarvoor gevoelig is. De lowbudged. Geintergreerde GPU kunnen mogelijk in de toekomst tot midrange performance worden opgetrokken. Zodat er toch enigzins leuk op te gamen valt.
Daarnaast blijft er 'n amrkt bestaan die wel die flexibliteit van het matchen van componenten over weegd en daarmee zelf de performance needs per component bepaald en daar ook met de budged shift per component.

AMD intel en MS zien wel wat in 'n PC console. Maar Fix hardware neemd ook de vrijheid van betere krachtiger high budged keuzes.

Ik vind met 1920x1440 wel lekker gamen. Het is niet zozeer de eyecandy maar het herkennen van NPC Team/Foo op grote afstanden. Dus 'n gameplay voordeel. Voor mij is extra performance wel goed toe te passen.

D'r is in chips land sowieso 'n performance strijd aan de gang. AMD moet met goede PRijs performance komen voor GPU, omdat voor hun een over de top High-end monoltische GPU Core te duur en te onefficent is. Economisch gezien. Te duur, en past niet in hun moeilijke tijden.

Diespace vermogenopname en klok ceiling schaald niet lineair.
Men kan tot de max klok doorschalen voor retail uitgifte, maar met die elke dieshrink komt er ook meer vermogen uit. Dat schaald ook mee. Zoals elke die shrink 'n bestaande chip goedkoper en zuiniger maakt. Kan er ook extra transistoren bij en hogere kloks waar bij ipv zuiniger er juist meer power getrokken kan worden.

Wat intel doet is profiteren van hun Procede voorsprong.
Dat kan omdat de competitie daar erg op achter loopt.
En omdat iNTel hiermee ook de zuinigheid prijs en topprestatie krijgt. Kan AMD het niet te bond maken kwa vermogen.

Bij hevige concurentie zou intel wel die ceiling op zoeken en ook meer verstoken maar dat hoefd nu dus niet.
Daarom klokken high-end chips van iNTel ook zo goed over.

Will je zuinig dan moet het harder gaan met dieshrinks en er geen competitie zijn.

Zonder AMDTI zou er niet voor het huidige over de top GT200 design op 65nm gekozen worden. Mogelijk alleen 'n G92B en dan wachten tot hun DX11 part. op 45nm
In het artikel spreekt men over "iets boven de 500 dollar". In het verleden vertaalde dat altijd wel naar 500 euro, maar als dat nu nog steeds het geval is, koop ik hem toch liever online in de VS. Maar 500 dollar is tegenwoordig maar ongeveer 320 euro.
En dat vind ik dan wel weer een hele mooie prijs. Valt natuurlijk af te wachten wat het uiteindelijk gaat worden...
Waar zie je staan dat hij 500 euro wordt? Ik zie alleen 500 dollar, en dat is tegenwoordig al lang niet meer 1$:1euro. Als de amerikaanse prijs 500 dollar wordt kun je hier prijzen rond de 350-400 euro verwachten.
Nogal idioot om dat te doen als je het energieverbruik vergelijkt. Zo een kaartje extra in je PC kost je al snel genoeg 100 a 150 euro extra per jaar op je energiefactuur (uitgaande van 8 uur je PC per dag, idle, aan te hebben, en ¤0,18/kWh). Mja, als je de rekening zelf niet betaald natuurlijk.. :Y)
8 uur per dag?

-Moet er niet gewerkt worden?
-Moeten we niet naar school?
-Is er geen huishouden?
-Hebben we geen vriendin?
-etc etc

Weet niet waar jij 8 uur vandaan haalt hoor, maar dat is wel errrrug veel op 1 dag.
Je pc 8 uur idle aan hebben staan hoeft toch niet te betekenen dat je 8 uur lang naar je monitor zit te staren? Arne-Wynand heeft het ten slotte over idle.... :+
Waarom zou je hem dan aan hebben staan?
Downloaden? Lijkt me dat je dat niet op je gaming rig doet.
Net even snel de kaart bekeken bij Anandtech....maar wat een kaart qua prestaties :Y) en afmetingen :(

Volgens mij moet je tegenwoordig een kast a la Coolermaster Stacker hebben om deze beesten kwijt te kunnen. In mijn centurion 5 past deze in ieder geval niet.

Toch nog benieuwd naar het energiegebruik. Als het bios volledig gereed is, wat zou dan het verbruik zijn van deze kaarten.....150 Watt
Hij is net zo lang als een 9800GTX. Zie hier.

10.5 inch, op een paar millimeters na 27cm. Gewoon even opmeten dus. Als ie aan de achterkant een millimetertje ruimte heeft is dat plek genoeg.

\[edit.]
Bij de meeste ATX kasten zal ie net wel of net niet passen. Je zou als ie net niet past kunnen volstaan met 't wegvijlen/wegdermelen/uitzagen van een stukje van 't HDD rek wat normaal gesproken op die plek in de weg zit.

[Reactie gewijzigd door houseparty op 15 juli 2008 22:55]

Hij is niet groter dan de 3870X2 hoor. Zie het Ati Nieuws discussie topic op GoT ;)
Ik heb een 9800GTX in een Centurion5 gehad, paste prima. (alhoewel het wel redelijk duwen was met de harde schijven maarja.

Volgens mij is deze nietzoveel kleiner dan de 4870x2 ?
Leuke vergelijking zeker om de kaart qua geld tegen de 280 af te zetten waarbij de 4870x2 ongeveer 100 Watt onder load meer verbruikt (en dat zal dus erg vaak zijn want je koopt zo een kaart om te gamen niet voor office). Overigens verbruikt die Nvidia 280 al veel teveel.

Het wordt tijd voor 45nM en kleiner en multigpu's (liefst 4 stuks) die netjes uitschakelen per core dat niet noodzakelijk is om boven een bepaalde framerate te komen dat je bv in de config scherm van jouw drivers zou kunnen definieren.
tja hij mag dan wel in load 100watt meer gebruiken maar in idle verbruikt hij velen minder, ik had ergens iets gelezen dat een 4870 in idle 10 watt gebruikte en een 4870x2 25 watt
Ja dat klopt staat onder andere hier nieuws: Nieuwe details over Radeon HD 4000-serie lekken uit . Maar dit gaat pas werken als Powerplay in het bios komt. Hierdoor zal de videokaart in idle namelijk ver terug gaan clocken. :) En de voltages gaan dus ook mee omlaag, wat het energie verbruik dus naar beneden zou moeten halen.
Daar heb je een goed punt. Een dikke 100watt meer dan een enkele GTX280, dat is nogal niet wat. Beide fabrikanten moeten nog meer op het stroomverbruik van zulke monsters gaan letten.

Op de desktop kan de core en het geheugen makkelijk vele mhz. langzamer draaien; ook het voltage kan dan behoorlijk omlaag. Verder heeft niet elk spel zoveel power nodig, het zou dan ook ideaal zijn als er een soort "clock" throtteling plaatsvind. Een soort versnellingsbak zodat je van 1 t/m 5 kan schakelen ofzo. (1-20% 3D vermogen en elke stap daarboven 20% extra vermogen met de daarbij benodigde voltages).

Deze techniek is onafhankelijk van de grootte van het bak-procede. Het kan altijd toepasbaar zijn. Er moet alleen de benodige logica in het ontwerp komen.
Ik snap dat ook niet aangezien Intel toch een goed voorbeeld is dat het energieverbruik drastisch omlaag kan onder full load, idle en dmv speedstep ook tussentreden kent (Waarvan ik ook weer niet snap dat speedstep niet meer lagere mulitipliers heeft).

Ik weet zeker dat dezelfde techniek toegepast kan worden op GPU's. Zet bv x GPU's uit als je er aan 1 genoeg hebt om 60fps te halen met oudere games, en schakel terug dmv speestep, voltages omlaag etc. Dit in combinatie met een kleiner procede zoals 45nM of kleiner en je hebt een winner in huis!
Ja hoor en Intel Larrabee gaat met ongeveer dezelfde ruwe rekenkracht (in Teraflops) als deze HD4870X2 ook gewoon 300 Watt + verbruiken. Wat nou intel weet het beter, dit is GPUs, niet processors.
Dus jij wou zeggen dat als NVidia en AMD, speedstep, voltageregulatie, multicores die onafhankelijk te schakelen zijn en op een kleiner procede de chips gebakken worden het stroomverbruik niet drastisch omlaag gaat.......... RRRRRIGGGGGGGHT
Nee, dat gaat dan inderdaad niet drastisch omlaag.

Al die technieken helpen immers alleen als je cpu idle is. (of zowat idle)
Als je cpu 100% load heeft, dan levert speedstep etc je 0,0% stroombesparing op!!

En als je videokaart ilde is, dan heeft ATI al energiebesparende zaken ingebouwd. Alleen waren die nog niet actief in deze pre-productie kaart.
Hmm, je kan een SIMD niet met een MIMD vergelijken ...
Ik denk dat je daar wel een punt hebt. Maar denk je nu echt dat die kaart minder goed gaat verkopen bij de gemiddelde gamer omdat ze teveel verbruikt?
Ik denk niet dat de echte hard-core gamers zo heel erg inzitten met het milieu of hun electriciteitsrekening. En de meeste mensen die zulk een kaart kopen geven er ook niet eens zoveel om of die kaart nu stil is of niet.

Voor AMD maakt het veel meer uit om nu die snelste kaart weer in handen te hebben. Zo ziet iedereen weer dat nVidia niet de enige optie is (voor zover er nog twijfels waren).

Ik geef je gelijk dat dit inderdaad een stuk beter zou zijn, en dat een hele hoop tweakers tegenwoordig bijna even enthousiast zijn over zulke features als over de prestatie. Over het algemeen geeft de gemiddelde koper van zulk een kaart hier eigenlijk zeer weinig om.
En het is nog steeds belangrijker (voor nVidia zowel als AMD / ATI) om zeer snel een snellere kaart te maken dan de concurrent, dan om een geweldig geheel te maken, met speedstep en dergelijke.
hoeveel van deze kaarten denk je dat verkocht worden? dit is misschien 10% van alle videokaarten die van de gehele generatie wordt verkocht zoniet minder. De mensen die hem kopen zijn game enthousiasts en die kopen dat ding niet omdat hij zo zuinig zal zijn. ze willen gewoon de beste performance.
Wat ik wel vind is het multi gpu idee, met cores die net als een cpu idle kunnen draaien. Dat zou een quantumleap naar voren zijn in graphics gok ik.
De GTX 280 is toch single core?. En de ATI dual Core. Wat si dan sneller een GTX280 in Sli of de 4870X2.. En het stroom verbruik. Tja ik zou maar een windmolen in de tuin gaan plaatsen kanje geld besparen, want het ziet er naar uit dat de heren NVIDIA en ATi niet echt zuinige GPU gaan ontwikkelen.
Als je even de links met benchmarks had bekeken dan had je een conclusie kunnen trekken. Het stroomverbuik is helemaal niet aan de orde, de kaart voorziet aan de verwachting van gamers en die willen maar 1 ding, hoge kwaliteit. Hoge kwaliteit en laag stroomverbruik gaan nu eenmaal niet samen.
En waarvoor?. Om Crysis en dat soort onzinnge games "mooi" te laten gliden over het scherm. Denk dat de ontwikkelaars maar eens wat betere engine's moeten gaan ontwikkelen die in korte fameberekening meer details moeten laten zien.
Onzinnige games bestaan er niet, je vind iets leuk of niet. En engine's bouwen doe je niet zomaar en de afgelopen jaren hebben we mooie engine's mogen aanschouwen die goed werkte.
En microsoft moet een betere direct X ontwikkelen op basis van een stabielere en minder idoot groot besturingssysteem
MS heeft een mooi alternatief voor jou, de Xbox360 zonder al die onzinnigheden van een OS en directX valt niks op aan te merken, zeker niet als je de groei hebt meegmaakt vanaf de eerste versie DirecX, waarin toch al heel veel veranderd is ;)
Het gaat er dus om dat de HD4870X2 een kaart is die uit 1 PCB bestaat je gebruikt dus ook maar 1 PCI-e connector van het moederbord. Hierdoor zou je nog zo'n kaart erbij kunnen zetten.
Als je 2 GTX280 in SLi zet houd je meestal geen PCI-e slot meer over. ;)
op dit moment is dat de situatie, miss komt nvidia nog met een concurrent voor dit fps monster, lijkt me best mogelijk aangezien ati het met 2 4870 ook gelukt is, die ook aardig warm worden.

het probleem met gt200 is dat als je a la 9800gx2 krijgt geen plaats meer hebt voor een koeler :+

hoop wel dat er een gx2 komt, dan gaat de ati weer het dal in met de prijs :9
Dan kan je lang wachten denk ik.. de GT200 chips hebben een 512 bits bus. en die heeft als nadeel dat je nogal lastige pcb's hebt. dus je kan ze niet zomaar op 1 kaart plaatsen of twee kaarten tegen elkaar aan plakken. Dat is ook meteen de reden waarom ati heeft gekozen voor een 256 bits bus icm GDDR5.
Daar wil ik ook even aan toevoegen dat ze auto's die 1 op 70 rijden moeten gaan uitvinden!
Of zonnecellen op 100% rendament.... want wat ze nu hebben kan toch echt niet.
Een smartphone die 6 weken standby kan staan lijkt me ook geen overbodige luxe.. man o man.

Joh, dit is de 'edge' van de markt. Dit is high-end op de performance schaal. Het gaat hier niet om het rendament of prestatie/prijs van de kaartjes, maar om de snelheid. Later worden de overige aspecten ook 'bijgetrokken' (hopelijk ;)).

En microsoft moet? Microsoft moet niks. Jij moet het OS kiezen wat voor jou het beste is.
Precies. De meest succesvolle kaarten zijn niet de eerste van een nieuwe generatie die vaak enkel voor de early adopters met een dikke portemonnee zijn weggelegd. Dat is de 2e generatie, met kleiner productie proces en zo ongeveer alles beter.

Zie 7900GT/8800GT onder meer.
Die kaarten zullen ook komen , in een andere prijs categorie.
Zo vind je nu ook altijd onderaan de rij met verschillende type kaarten, kaarten zonder actieve koeling.
Een Ferrari uitvinden met volle vermogen maar die 1 op 70 rijd is ook niet makkelijk. En daar kijk je in die markt helemaal niet naar.
Of misschien ter vergelijking. Een crysler 300C heb je met een 6.1Liter Hemi v8 motor (slurper), hier ga het om het vermogen.. maar je krijgt ook diezelfde auto met een 2.7 liter v6 (wat ook wel een sluper is) die toch een stuk zuiniger is. (En wellicht komt hiervan ook een Eco uitvoering van net als de Eco Voyager)
En waarvoor?. Om Crysis en dat soort onzinnge games "mooi" te laten gliden over het scherm. Denk dat de ontwikkelaars maar eens wat betere engine's moeten gaan ontwikkelen die in korte fameberekening meer details moeten laten zien.
Niet onzinning! Het verkoopt toch goed? Dan is toch ook niet onzinning? Er zijn zat mensen die heel de volle mep voor willen betalen, dat jij het nu onzinning vindt wil nog niet zeggen dat iedereen dat vindt. Ik zelf vindt het allemaal wel prima, ik koop dan liever niet zo'n kaart en speel wel gewoon een spelletje op mijn PS3 voorlopig. Maar ze moeten inderdaad maar eens goed naar het energieverbruik gaan kijken en kleinere chips gaan fabriceren.
En microsoft moet een betere direct X ontwikkelen op basis van een stabielere en minder idoot groot besturingssysteem
Offtopic?
Auw auw auw!!! Dit gaat heel erg pijn doen bij NVidia !

Om twee redenen:

* Ten eerste natuurlijk de prestaties... Op goed multi-GPU schalende spellen loopt de X2 rondjes om the GTX. Maar belangrijker, zelfs bij traditioneel zeer slecht crossfire schalende spellen (crysis :X ) , blijft de X2 gelijkwaardig aan de GTX 280. Bijvoorbeeld op 1280 resolutie tikkeltje langzamer in Crysis, op hogere resolutie juist weer sneller dan de 280. Als je op z'n slechts gelijkwaardig bent aan de concurrent, en voor de rest beduidend sneller, dan ben je de duidelijke winnaar.

* Maar zeker zo belangrijk is het economische aspect! ATI/AMD heeft het nu voor elkaar, om hun complete mid-range en high-end met slechts 1 GPU model te voorzien. Dat levert natuurlijk gigantische voordeling in de productie. NVidia heeft daar 3 verschillende GPU modellen tegenover staan. Daar hoef je geen econoom voor te zijn, om te weten wat beter is.
Hmm een paar artikelen terug zeiden ze nog dat de HD4870X2 waarschijnlijk 550 werd en nu is dat ietsje meer dan 500 geworden. Apart.

Ook zeggen ze dat de x2 geholpen wordt door extra gig aan geheugen maar omdat dat ding min of meer in crossfire werkt, heb je maar effectief de helft van het geheugen tot je beschikking.

Hoezo moeten ze eigenlijk de temp tussen de 80 en 90 houden? Mag het niet meer gewoon 70 zijn xD?

Trouwens vind ik wel dat ze ietsje zuiniger mochten zijn als ik het zo lees. Ben wel benieuwd naar wat die energiebesparende functie gaat uithalen. Gaat ie soms eventueel ook 1 core uitschakelen als ie niks te doen heeft?

(maar al met al mooi dat AMD weer eens beetje op de top zit, denk dat ze het goed kunnen gebruiken).
Ook zeggen ze dat de x2 geholpen wordt door extra gig aan geheugen maar omdat dat ding min of meer in crossfire werkt, heb je maar effectief de helft van het geheugen tot je beschikking.

Ze zeggen dat ie "waarschijnlijk" wordt geholpen door z'n extra gig geheugen,wat waarschijnlijk ook zo is .En een 4870 heeft enkel 512MB ,in crossfire dus ook effectief 512MB,snap dus even je onderbouwing niet.
Ow mijn fout dacht dat dat ding wel al een gig had, mijn fout had ik even wat vooronderzoek moeten doen xD maar los daarvan dan helpt die gig verschil nog steeds niet maar slechts 512 MB (oke is wel stukje meer)
Hoezo moeten ze eigenlijk de temp tussen de 80 en 90 houden? Mag het niet meer gewoon 70 zijn xD?
Mag wel, lukt waarschijnlijk niet...
mag wel 70 maar dan maakt hij meer geluid en dat is iets wat mensen niet willen. Overclockers en tweakers wel maar die vinden daar zelf wel wat op door een bios mod of zo.
'But graphics chips alone can't save AMD's finances'

In de processor wereld ziet het er helaas nog omgekeerd uit.. met Nehalem voor de deur. En voor het lot van concurrentie hoop ik ten zeerste dat Larrabee niks word.
Nee niet per se maar verlies maken op twee van je hoofd divisies is toch wat erger denk ik dan bij maar een. En als ik het nieuws de laatste tijd ook volg is het ook langzaam aan aan het bijtrekken voor AMD, deels door reorganisaties en deels doordat ATI langzaam aan geintergreerd begint te raken (en dat kostte natuurlijk ook bakken geld).
Leuter toch niet zo man, we weten t zo ondertussen wel. Op t gebied van GPGPU's heeft AMD behoorlijk wat kaarten in handen... Komt allemaal wel goed!
schaalt echt zeer goed!
Het schaalt goed, maar in de text staat :
"Volgens de testers staat of valt alles echter nog steeds met de aan- of afwezigheid van een Crossfire-profiel voor de games."
Begrijp ik dan goed, dat games dus speciaal voor Crossfire gemaakt moeten zijn vooraleer je er echt voordeel van hebt?
Vooral met wat oudere games kun je dan toch veeeeel beter een GTX260 kopen ?

Ik heb bijvoorbeeld een 'oude' pc met AMD FX-55 (single core), en een nieuwe pc met Intel E6700 (dual core).
Vooral in de wat oudere games merk ik dat die FX55 gewoon echt VEEL sneller is dan de E6700.

Het is dus wel leuk dat een X2 kaart sneller is dan een single-gpu kaart maar als maar in 20% van de gevallen gebruik wordt gemaakt van die X2-mogelijkheid, ben je dus 80% van de tijd met een 'slome' videokaart aan het gamen. Toch?
Crossfire profielen zitten 'm in de drivers, niet in de spellen. Hierom ook de mededeling dat de druk nu op de schouders ligt van de driverontwikkelaars - deze dienen tenslotte de profielen toe te voegen.
Maar dat doet nVidea toch ook? Daar zitten ook profielen in van games, of die ook voor SLI zijn weet ik niet.
Niet alleen.
De render techniek en game opimalisatie ervoor bepalen het deels ook.
Met de drivers kan nV en aTI tot 'n bepaalde max gaan maar de game zelf moet ook geoptimaliseerd worden voor SLI en cF. En de game zelf zijn meer of minder geschikt voor SLI en CF.

Highprofile games krijgen uiteraard de meeste aandacht. Van driver teams.
Dus dat crysis slecht schaald ligd eerder aan de game dan aan de drivers.
Want die staat hoog in de preoriteiten lijst.
Ook kan TWIMTBP CF dwars liggen.

Vooral voor low profile games is de driver gedeelte belangrijk. Want dat heeft vooral tijd nodig.
Ik denk dat op het moment dat je een spel speelt dat niet echt gemaakt is om met 2 of meer gpu's te werken je vast die tweede core ook niet nodig hebt ;)
Een crossfireprofiel is denk ik net een profiel van driver settings dat is aangepast aan een bepaalde game, of iets dergelijks. Een game moet het dus niet zelf ondersteunen, wat een pluspunt is.
Oudere games die geen CF ondersteunen gaan al kneiterhard met 1 enkele 4870, dus daar hoef je niet lang wakker van te liggen lijkt me.
Crysis kunnen we vanaf nu dan officieel als de de anti-ATi game erkennen. Je zou bijna zeggen dat CryTek het erom deed..
Er staat niet voor niets een Nvidia logotje bij de intro he..

Nvidia heeft (dacht ik hoor..) zelfs meegeholpen bij het ontwikkelen van Crysis.
T is dus niet echt iets nieuws dat de Nvidia kaarten het beter doen in Crysis.
Mwoah, in de intro van Assasin's Creed komt ook zo'n logootje voorbij, maar dat draaide toch al gauw 20% sneller op een HD3xx0 kaartje omdat die DX10.1 ondersteunen. Tenminste, tot Ubi de 10.1 support eruit patchte.
En dat is dus het hele probleem met die "gesponsorde" games.
Nvidia heeft (dacht ik hoor..) zelfs meegeholpen bij het ontwikkelen van Crysis.
Klopt. Nvidia was destijds de enige die DX10 hardware had. Crytek pronkte ook behoorlijk met de DX10 functies tijdens de ontwikkeling van hun engine voor Crysis.
Nee, ik denk dat het beter is om nu dan echt officieel Crysis tot een slecht geprogrammeerd spel mogen dopen, want als het zelfs nog maar kiele kiele gaat met deze next-gen kaarten van zowel Nvidia als ATI, dan heb je gewoon iets niet goed gedaan. Al helemaal als je dat gaat vergelijken met de spetterende resultaten die andere games met deze kaarten neerzetten.
Crysis is gewoon een slecht spel wat dat betreft, oké het ziet er erg goed uit, maar als je kijkt wat andere games doen, haal je veel meer fps in verhouding met de grafische pracht.

Is wel lullig, Crysis is maar 20 euro op dit moment, maar voor dat geld haal je dus een game in huis waarmee je ''elke'' pc op zijn knieen kan krijgen als er een fatsoenlijk scherm aan hangt (hogere resolutie).
Dat is ook waar. Ik hoop dat Far Cry 2 zijn belofte voor betere graphics met MINDER systeemeisen dan Crysis waarmaakt. Dan word dat de nieuwe ultieme bench mark game, in plaats van het inderdaad slecht geprogrammeerde Crysis.
Wat heeft Far Cry 2 met Crysis te maken?

Zowiezo, wordt 3dmark te licht (te hoge score) is het niet goed... is het te zwaar is het ook niet goed. Wie wil wat nou? Sorry maar te zwaar is juist goed, want dan wordt je niet door andere dingen gebottlenecked maar echt door je GPU.

[Reactie gewijzigd door watercoolertje op 15 juli 2008 10:41]

Ik bedoel dat zo ongeveer elke site die nieuwe videokaarten test, Crysis gebruikt als benchmark omdat het grafisch nog altijd de naam heeft de beste te zijn.

Als Far Cry 2 beter is, dan word dat misschien de standaard die Crysis zich ten onrechte heeft toegekend, en hebben we dit soort biased TWIMTBP boosted verhalen niet meer, want met Crysis valt op deze manier gewoon niet realistisch te testen.
Dit plaatst het eerdere bericht over NVidia in een ander perspectief. De zet is weer aan NVidia.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True