Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties

De nieuwe AMD Radeon HD4850- en HD4870-videokaarten zijn 20 procent sneller dan respectievelijk de Geforce 8800GT en de 9800GTX van Nvidia, zo blijkt uit een benchmark van Ocworkbench.

Amd logo (75 pix) Midden juni zal AMD zijn nieuwe generatie videokaarten op basis van de RV770-gpu lanceren. De Radeon HD 4870 volgt de HD 3870 op, terwijl de HD 4850 de opvolger is van de HD 3850. De core van de HD4870 zal volgens Nordic Hardware een kloksnelheid krijgen van 750MHz, tegenover 625MHz voor de HD4850. Het gddr5-geheugen van de HD4870 zal effectief op 3,92GHz lopen, terwijl het gddr3-geheugen van de HD4850 een kloksnelheid krijgt van 2GHz. Het videogeheugen wordt bij beide kaarten aangesproken via een 256-bit bus en de RV770-chip bevat 480 streamprocessors tegenover 320 in de RV670.

Ocworkbench liet alvast de 3dMark06-benchmark los op de twee nieuwe AMD-videokaarten en twee huidige Nvidia-modellen. Daaruit blijkt dat de HD4870 twintig procent sneller is dan de Geforce 9800GTX terwijl de HD4850 de Geforce 8800GT met evenzoveel procenten achter zich laat. Vr-zone weet nog te melden dat de HD4870 op vol vermogen 160W verbruikt, terwijl de HD4850 een vermogen trekt van 110W.

Ten opzichte van de huidige Nvidia-modellen steken de twee nieuwe AMD-videokaarten dus gunstig af, maar de echte strijd gaat tussen de HD 4800-serie en de nieuwe GTX260 en GTX280 die Nvidia op 18 juni uit gaat brengen. Daarvan zijn nog geen benchmarks bekend.

Moderatie-faq Wijzig weergave

Reacties (90)

Het ziet er vrij goed uit voor AMD. Ze hebben nu duidelijk een andere insteek genomen dan nVidia, namelijk zoveel mogelijk prestatie voor zo min mogelijk geld én zo min mogelijk stroomverbruik. Ik denk dat dit wel de kant is die videokaarten op zullen moeten gaan. De GTX280 zal wel een performance beest worden, maar met een stroomverbruik van 240 Watt en een prijskaartje van rond de 500 dollar zal dit voor weinig mensen echt een realistische optie zijn.

De kaart die het uiteindelijk echt op zal moeten nemen tegen de GTX280 is de HD4870X2. Ik ben erg benieuwd hoe deze kaart het gaat doen. Of het stroomverbruik, vooral idle, een beetje binnen de perken gehouden kan worden en of de 2 GPUs optimaler gebruikt zullen worden dan bij de HD3870X2. Al met al een erg interessante serie, met volgens mij 3 kaartjes die vrij sterk in de markt zullen staan.
Ze hebben nu duidelijk een andere insteek genomen dan nVidia, namelijk zoveel mogelijk prestatie voor zo min mogelijk geld én zo min mogelijk stroomverbruik. Ik denk dat dit wel de kant is die videokaarten op zullen moeten gaan.
NVIDIA neemt stroomgebruik ook serieus hoor. Als je een nieuw NVIDIA moederbord koopt heb je hybrid SLI, en ook hybrid power. Je kunt dan je hele GPU uitschakelen zolang je deze niet gebruikt, en als je gaat gamen zet je dan je kaart weer aan. Dat is nog weer een stukje zuiniger dan een AMD kaart met laag stroomverbruik.

[Reactie gewijzigd door Snoitkever op 20 mei 2008 14:52]

AMD/ATi heeft dezelfde technologie hoor voor zijn nieuwe chipsets.
Ik denk dat jij gelijk hebt.

High-end kaarten worden door de extreme gamers toch wel gekocht. (8800Ultra enz.) Maar voor toch goede prestaties is deze kaart perfect. En volgens fudzilla gaat dat stroom verbruik nog meer omlaag.

Qua prijzen is het ook niet mis. Fudzilla meld de RV770XT vanaf $229. Dat is echt niet mis, zeker als je dan nog eens naar prijs/performance kijkt.
AMD/ATI heeft helemaal geen andere insteek genomen maar ze zijn gewoon al anderhalf jaar langzamer dan Nvidia en daarom hebben ze gewoon geen andere keuze om het prijs/prestatie verhaal te spelen, zelfde geld voor de procesor afdeling van AMD

wat energie verbruik betreft waren de verschillen tussen ATI en Nvidia miniem, verschil was niet groter dan 10 watt
Weer 'nieuws' dat met een korreltje zout genomen moet worden... Nergens kan ik een echte benchmark van de nieuwe HD48xx kaarten vinden, en zeker niet in de vermelde bronnen.
...zo blijkt uit een benchmark van Ocworkbench.
Uit die zogenaamde resultaten:
It is said that the HD 4850 is 20% faster than the 8800GT and HD 4870 is 20% faster than the 9800GTX.
...
AS for 4850, it will be 20% faster than 8800GT and 10% faster than the 9800GTX.
En dan wordt er daar op verder gebouwd. Als je de grafiek bekijkt staat daar enkel in %, en niet in 3Dmarks uitgedrukt hoe snel ze zogezegd t.o.v. elkaar zijn, en nergens wordt beweerd dat ze deze resultaten uit eigen benchmarks, of zelfs uit benchmarks en niet puur speculerend, hebben gehaald. Dus kunnen de 'resultaten' evengoed verstaan worden als speculaties, en dan betekent die mooie grafiek enorm weinig...


Niettemin zouden resultaten van deze aard me verbazen; de betrouwbaarheid van de benchmarks/getallen daarentegen... :+

[Reactie gewijzigd door 3phemeral op 20 mei 2008 14:24]

Daarbij komt bij dat de resultaten van Ati kaarten in 3dMark altijd iets hoger liggen dan de resultaten die ze in games neer zetten.
Of de uiteindelijke officiële benchmarks ook daadwerkelijk de geclaimde resultaten zullen bieden is nog maar de vraag, maar ATI lijkt weer een goed alternatief te hebben tov een Nvidia kaart.

Ik zelf was echt heel erg verbaasd over de prijs van de 3870 toen deze uitkwam, NVidia was daar niet op voorbereid, maar heeft net als ATI snel z'n kaarten goedkoper gemaakt om toch nog wat te bieden tegen de 3870, de 8800GT bleek uiteindelijk een heel goede concurrent.

iig hoop ik dat Nvidia en ATI een goede balans zullen vinden tussen prijs/prestatie van hun modellen, daar zullen wij als consument de grootste profijt van moeten hebben.

ik ga al sparen voor een 4870..., binnenkort zal m'n 3870 wel in de uitverkoop gaan, dus misschien wordt een CF opstelling ook een optie...
blijf toch altijd een lichte voorkeur houden voor ATI, maar Nvidia maakt ook zeker heel mooie producten!
eigenlijk is alles wat eerder geschreven is onbelangrijk.... ;-)

het is simpel, zowel nvidea als ati hebben zeer goede kaarten.
Nvidia is over het algemeen wat duurder, dan ati.
qua spellen welke het snelste is zeg ik gelijk spel..
reden, het hangt er puur vanaf wat voor spellen je speelt.
in het ene spel is nvidia sneller en in het andere de ait.

verder is het meer een kwestie van geld en zeker niet onbelangrijk geluid.

Waarom zie ik daarover niet zoveel in dit topic??
Ati ( sapire ) heeft de ultimate een 3780 passief gekoeld.
Ik hoop dat die er ook komt van de 4780 dan heeft ati pas een goede troef in handen.
Ik heb volgens mij nog geen 8800GT of sneller gezien die passief gekoeld is.

verder hangt het ook af van je cpu + gpu combinatie.
snuffel maar eens goed op tomshardware.com daar staat goede info hier over.
Er is wel een passief gekoelde 8800gt van sparkle.
20% sneller dan m'n 8800GT, dus dan worden dat grofweg ipv 25 fps, 30 fps. Aardig, maar niet wereldschokkend toch? Als ik daarvoor >200 Euro zou moeten neertellen dan kies ik toch liever voor een goedkopere kaart. Het volle vermogen is zo te zien ook dezelfde als de 8800GT, ik vraag mij eigenlijk af of ik met wat overclocken die 5 fps niet gewoon haal.

[Reactie gewijzigd door vgroenewold op 20 mei 2008 13:42]

Je hebt een punt, maar jouw 8800GT zal daarentegen géén 110W verbruiken, zoals de HD4850 bij dezelfde prestaties, maar vlotjes 220W verstoken... Dit kan tellen als je een fervente gamer bent.

Het komt er dus op aan om niet louter naar de brute 'kracht' te kijken, maar ook met het verbruik rekening te houden. En dan kan je niet anders dan stellen de combinatie verbruik/preformance van deze nieuwe 4000-serie van ATI er goed uitkomt.

110W, dat zie ik een nVidia-kaart onder load nog niet direct doen, zelfs nauwelijks idle. Misschien dat de GT200 hier verandering kan in brengen.

Conclusie: de 4870 levert ruwweg de kracht van de "oude" 3870X2... Als de prijs op het niveau van de oude 3870 uitvalt heeft ATI een hele sterke kaart in handen, zou lijkt mij...

@ pizzaislekker hieronder: je hebt gelijk: da's voor volledige systemen.

[Reactie gewijzigd door Bardirella op 20 mei 2008 15:28]

Als je geen verstokte gamer bent is het net zo interessant aangezien de 4850 een verbeterde powerplay functie heeft waarbij hij in idle minder dan 10 W gaat gebruiken terwijl een 8800GT zulk soort techniek helemaal niet heeft en meer dan 120W verbruikt. 100W besparing in idle en 100W besparing tijdens gamen (jouw verhaal) vind ik toch een erg goede reden om up te graden :)

-edit: @snelwegkat/knirfie244: oeps: je hebt gelijk: dit grafiekje gaat over het hele systeem, nou ja: in idle scheelt het alsnog aardig wat(t)
-edit: @snelwegkat 2: in het plaatje staat een 3850 en deze discussie gaat over de 4xxx serie ;)

[Reactie gewijzigd door Cristan op 20 mei 2008 16:34]

Overdrijven is ook een kunst, die 120W waar je aan refereert is het vermogen opgenomen door het hele systeem.
Ik zal niet ontkennen dat de AMDs zuinger zijn (en waarschijnlijk blijven) maar de 100W verschil bij idle die je schetst zal eerder op een watt of 25 a 30 uitkomen. Dit is gebaseerd op het huidige verschil van 16W tussen HD3850 en 8800GT uit het plaatje dat je zelf geeft.

In hetzelfde plaatje zie je trouwens dat dat verschil bijna hetzelfde blijft onder belasting:
Een HD3850 onder load verbruikt 20W minder dan een 8800GT. Ben erg benieuwd wat de nieuwe kaarten onder belasting gaan doen.

edit:
^^ Knirfie was net sneller.....

[Reactie gewijzigd door snelwegkat op 20 mei 2008 14:34]

je weet dat de cijfers in jouw link voor het volledige systeem zijn hè? Bij die 120W zitten dus ook de processor, geheugen, etc...

De 8800GT zal in idle een 40W vervruiken ofzo.
Ok, maar is het verbruik van een kaart een reden voor een hardcore gamer om dan voor deze te gaan? Ik keek er wel naar bij de 8800GT, maar puur om te zien of m'n voeding dit nog aankon, ik zou zelfs een sli-opstelling nog werkend krijgen. Hardcore gamers doen bijna niet anders, dus is het wel leuk dat ze minder verstoken, maar dit is volgens mij nog nooit een reden tot koop geweest.
Hardcore gamers hebben baat bij een lagere stroomrekening ;). En verder heb je op zich wel gelijk: voor hardcore gamers is het verschil in fps/stroomverbruik misschien niet echt een upgrade waard (alhoewel je met het mindere stroomverbruik misschien wel beter kan overklokken).

Hoe dan ook: echte die-hards kunnen waarschijnlijk beter wachten tot de 4870X2 of hebben toch geld over en betalen graag voor die 20% extra fps :).

[Reactie gewijzigd door Cristan op 20 mei 2008 14:23]

Hallo Bardirella,
Waar haal jij het vandaan dat een 8800GT 220 Watt zou verbruiken onder volle belasting? Ik heb 2x8800GT in mijn systeem zitten die ik regelmatig heel zwaar belast. Hiernaast heb ik een overgeklokte E8500 en een 5tal harde schijven. Dit alles wordt door een Antec 500W voeding van stroom voorzien. Als de kaarten daadwerkelijk 440W zouden verstoken dan zou mijn pc spoedig uitvallen denk ik... Die 220W die je op verschillende websites leest is het verbruik van een compleet systeem..niet alleen de videokaart.
20% sneller dan m'n 8800GT, dus dan worden dat grofweg ipv 25 fps, 30 fps. Aardig, maar niet wereldschokkend toch?
Helaas niet, was het maar wereldschokkend. AMD komt nog steeds niet mee met NVIDIA als deze cijfers geloofd mogen worden (hoewel ik liever eerst bewijs zie).
Het verschil tussen de 8800GT en 4870 is echter niet zo belangrijk, het verschil tussen 3870 en 4870 is veel interessanter. Als daar wel een flinke vooruitgang in zit (en dat lijkt wel het geval te zijn) is het toch een teken dat AMD nog enigszins meekomt met NVIDIA, en dus ook nog steeds kan concurreren. Dat betekent inderdaad dat een upgrade niet interessant is, maar volgens mij was dat ook niet direct de bedoeling voor AMD. Met deze kaart kunnen ze nieuwe klanten een goed alternatief geven voor NVIDIA kaarten.

[Reactie gewijzigd door Snoitkever op 20 mei 2008 14:57]

ATI is een andere weg in geslagen, meerdere kleine GPU's ipv 1 grote.
maar de resultaten daarvan zien we pas als de dual kaarten gaan komen.
dit zijn voor ATI dus maar de bouwblokken voor de toekomstige high-end.

ATI gaat als het goed is bij de dual kaart de GPU's zo samen laten werken dat het voor het systeem lijkt alsof er maar 1 GPU, is en ook gebruiken ze het zelfde geheugen, dus dat hoeft niet meer dubbel uitgevoerd te worden.
dat betekend dat er geen tot weining driver optimalizaties meer nodig zijn om de GPU's goed te laten presteren en ze dus dicht bij de 100% sneller zouden moeten zitten in elke game.

nvidia gaat trouwens ook die kant op, de GPU's worden gewoon te groot anders, volgende generatie of die daarna.

maar het komt er dus op neer dat dit voor ATI niet hun nieuwe high-high-end gaat zijn maar de lagere high-end, en daar is de prijs (en verbruik) ook naar.
nvidia introduceerd nu wel hun high-end (met misschien nog een ultra later) maar wel voor een veel hogere prijs en verbruik.

edit :
waarom je multi gpu zou gaan is simple.
2 chips van 800miljoen transistors gaan gemiddeld hoger clocken en/of minder verbruiken of minder kosten dan 1 chip van 1.6miljard.
de yeilds van kleinere chips zijn namelijk altijd hoger, maar je kan die extra yield ook inruilen om kritischer te zijn met je chips en ze een lagere maximum vcore mee te geven of een hogere kloksnelheid.

je hebt nog wel even veel transistors nodig om het zelfde werk te doen, of zelfs iets meer zoals je zegt. maar je hoeft procentueel gezien minder chips(transistors) weg te gooien of je chips zijn gemiddeld van hogere kwaliteit (clock/verbruik), zonder dat de yields er onder leiden.
maar ik twijfel heel sterk aan de haalbaarheid ervan (binnen deze generatie kaarten).
daarom ook dat de r600 en r670 al een ringbus controller hebben.
en het gerucht gaat dat onder andere daarom de r600 zo vertraagt is.
Dit betekent alsnog bergen driverwerk om communicatie en geheugen/cache beheer te regelen.
laat geheugen en cache gebruik nu erg goed voorspelbaar zijn bij GPU werk (een van de redenen waarom het zo makkelijk parallel te verwerken is, en waarom GPU geen ingewikkelde pre-fetchers of branch predictors hebben).
en als je de ringbus controller aan elkaar koppelt zou het voor de GPU niet eens persee uit hoeven maken vanaf welke geheugen controller zijn stukje informatie afkomstig is.
en die informatie verdelen over de verschillende pijplijnen is vervolgens niet anders als dat al eeuwig in de GPU gebeurt.
als ze dus het latentie verschil klein houden hoeft het voor het driver model helemaal niet uit te maken of er 1 of 2 GPU's zijn. en de brede ringbus controller is op zo'n manier ontworpen dat dat mogelijk zou moeten zijn.

en nog een bewijs dat het hier voor ATI niet business as usual is.
hier de hoeveelheid transistors van hun high-end sinds de 8500, (voor het gemak alleen de hele generaties)
8500 60 miljoen
9700 110 miljoen
x800 160 miljion
x1800 320miljoen
hd2900 700 miljoen (hd3870 667 miljoen)
hd4870 ~800 miljoen
4 van de 5 generatie wissels voor deze is de transistor count verdubbeld, en een keer met bijna 50% gestegen.
en dan deze generatie wissel maar 1/8 erbij?
je ziet zelf dat hier iets meer aan de hand moet zijn.

[Reactie gewijzigd door Countess op 20 mei 2008 22:04]

Dit hebben we geloof ik al eens bij een ander nieuwsbericht besproken, maar ik blijf niet overtuigd.
ATI is een andere weg in geslagen, meerdere kleine GPU's ipv 1 grote.
ATI heeft geen keuze en moet wel meerdere GPU's op een kaart proppen om mee te komen met NVIDIA. Hetzelfde was dan ook weer te zien bij NVIDIA's dual-GPU kaart, dat was ook een haastklus met meer dan genoeg fouten om in het vervolg ver weg te blijven van multi-GPU.
ATI gaat als het goed is bij de dual kaart de GPU's zo samen laten werken dat het voor het systeem lijkt alsof er maar 1 GPU, is en ook gebruiken ze het zelfde geheugen, dus dat hoeft niet meer dubbel uitgevoerd te worden.
Dat is voorlopig nog gebaseerd op wilde geruchten zonder fatsoenlijke bronnen waar dan ook. Het lijkt me een heel goed plan, daar niet van, maar ik twijfel heel sterk aan de haalbaarheid ervan (binnen deze generatie kaarten).
dat betekend dat er geen tot weining driver optimalizaties meer nodig zijn om de GPU's goed te laten presteren en ze dus dicht bij de 100% sneller zouden moeten zitten in elke game.
Dat ben ik dan weer niet met je eens. Een dergelijke architectuur heeft wellicht enkele van de bekende multi-GPU problemen opgelost, maar het betekent wel een radicale wijziging in de manier waarop de kaart gaat werken. Dit betekent alsnog bergen driverwerk om communicatie en geheugen/cache beheer te regelen. Het voordeel zou wel zijn dat dit eenmalig werk is, als de driver er eenmaal is kan er bij de volgende generatie kaart op verder gebouwd worden.
nvidia gaat trouwens ook die kant op, de GPU's worden gewoon te groot anders, volgende generatie of die daarna.
Dat is pertinent niet waar. Ja, GPU chips worden groter en groter, maar grootte is echt niet het probleem op dit moment. Dit wordt namelijk opgevangen door een tweetal factoren:
- Marges op high-end GPUs zijn relatief groot, of in ieder geval groot genoeg om de chipgrootte te verdedigen. Ja, GT200 gaat mogelijk de grootste GPU chip ooit worden, maar wordt daarbij ook verkocht voor 400 tot 500 euro, of misschien zelfs nog meer. Bij dergelijke bedragen (en ik weet dat maar een deel naar NVIDIA gaat) zijn yields bijna geen probleem meer.
- Kleinere procedee's maken grootte van een chip minder relevant. GT200 chips zullen op dit moment nog veel te duur zijn om in low-end kaarten te gaan zetten, dat lijkt me niet meer dan logisch. Als we echter een half jaar tot een jaar verder zijn zal TSMC een goed eind op weg zijn met het 40nm procedee, die een perf/mm winst belooft van 3,7 tegenover 65nm. Dat betekent heel simpel gezegd (en ik weet dat dit te makkelijk is, maar het punt blijft bestaan) dat je de performance van GT200 op een 3 keer kleinere chip kan krijgen, of, omgekeerd, 3 keer de performance van GT200 kan krijgen op een chip van dezelfde grootte. Het maakt dus niet veel uit hoe groot GT200 nu is, het wordt later toch wel beschikbaar in goedkoper formaat voor low-end kaarten.

Als ATI om de yields en chipkosten alleen overstapt naar multi-GPU oplossingen (en dat lijkt me toch sterk) zullen ze bedrogen uitkomen. Hoe je het ook wendt of keert, om een performance van X te krijgen zul je hoe dan ook een transistorbudget van rond de Y moeten gebruiken (waarbij Y enigszins variabel is afhankelijk van het gekozen ontwerp). Of je dat verdeeld over 1 of 2 chips lijkt niet veel uit te maken, maar het probleem bij 2 chips is dat je allerlei extra logica nodig hebt voor communicatie en synchronisatie.

Het probleem van de toekomst is echter helemaal niet de grootte van chips, maar het energieverbruik. GT200 gebruikt volgens geruchten maximaal 240 watt, en 4870X2 mogelijk zelfs meer. Als we naar TSMC gaan kijken ziet het er echter naar uit dat het 40nm procedee wellicht 3,7 keer de performance gaat geven, de energiewinst is waarschijnlijk veel en veel beperkter (ik heb zo geen cijfers). Dat betekent dat je wellicht 3.7 keer de performance van GT200 op dezelfde die-space kan krijgen, het energieverbruik zal alleen wel enorm veel meer zijn. En daar komt het ware probleem boven, waar ook AMD's multi-GPU strategie niet tegen zal helpen. Sterker nog, die strategie zou wel eens kostbaar kunnen zijn vanwege de extra logica en losse chips die stuk voor stuk stroom vreten. Missschien dat AMD deze extra chips kan uitschakelen wanneer ze niet gebruikt worden, maar dat kan NVIDIA natuurlijk ook met delen van de grote monolithische chip doen. Bovendien is idle verbruik niet het belangrijkste probleem (hoewel het misschien voor de consument erg belangrijk is), maar verbruik onder load is veel interessanter, want dat bepaalt de uiteindelijke performance van de chip (die niet te heet mag worden en genoeg stroom "gevoed" moet kunnen krijgen).

Kortom, ik zie geen enkele reden waarom multi-GPU de toekomst zou moeten zijn, maar als die er wel zijn hoor ik ze graag.

EDIT:
waarom je multi gpu zou gaan is simple.
2 chips van 800miljoen transistors gaan gemiddeld hoger clocken en/of minder verbruiken of minder kosten dan 1 chip van 1.6miljard.
de yeilds van kleinere chips zijn namelijk altijd hoger, maar je kan die extra yield ook inruilen om kritischer te zijn met je chips en ze een lagere maximum vcore mee te geven of een hogere kloksnelheid.
Dat zou allemaal waar zijn, als yields sterk afhankelijk zijn van chipgrootte. Maar voor zover mijn kennis rijkt is dit steeds minder het geval. Yields zijn veel eerder afhankelijk van het ontwerp van een chip, en hoewel dit misschien een voordeel is voor een minder complexe chip valt het nog steeds goed op te lossen door een design team met veel ervaring en een flink budget (en dus tijd) om de problemen te verhelpen.

Daarnaast heeft clocksnelheid ook maar weinig met yields te maken. Maximale snelheden van een chip zijn een eigenschap van het gebruikte proces en het ontwerp van de chip, en kleinere chips zullen dus zeker niet zomaar sneller zijn dan grote. Daarnaast zijn de verschillen in zuinigheid en snelheid per chip niet groot genoeg om voor de extra moeite en kosten van multi-GPU te gaan. Het verschil in stroomverbruik is op dit moment nog niet belangrijk genoeg voor klanten om er geslaagde chip voor weg te gooien (een paar watt minder of een paar chips meer, wat heb je liever?), en het verschil in clocksnelheid zal vrij minimaal zijn.
daarom ook dat de r600 en r670 al een ringbus controller hebben.
en het gerucht gaat dat onder andere daarom de r600 zo vertraagt is.
Ik geloof er weinig van. R600 was een chip die jaren in ontwikkeling was bij wat toen nog ATI was. Pas toen AMD later er achter kwam de ze compleet niet meer mee konden met G80 (wat voor iedereen, waarschijnlijk ook ATI/AMD zelf als een verrassing kwam) kwam opeens het plan om multi-GPU in te zetten tegen NVIDIA. Als R600 daadwerkelijk met multi-GPU in het achterhoofd zou zijn ontworpen zouden er veel meer voorbeelden van te zien zijn, en zou daadwerkelijke multi-GPU oplossingen zonder Crossfire chip al veel eerder op de markt zijn gebracht.
en als je de ringbus controller aan elkaar koppelt zou het voor de GPU niet eens persee uit hoeven maken vanaf welke geheugen controller zijn stukje informatie afkomstig is.
en die informatie verdelen over de verschillende pijplijnen is vervolgens niet anders als dat al eeuwig in de GPU gebeurt.
als ze dus het latentie verschil klein houden hoeft het voor het driver model helemaal niet uit te maken of er 1 of 2 GPU's zijn. en de brede ringbus controller is op zo'n manier ontworpen dat dat mogelijk zou moeten zijn.
Dat zou een elegante oplossing zijn, maar waarschijnlijk ook een dure. Je moet wel een PCB maken met maar liefst drie extra 512bit verbindingen, tussen de beide chips en tussen de chips en de memory controller, die waarschijnlijk ook nog weer een losse chip gaat worden (welliswaar ter vervanging van de PCI-bridge die nu op de X2 kaarten zit), en dat kost allemaal samen genomen toch weer een boel extra, ten opzichte van een monolithische GPU.
en dan deze generatie wissel maar 1/8 erbij?
je ziet zelf dat hier iets meer aan de hand moet zijn.
Wat ik zie dat er aan de hand zou zijn is budgetproblemen, onderbezetting van personeel en bergen andere problemen die door de ATI/AMD situatie zijn ontstaan. Ik zie geen grootste plannen voor nieuwe graphicswereldoverheersing, ik zie paniek en pogingen om de schade te beperken. Als jij en anderen willen blijven volhouden dat AMD's multi-GPU plannen onderdeel zijn van een groots plan om (opnieuw) de marktleider te worden zou ik dat niet anders dan naief kunnen noemen.
Laten we de feiten onder ogen zien, AMD wordt aan alle kanten onder vuur genomen en kan zichzelf amper verdedigen, laat staan terugvechten, en datzelfde bedrijf zou dan ambitieuze nieuwe plannen hebben om met een techniek die alleen maar nadelen lijkt te hebben onverwacht toch er boven op te komen? Terwijl NVIDIA, die vele miljarden meer verdient en gigantisch veel meer uitgeeft aan R&D, die zelfde "toekomst" van de multi-GPU, toch om de een of andere reden over het hoofd zou zien*? Dat lijkt mij toch niet meer dan wishfull thinking.

EDIT op de edit: Laat ik even er bij zeggen dat ik absoluut niet iets tegen heb op ATI of AMD, en dat ik het bijzonder jammer vind dat ze in deze troosteloze situatie terecht zijn gekomen. Beide bedrijven waren de underdog in hun markt, en ik vind het dan ook jammer dat de underdog zijn scherpe tanden langzaam lijkt te verliezen.

*NVIDIA heeft namelijk al meerdere keren aangegeven dat multi-GPU wat hen betreft niet de toekomst is en alleen gebruikt gaat worden als ze met een monolithische GPU niet kunnen concurreren.

[Reactie gewijzigd door Snoitkever op 21 mei 2008 12:45]

Wat ik zie dat er aan de hand zou zijn is budgetproblemen, onderbezetting van personeel en bergen andere problemen die door de ATI/AMD situatie zijn ontstaan.
onzin
het basis ontwerp van de r700 lag al grotendeels vast voor AMD ATI overnam, net als dat van de r800 trouwens en nu inmiddeld ook de r900.

en als ATI toen een grote chip gewild had hadden ze dat makkelijk kunnen doen, een GPU is vooral veel herhaal werk namelijk.
en die word redelijk slordig gemaakt/gegenereerd met de computer. (slodig in vergelijking met CPU's iniedergeval.) alleen kritiek delen van de GPU worden met de hand bijgewerkt.
onder andere daarom is ook de kloksnelheid van GPU altijd zo laag ivm CPU's
maar ze moeten wel zo werken want met 6 tot 12 maanden per GPU cycle moet je snel zijn, je hebt geen 2 tot 4 jaar die ze voor een CPU uittrekken.

heeft ook tot gevolgen dat yields en het productie process van groter belang zijn.
en de yields hebben dan weer effect op de hoeveelheid GPU's die een bepaalde snelheid halen en dus op welke snelheid je je top modelen en budget modelen laat werken.
yields zijn dus wel degelijk belangrijk voor de clocksnelheid.
bij geheugen modeles zie je dat nog veel meer, daar word heel veel aan 'bin-ning' gedaan. daar komen dus genoeg chips uit die zeg 50% sneller lopen als de standaard chips om te verkopen op relatief grote schaal, en de kleinere chips hebben eerder die hoge snelheid als de grotere chips (256Gbit vs 512Gbit chips bijvoorbeeld)
in het begin van ddr2 zag je wel 1GB kits (16 chips van 256Gbit keer 2 latten) van 800mhz maar nog geen 2GB kits (16 chips van 512Gbit keer 2 latten) op 800mhz (en wel 533 en 667)

en na de overnamen van AMD zie je dat ATI een grote boost krijgt over productie process kennis en heel snel de budget modelen van de r600 op een kleiner process zet even later de r670 ook verder verkleind
ze zijn in 6 maandan van 80nm naar 55nm gegaan! ziet dat eruit als een bedrijf met budget en mankracht problemen?
dus met de kennis van AMD zouden ze alleen maar makkelijker grotere chips hebben kunnen maken.
Dat zou een elegante oplossing zijn, maar waarschijnlijk ook een dure. Je moet wel een PCB maken met maar liefst drie extra 512bit verbindingen, tussen de beide chips en tussen de chips en de memory controller,
waarom zouden de mem-controllers op een aparte chip moeten? je gebruikt gewoon beide geheugen controler op beide chips, of anders de controler op 1 van de chips.
denk NUMA, maar dan zonder dat latency een issue is.
en dat hoeft niet persee op het PCB van de hele kaart maar kan in de package gedaan worden. zoals intels MCM ontwerp zeg maar, maar dan beter (zonder dat hulp van buitenaf nodig is voor de communicatie).
de geheugen bus van de r700 is trouwens 'maar' 256bit breed. met gddr5 op 4ghz effectief is dat ruim voldoende.
hij zal op geheugen bandbreedte in ieder geval niet onder doen voor nvidia met zijn 512bit breede bus op gddr3.

[Reactie gewijzigd door Countess op 21 mei 2008 20:40]

het basis ontwerp van de r700 lag al grotendeels vast voor AMD ATI overnam, net als dat van de r800 trouwens en nu inmiddeld ook de r900.
Hoe komt het dan dat ze compleet niet meer mee kunnen komen met NVIDIA, zelfs met multi-GPU technologie?
en als ATI toen een grote chip gewild had hadden ze dat makkelijk kunnen doen, een GPU is vooral veel herhaal werk namelijk.
ATI had een grote chip, een monsterchip zelfs, en dat was R600. Alleen kregen ze problemen met clocksnelheden en hebben ze uiteindelijk de high-end versie moeten afvoeren, nadat ze eerst al een half jaar vertraging hadden opgelopen. Als multi-GPU toen al de toekomst zou zijn, waarom dan uberhaupt de monsterchip, en waarom kwam het gepraat over multi-chip pas naar boven toen bleek dat hun monolithische chips compleet faalden in de high-end sector?
en de yields hebben dan weer effect op de hoeveelheid GPU's die een bepaalde snelheid halen en dus op welke snelheid je je top modelen en budget modelen laat werken.
Dan vraag ik me echt af waarom deze situatie nu zoveel anders zou zijn dan vijf jaar geleden. Als multi-chip een oplossing is voor slechte yields, waarom hebben we dan niet al veel eerder multichip GPUs gehad? En waarom gaat ATI dan nog steeds voor een multi-chip GPU en niet meerdere chips in een enkele package (MCM)? Het antwoord is volgens mij simpel, en dat is dat ATI niet het geld en de tijd heeft om een dergelijke dure chip te ontwikkelen. Meerdere chips op een PCB met een bridge er tussen is een stuk makkelijker en goedkoper, hoewel de winst helaas een stuk lager ligt in vergelijking met een enkele chip. Dat is ook waarom ik nog niet helemaal overtuigd ben dat 4870X2 al meteen een dergelijk vernieuwend (en dus duur) ontwerp heeft. Het lijkt me logischer dat AMD opnieuw de 3870X2 aanpak kiest.
Begrijp me niet verkeerd, ik zou een dergelijke vernieuwende aanpak heel cool vinden, maar we hebben niet meer dan geruchten, en gezien de financiele situatie van AMD zie ik nog weinig hoop op iets werkelijk revolutionairs.
en na de overnamen van AMD zie je dat ATI een grote boost krijgt over productie process kennis en heel snel de budget modelen van de r600 op een kleiner process zet even later de r670 ook verder verkleind
Dat lijkt me sterk, want de low-level manier waarop AMD designers werken met AMD-only processen heeft vrij weinig te maken met de manier waarop ATI zelf werkt, namelijk met high-level legoblokjes in geavanceerde computerprogramma's. Een AMD designer kan niet zomaar opeens ATI designers gaan helpen met deze compleet andere manier van werken. Daarnaast had AMD al z'n mensen al wel nodig om Barcelona fatsoenlijk de deur uit te krijgen.
ze zijn in 6 maandan van 80nm naar 55nm gegaan! ziet dat eruit als een bedrijf met budget en mankracht problemen?
Je formulering is enigszins misleidend, dat zou moeten zijn "ze hebben in zes maanden tijd zowel chips op 80nm al op 65 als op 55nm geproduceerd", en dat zegt dan weer vrij weinig. Intel heeft in de 65nm tijd nog steeds 130nm chips gebakken, misschien doen ze dat zelfs nu nog.
Het feit dat G80 nog 90nm was en R600 80nm geeft alleen aan dat de designers meer vertrouwen hadden in een volwassen procedee waarvan alle eigenschappen al bekend waren. Tegelijkertijd werden er al lang low-end en mid-range chips voor 65nm ontworpen. Als je eerlijk wilt gaan vergelijk moet je de tijd nemen tussen bijvoorbeeld de eerste 90nm chip en de eerste 65nm chip, en dat was bij ATI respectievelijk oktober 2005 en juli 2007. Bij NVIDIA was dat november 2005 en oktober 2007. Twee maanden verschil, dus moeilijk revolutionair te noemen. Dat ATI nu al naar 55nm is verschoven is eerder geboren uit de nood om nog te kunnen concurreren, dan uit technologische vooruitgang. 55nm is namelijk een relatief makkelijke stap vanuit 65nm, met voornamelijk chipgrootte en stroomverbruik als voordelen. ATI heeft beiden nodig om te concurreren, NVIDIA niet, wat waarschijnlijk ook de reden is dat NVIDIA nog steeds niet overgestapt is.
waarom zouden de mem-controllers op een aparte chip moeten? je gebruikt gewoon beide geheugen controler op beide chips, of anders de controler op 1 van de chips.
denk NUMA, maar dan zonder dat latency een issue is.
Zo ver had ik nog niet eens gedacht, dat is inderdaad wel een mooie oplossing. Ik hoop dat het AMD gaat lukken.
de geheugen bus van de r700 is trouwens 'maar' 256bit breed. met gddr5 op 4ghz effectief is dat ruim voldoende.
De geheugenbus misschien wel, maar de interne ringbus die dus tussen beide chips moet lopen is nog steeds 512bit, en omdat het een ringbus is heb je dus sowieso 2 keer een dergelijk verbinding nodig. Dat AMD voor GDDR5 gaat lijkt me in ieder geval wel weer een goeie ontwikkeling, die het weer in PCB kosten en chipgrootte zal schelen. (hoe groot zou de kans zijn dat GT200 wel zo groot moet zijn vanwege de 512 bit bus?)
Je zegt dat AMD extra logica nodig heeft om 2 kleinere chips aan elkaar te binden. Daartegenover staat ook wel dat nVidia betere yields moet hebben om dezelfde opbrengsten uit zijn wafer te halen dan AMD. Als yields geen rol spelen heeft nVidia inderdaad voor de betere aanpak gekozen. Maar iets zegt mij dat dit niet het geval is.

Infeite zijn er verschillende niveau's waarop yields een invloed kunnen hebben. Als de yields echt slecht zijn kan het een directe invloed hebben op het aanbod. Als die yields iets beter zijn kan er genoeg geleverd worden, maar zullen de prijzen dermate hoog blijven. Je stelt dat de prijzen van de high-end nVidia kaarten hoog genoeg zijn daarvoor. Is dit wel zo?

[Reactie gewijzigd door IveGotARuddyGun op 21 mei 2008 12:12]

Je stelt dat de prijzen van de high-end nVidia kaarten hoog genoeg zijn daarvoor. Is dit wel zo?
Ik neem aan van wel. Het topmanagement van NVIDIA is waarschijnlijk tijdens de hele ontwikkeling van GT200 op de hoogte geweest dat het een monster van een chip zou worden, de grootste chip ooit, en groter dan G80. Als dat niet uit zou kunnen zouden ze de ontwikkelaars vast een halt toegeroepen hebben. NVIDIA heeft namelijk helemaal niet druk op zich om een dergelijke monster GPU uit te brengen. Ze zouden ook een minder krachtige, kleinere en dus goedkopere chip kunnen maken, en nog steeds de performancekroon behouden. Kennelijk is de grootte van GT200 geen probleem.
ja 2 dagen lang, totdat NVidia zijn kaarten presenteerd. Ik neem aan dat die wel meer voorruitgang weten te boeken tov de 9800GTX
En dan word het weer wachten op de 4870X2 die de Geforce kaarten voor het lot van concurrentie hopelijk kan verslaan.

Probleem daarbij is wel dat, men moge wel gaan zeggen dat de GT200 zoveel stroom verbruikt, maar als ATi een dubbele RV770 nodig heeft om die bij te benen, die op een enkele kaart 160W verstookt, dan zouden ze daar toch ook wel in de buurt komen. Dan zal de 4870X2 een stuk beter moeten zijn dan de GT280, of GT290 die tegen die tijd wel uit zal zijn.

[Reactie gewijzigd door JohnAD op 20 mei 2008 17:34]

Ja, zo lust ik er nog wel een paar. 20% is niks, vgl met 5 fps is het zelfs "slechts" maar 1 fps.... Vergeleken met 50 fps is het plots al 10 fps enz. enz.

Als je die winst ook kunt halen met overclocken van een 8800GT, kan je misschien de 4850 ook wel overclocken.... is hij weer 20% sneller (of wie weet hoeveel meer). :/

[Reactie gewijzigd door Pjerry op 20 mei 2008 13:59]

Maar zou jij dus elke keer, voor dit verschil, een nieuwe kaart kopen? Ik wacht liever een jaartje langer tot de verschillen 50% of meer zijn, dan loont het echt. Vind ik persoonlijk. Mijn punt gaat dus meer over mensen die upgraden, natuurlijk is dit altijd interessant voor mensen die een nieuwe kaart zowiezo gaan kopen.

ps. je moet natuurlijk wel 2 overclockte kaarten vergelijken dan en dan blijft het verschil nagenoeg hetzelfde.

[Reactie gewijzigd door vgroenewold op 20 mei 2008 14:22]

Nee, absoluut niet. Ik draai niet voor niets op dit ogenblik met een X1950 Pro. Ben aan het kijken om er een tweede naast te zetten, kan ik gewoon weer lekker (minstens) een jaar vooruit.

Sowieso zijn de kaarten in het begin te duur (m.i.). Ik ben niet de gamer die het naadje van kous wil halen, eigenlijk vergeleken met andere tweakers, kun je me nauwelijks een gamer noemen.
Als het goed is blijft AMD bij z'n prijs/prestatie wedstrijd die ze op dit moment voeren, grote kans dat de kaart in europa onder de 200 euro blijft zitten. RV770XT to e-tail for $229

Daarnaast zijn ook idle-verbruik van belang, hier zijn alleen nog geen cijfers van.
En dat gaat over de HD4870, grote kans dus dat de HD4850 goedkoper is dan de 8800GT :)

[Reactie gewijzigd door Huppie op 20 mei 2008 13:50]

225 euro was het streven voor de introductie voor zover ik weet.
maar zoals gewoonlijk zakt dat snel.
en het zou ook kunnen dat dat de prijs in dollars was, wat op 172.8 euro zou uitkomen na omrekenen en de BTW erbij.

edit : a je hebt er al een link bij gezet.

[Reactie gewijzigd door Countess op 20 mei 2008 17:18]

Is het niet altijd zo dat hoe dichter je bij de top zit des te hoger de prijs word voor iedere frame per seconde meer.
De 4780 zal +30% sneller zijn als een 8800gt als we 3dm06 mogen geloven.
Ten opzichte van de huidige nvidia line up mooi natuurlijk, maar hoe het zich in de toekomst gaat verhouden is afwachten. Zal wel weer een prijs/prestatie gevecht worden.

[Reactie gewijzigd door Vandread op 20 mei 2008 13:48]

Yep, Als je kijkt naar de meeste bang-for-buck bij videokaarten, kom je toch altijd uit bij de low-end kaarten van tegenwoordig
Alleen hebben veel mensen bij de aanschaf een minimale eis van de bang, en een maximale eis van de buck. :)

een kaart die niet presteert is prijs/prestatie geweldig, maar uiteindleijk kan je er niets mee.
Ben je nou je huidige bezit aan het legitimeren tov nieuwe techniek zodat je niet hoeft te upgraden? ;)

Of vraag je echt om advies?
haha Nee hoor, ik volg alleen de gfx kaarten al jaren, terwijl ik er nooit 1 kocht (ben niet echt een gamer) en vind nog steeds dat de sprongen nu niet zo geweldig zijn als het gaat om de uiteindelijke prestaties. Wel als je de huidige kaarten vergelijkt met die van 1.5 jaar geleden bijv. Ik zie echter veel mensen al van iets als een 8800GT (bijv) overschakelen op de volgende generatie, voor die 5 fps...dat trek ik dus in twijfel. Hiervoor had ik een x1600xt van ati, dan kan je je wel voorstellen dat ik met m'n upgrade blij verrast was. :)

[Reactie gewijzigd door vgroenewold op 20 mei 2008 14:23]

jah maar je neemt ook net een verkeerde situatie op zich... je moet naar een omschakelpunt kijken, dus bijvoorbeeld het verschil tussen die 35 fps dat net niet helemaal vloeiend is en de 42 fps dat dan weer wel vloeiend is :P
dus je zult er niet enorme verschillen in merken bij erg lage fps (ook al moet ik wel zeggen dat ik het verchil tussen 20 en 25 fps wel meekrijg :P ) en ook niet bij erg hoge (tussen 100 fps en 120 fps merkte niemand)....
De nieuwe specs die gelekt zijn hebben het weer over 850 MHz voor de XT met 1050 MHz shaders.

Dus er valt weinig over te zeggen. De HD4870 Zou iets van 20-30% sneller zijn dan de 9800 GTX.

Waar de HD4850 dus 20-30% sneller is als de 8800 GT.
Ik kan alleen maar uit het bericht opmaken dat het nog maar afwachten is. Dit zegt gewoon nog niet genoeg. Als er benchmarks komen van de GTX260 en GTX280 weten we pas echt wat dit waard is.
Ook ik zie AMD als een underdog (in elk geval ten op zichte van Intel), maar de laatste periode is niet goed voor AMD zoals de meesten weten.
In dit geval kan het wellicht nog 2 kanten op, maar voor ik een uitspraak doe wacht ik toch nog even tot de echte vergelijking mogelijk. Maar dat wordt dus ook gewoon in het bericht duidelijk gemaakt.
De GTX2xx zal sneller zijn want dat wordt de nieuwe topkaart van nVidia, die kun je niet vergelijken met de 48xx mainstream van ATI.
Straks komt de 4870X2 en die zal moeten gaan concurreren met de GTX2xx.

Dus belangrijk om te weten dat nVidia eerst komt met de topkaart en ATI met de mainstream. De verschillen qua prijzen zullen gigantisch zijn, daar temeer omdat nVidia veel hogere productiekosten heeft.
Die 3dmarks doen me niet veel om eerlijk te zijn.

Ik wil games zien, dat is waar deze kaarten voor gemaakt zijn, en dan gaan ze nog 3Dmark 06 draaien ook. Laat dan op zijn minst even wat Vantage zien DX10 daar koop je die kaart toch voor lijkt me.

All dat gedoe over stroomverbruik is ook zwaar overrated imho, daar hebben we toch 650+ watt voedingen voor. Die paar euro meer op je rekening moet je ook niet moeilijk over doen als je wel 300/500 Eu's wilt uitgeven voor een GFX kaart
Je bedoelt ~200/250. Dan is het in eens een stuk betaalbaarder he en dan maakt die rekening toch zeker wel uit.
Als ik, elektriciteitsfactuur in de hand, even nareken:
100 W (verschil in verbruik tussen beide kaarten) * 6 c/kWh (gemiddelde energiekost piekuren-daluren) * 40 h/week (full-time gamer) * 50 week/jaar = 12 euro per jaar?
Als je zo'n kaart koopt, koop je er een nieuwe elke 2,5 jaar, dus het prijsverschil mag 30 euro zijn.

Interessanter wordt het voor een idle verbruiksverschil van 100W. Als je 40 uur gamet is je idle time 128 uur dus een prijsverschil van 40 euro per jaar? Op 2,5 jaar afgeschreven is het prijsverschil dus 100 euro.

Als je een voeding van 550W de hele dag onder load laat draaien, kost je dat dus 360 euro per jaar (met een rendement van .80). Kan je effe mee een weekje op zwier in een all-in, me dunkt.
6 ct/kWh? Dat is zowat de productiekosten bij gebruik van een kolencentrale.

Ik denk dat je er toch zeker 16 cent van zal moeten maken, wat neerkomt op ~30 per jaar.

dat is wel redelijk veel, 40 h/week.
Elke Watt die binnen een pc kast verstookt word is er ook eentje die door de fans moet worden afgevoerd.

jammer genoeg gaat dat meestal met herrie gepaart, dus liever wat zuiniger voor het mijn oren, en toevallig ook mijn centjes.
Geluidsproductie is een goed punt, maar dan koop je gewoon grote fans, mijn pc-kast is alweer heel wat stiller dan m'n oude goedkope, terwijl in de nieuwe een slurpende gfx kaart zit.

[Reactie gewijzigd door vgroenewold op 20 mei 2008 15:09]

... maar dan koop je gewoon grote fans, mijn pc-kast is alweer heel wat stiller dan m'n oude goedkope ...
Tuurlijk kan je er weer geld tegenaan smijten om het stil te krijgen.
Neemt niet weg dat het toch verkeerd besteed geld is, vind je niet? ;)
Had je vast iets veel leukers/nuttiger voor in de plaats kunnen kopen.
Ik had gewoon een nieuwe pc gekocht, zonder zware kaart overigens (x1600) en die gewoon zo stil mogelijk willen krijgen, merendeel van het geluid komt toch van de cpu-fan en harde schijven. De nieuwe gfx kaart had standaard al een grote fan, dus merk ik geen verschil met de x1600...
Helemaal mee eens. Iemand die genoeg geld over heeft voor een dikke Porche zal het een zorg zijn wat de auto aan brandstof slurpt, die wil gewoon knallen.
Stroomverbruik niet belangrijk?
Mijn computers draaien 24/7 en af en toe wordt erop gegamed.
Dan is het maximaal gebruikte vermogen inderdaad niet heel erg interessant, zolang het maar niet echt veel verschil wordt. Echter het idle vermogen met een 10 watt meer of minder loopt toch aardig op.
Mja, maar waarom heb je dan een flinke gfx kaart en draai je meerdere computers 24/7...als stroomverbruik zo belangrijk is...
All dat gedoe over stroomverbruik is ook zwaar overrated imho, daar hebben we toch 650+ watt voedingen voor. Die paar euro meer op je rekening moet je ook niet moeilijk over doen als je wel 300/500 Eu's wilt uitgeven voor een GFX kaart
IMHO is dat een beetje kortzichtig. Door die instelling zie je dat de overheid continu allerlei belastingen moet verhogen omdat mensen niet zuinig met energie willen omgaan. Energie is en blijft een schaars goed, dat ook nog eens vervuilend is.
Zeker, maar dan moet je zowiezo geen gamers-kaart kopen. Een onboard oplossing is dan veel zuiniger, waar trek je de grens is dan de vraag...voor de natuur maakt het pas een verschil wanneer je alles in huis op de zuinige toer doet. En verder is het verhogen van belasting leuk, maar de natuur heeft daar weinig aan, de consument verandert daar zijn gedrag niet door, is allang gebleken.

[Reactie gewijzigd door vgroenewold op 20 mei 2008 15:06]

Vervuilend is? Totaal niet vervuilend word/werd opgewekt.

En ja 250/350 <- nVidia eu's voor een video kaart kan er ook wel wat stroom vanaf op je jaar afrekening vind ik.

Ik ga toch ook niet moeilijk zitten doen dat ik 3 PC's heb staan die 24/7 draaien (1 linux CSS server voor me clan) me game PC met een 650watt voeding en 2x 3870's. Al moet ik zeggen dat eneco er anders over denkt sinds ik me 3 PC heb staan aangezien ze binnen 2 weken na aanschaf binnen kwamen vallen met verdenkingen van een plantage lol.
In 3dmark06 dus alleen. En dat is niet representatief voor echte games.
Idd. Ik heb een 9800GX2. Die doet het tegenover een 3870X2 ook een tikkeltje slechter in 3Dmark2006. Maar ja bij het gamen is een verschil van 20 - 40 % in het voordeel van de 9800GX2. Daar gaat het tenslotte om. Waarschijnlijk omdat toch stiekem veel kaarten nvidia optimized zijn.
Die 9800GX2 was ook wel minimaal 100 euro duurder. Een nvidia kaart is logischerwijs altijd nvidia optimized :+ . Je bedoelt wss games ;)
Maar als ze daar al langzamer waren zag het er in echte games al helemaal niet goed uit.
Ben benieuwd. Ik hoor steeds meer van AMD/ATI, en het zijn steeds positievere berichten.
Voor mij had AMD altijd al een soort van underdog positie (en ik had tot ik mijn MBP kreeg altijd AMD!), en nu laat het weer zien wat ze waard is. Ok, we moeten nog wachten op de GTX260 en de GTX280. Waarschijnlijk zullen ze dat verliezen, maar ik merk een zeer sterke stijgende lijn voor AMD.
Dit zegt toch helemaal niets. De vorige/huidige generatie videokaarten van ATI de HD38x0 serie is ook al sneller in 3dmark dan hun nvidia concurenten...
Dus 20% sneller is nou niet echt wereldschokkend.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True