Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 114 reacties
Submitter: arc.

AMD heeft tegenover Tweaktown gemeld dat de HD 6900-serie pas in december verschijnt. De huidige videokaarten zouden nog goed verkopen en de HD 5970 is nog steeds de snelste videokaart. Ook zou er een componententekort zijn.

AMD heeft in een gesprek met Shane Bax, een reviewer van Tweaktown, gemeld dat de HD 6900-serie pas in de week van 13 december wordt geïntroduceerd. Het gaat daarbij om de HD 6970 en de HD 6950. De dual-gpu-videokaart, de HD 6990, verschijnt pas in het eerste kwartaal van 2011. Eerder werd nog aangenomen dat de HD 6900-serie eind november zou verschijnen. De goede verkoop van zowel de HD 6800- als de HD 5800-serie zou AMD tot uitstel van de introductie hebben bewogen. Ook zou meespelen dat de HD 5970 nog steeds de snelste videokaart is, zelfs na de komst van de GTX 580.

Er gaat echter ook een gerucht dat een van de componenten, die tevens voor de HD 6870 en de HD 6850 wordt gebruikt, niet genoeg op voorraad is. Het zou gaan om een driver-mosfet, afkomstig van het bedrijf Texas Instruments. Niet alleen het gebrek aan de nodige driver-mosfets speelt een rol, ook zou AMD de definitieve versie van het bios voor de HD 6970 nog niet aan zijn partners hebben gegeven. De mogelijkheid bestaat dat AMD de lancering van de GTX 580 heeft afgewacht en de kloksnelheden naar gelang aanpast.

Moderatie-faq Wijzig weergave

Reacties (114)

Ati loopt hopeloos achter op Nvidia. Het snelste wat ze hebben is crossfire op een kaart de HD5970. Twee onder geklokte 5870 chips in crossfire.

Probeer dat nog maar eens in crossfirex te zetten met 4 chips, het schaalt voor geen meter om over de driver problemen maar te zwijgen.

1 580gtx is op een haar na zo snel als 2 top modellen van Ati op 1 kaart, en hier blijven ze erbij dat Nvidia achter loopt 8)7

Zet 2 of 3 580 gtx en in sli en kijk dan wat de voorsprong in performance van Nvidia is.
Enorm gewoon.
1 580gtx is op een haar na zo snel als 2 top modellen van Ati op 1 kaart, en hier blijven ze erbij dat Nvidia achter loopt
je weet dat de hd5970 inmiddels al 1 jaar oud is en nog steeds niet is verslagen? en dat de nieuwe top modelen van ATI eind deze of begin volgende maand uitkomen? en dat daar ook een dual kaart van uit komt?
en dat het nvidia al tijden niet meer is gelukt om een dual kaart te maken van hun top GPU omdat ze zo veel energie verbruiken, naast het feit dat zulke kaarten nagenoeg onbetaalbaar zouden zijn?

en jij denkt dat nvidia voorop loopt?
misschien zeggen deze statistieken je iets:
http://store.steampowered.com/hwsurvey/videocard/

Nvidia op dit moment meest gebruikte kaart is de al 3-4 generaties oude 8800 gevolgt door dezelfde 9800.
ATI's meest gebruikte serie (en meest gebruikte overal) is de 1 generatie oude hd4800

onder dx11 kaarten is meer als 60% een hd57xx of hd58xx
nvidia heeft in de dx11 een gebruiksaandeel van 17,6% voor ALL hun dx11 kaarten samen. de rest is allemaal ATI.
jaaa ATI loop mijlen ver achter.

hun keuze om niet alles met 1 chip te willen doen in de high end, en kleinere chips te maken (ja je leest het goed, dat was een bewuste keuze, niet omdat ze achter lopen) heeft heel duidelijk heel goed uitgepakt voor ze.

[Reactie gewijzigd door Countess op 11 november 2010 20:31]

Je argumenten kloppen alleen als je puur naar de meeste prestaties die je kan krijgen, ongeacht de kosten. Leuk maar het enige wat het effect daarvan is is wat PR want de mensen die daadwerkelijk meerdere GTX580's kopen is nihil. Om te kijken wie er over het algemeen 'voorloopt" kun je beter kijken naar welke kaarten de betere prijs/kwaliteit leveren, daar heb je als consument wat aan. Je kan als bedrijf wel patsen met je techdemo op een pc met quad-SLI maar als je een consument die 200,- heeft niets te bieden hebt dan heb je er helemaal niets aan natuurlijk (niet dat NVidia dat niet heeft maar je begrijpt het punt wel zo).

[Reactie gewijzigd door bwerg op 11 november 2010 20:58]

Ik kijk inderdaad alleen naar de performance. En je punt word niet waardevoller door je aan de massa te conformeren, bovendien haal je je eigen punt onderuit door hem zelf te verbeteren.
Afdezien daarvan schalen 2 5970`s voor geen meter. Hoe dat komt en waaraan dat ligt is niet relevant. Het is een feit.

Nvidia is het snelst en schaalt nagenoeg perfect.

Trouwens een hd5970 vreet echt wel meer stroom dan een 580gtx. Gewoon goed de reviews lezen, ben je er zo achter.

Inderdaad, ik ben een NV fan maar geen fanboy, ik weet wat ik wil en NV geeft me dat.
Een fette game ervaring en dat mag wat kosten.

[Reactie gewijzigd door brugj03 op 12 november 2010 01:07]

Ik kijk inderdaad alleen naar de performance. En je punt word niet waardevoller door je aan de massa te conformeren, bovendien haal je je eigen punt onderuit door hem zelf te verbeteren.
Oh, waar dan? Mijn punt is dat het gaat om prijs/kwaliteit en dan met name in het goedkopere segment, ik haal dat nergens onderuit. En dat confermeren aan de massa is onzin, dit is mijn mening en ik beroep me nergens op de mening van de massa, ik leg alleen uit waarop sommige/veel mensen een serie videokaarten beoordelen. De winst die NVidia en ATI krijgen van hun kaarten ligt ook voornamelijk in dat betaalbare segment, en als íets belangrijk is voor een succesvol product is het wel dat een bedrijf er winst op maakt.
Waarom loopt ATI achter?
Ik denk dat jij gewoon een groen brilletje op hebt.
Ati kan gewoon een dual gpu setup monteren op een pcb met een verbruik dat minder is dan een gtx580.
Een ENKELE GTX580 chip verbruikt dus meer dan '2x gpu' 5970.
Dan heb je het naar mijn weten als fabrikant niet goed gedaan, vooral niet omdat de 5970 nu toch al een tijdje op de markt is...

[Reactie gewijzigd door Mr.Joker op 11 november 2010 20:25]

Ati loopt hopeloos achter op Nvidia.
mop van de dag :) je bent zeker een trotse geforce bezitter...
Ati heeft Nvidia gewoon verslagen sinds dat de 5 serie uitkwam en het blijft maar doorgaan :) de prijs/prestatie is ook zeer netjes van Ati. Ze zijn goedkoper en sneller, dus waarom zou iemand nog Nvidia willen met hun belachelijke hoge prijzen...
Ja de 5870 is een mooie video kaart maar na een jaar had hij van mij toch best een stuk goedkoper mogen zijn, want nu vind ik de huidige prijs/prestatie niet meer zo netjes.

En wat ATi nu doet is bijna net zo erg als wat nVidia heeft gedaan in het verleden.

Want je kan mij een hoop vertellen, maar als ik componenten te kort kom om alle kaarten te maken die ik wil.

Voor welke kaarten zal ik ze dan gebruiken ..... hmmm ..... moet ik nog eens over na denken ..... zal ik ze voor de €200 kaarten gebruiken of voor de €500 kaarten.

En bios s ook niet echt waarschijnlijk, daar die al werkend is en alleen een update nodig heeft naar de uiteindelijke spec


* player-x denkt dat er meer aan de hand is dan alleen gebrek aan componenten en bios probleemen
Gebrek aan concurrentie betekent bijna automatisch een gebrek aan prijsdaling. Waarom zou ATi de prijzen verlagen als ze geen echte concurrentie ondervinden? Voor de GTX460 is al een oplossing en de GTX580 is een product wat alleen om de prestige bestaat, dat verkoopt in ruwe cijfers voor geen meter. Het geld zit 'm in de HD55xx/HD56xx en in mindere mate in de HD68xx series.
Jij snapt het tenminste. Plus dat ze voor de 580 ook voldoende alternatieven hebben. Waarom zou je dan iets nieuws uitbrengen? Vanuit een businessperspective is dat natuurlijk niet handig. :)
Ook ik ben het er helemaal mee eens, daarnaast is een ander positief punt dat partners nu net even meer tijd hebben voor de drivers, etc. Ik heb liever een goed product wat iets later op de markt komt dan een overhaast product. Beide keren is het geen probleem voor mij zolang er goede support is, maar de voorkeur gaat naar punt 1 uit.
Hmmm ja erg moeilijk, vooral als je bedenkt dat kaarten van rond de 200 euro als warme broodjes over de toonabnk gaan itt kaarten van rond de 500 euro.

Snap je vergelijking totaal niet met nV.
duh .. de kaart waarvan je het meest gaat verkopen en er dus waarschijnlijk ook het meeste op verdient..

van de 100 mensen die een ati gaan kopen koopt:
10% de kaart van 500 (dus 10 kaarten)
90% de de kaart van 200 (dus 90 kaarten)
Kostprijs voor maken van een een kaart = 100 (even uit de duim gezogen)

Omzet voor 500e-kaarten: 5000 (10*500)
Kosten van 500e-kaarten: 1000 (100*10)
Opbrengst: 4000€

Omzet van 200e-kaarten 18000 (90*200)
Kosten van 200e-kaarten: 9000 (100*90)
Opbrengst: 9000€

Rara, waar zou ik me componenten voor gaan gebruiken???
Een deel van de hoge prijs is ook te wijten aan de zwakke dollar. Vele onderdelen zijn wat duurder geworden, heeft vooral met de valuta markt te maken.
Je hebt de goede ondersteuning in games, physx, drivers van goede kwaliteit en natuurlijk ook de fanboys. Ik zelf heb jaren lang nVidia gehad toen AMD/ATI slechte kaarten uitbracht. Om een paar voorbeelden te noemen

Maar toen ATI betere kaarten bracht voor een leuk prijsje ben ik ook overgestapt.
Als nVidia de prijs daarentegen zou verlagen en het verbruik van zijn kaarten dan zou ik ook weer overstappen op dat merk. Maar voorlopig blijf ik bij ATI.

Verder ontopic te reageren; als de vertraging, en dus de hoeveelheid kaarten die uitgebracht worden, maar niet gaat zorgen voor een prijsverhoging zoals dit wel gebeurde voor de 5xxxx serie.

@hieronder; met ondersteuning bedoel ik Batman Arkham Asylum bijv, elk spel die je speelt waarin het nVidia logo tevoorschijn komt. AA forceren, meestal moet je met ATI de AA forceren voor een spel en met nVidia niet.
Als je kijkt naar ATI en nVidia is dat ATI heel veel hotfixes moest uitbrengen om zijn kaarten goed te laten werken met een spel. Een voorbeeld laatst nog was het spel "Plants VS zombies" waarin de 3d ondersteuning voor het spel stuk was met de drivers 10.7 van ATI. Dit was pas gefixed bij 10.10D
Ow en ik zeg niet dat ze beter zijn ik zeg dat er goede ondersteuning is en goede kwaliteit is.

[Reactie gewijzigd door mhindrik op 11 november 2010 13:37]

In welke zin is de ondersteuning in games dan beter? Geef eens voorbeelden?
In welke zin zijn de drivers dan beter? De laatste jaren zijn er meer voorbeelden van het tegendeel te geven.

En tja, fanboys zul je altijd houden.
metro 2033
batman: AA
mirror's edge
UT3
mafia2
en nog een hoop andere, phsyx heeft een meerwaarde aan die games, je moet natuurlijk zelf uitmaken of je die wil hebben
Volgens mij is het voor een hoop onduidelijk waarvoor PhysX dient. Het is een physics library die op zowel ATi als nVidia kaarten werkt. Alleen de hardware ondersteuning hiervan (optimalisatie) heeft nVidia ondersteuning voor. De physics worden niet magisch beter o.i.d. Maar je gaat het wel merken in de details.
Ati mag geen GPU client maken die voor Physx ondersteuning zorgt.. Nvidia heeft al enige tijd geleden Ageia overgenomen en daarmee de patenten en copyrights in handen gekregen van de "PhysX technologie".

PhysX draait niet op Ati kaarten, en zal dan dus terug moeten vallen op de CPU. Hiervan is bekend dat Nvidia de CPU ondersteuning benadeeld, maar ja groot gelijk...

Als Ati hier zomaar een driver voor gaat maken kan nvidia deze erg gemakkelijk saboteren en waarschijnlijk mag ati ook een rechtszaak tegemoed zien.

Ati heeft echter ipv CUDA wel een goede ondersteuning voor DirectCompute en OpenCL. Er zijn ook plannen om een andere grote physics-library uit te rusten met ondersteuning voor OpenCL (Havoc-physics) en DirectCompute staat ontwikkelaars toe een eigen verzameling routines te maken welke op alle DX11 kaarten draait en niet alleen maar op Nvidia hardware..

"The way.."-titels zijn gesponsord en hebben vaak daardoor physx ondersteuning, maar dit is meestal een toevoeging aan het spel en niet een fundamenteel spelelement. Logisch aangezien de ontwikkelaar ook graag heeft dat bezitters van andere GPU's het spel kopen.
in geen enkel van die spellen heeft de gpu phiscs effect op de gameplay, en in de helft van die games is er niet eens ondersteuning voor GPU PhysX, alleen de cpu variant die op alle hardware werkt.
Het gekke is dat ik in niet één van die spellen een verschil merk of zie met of zonder "physics" en dat het hoe dan ook, ook bij nvidia een performance hit heeft. Maar, wat houdt je tegen om een nvidia kaartje naast je ati kaartje te prikken om physics te regelen, kan al met een kaartje van 20 euro.
PhysX krijg je niet meer gehandled met een 20 euro nvidia kaartje. Bij Mafia 2 bijvoorbeeld word aangeraden een GeForce kaart BOVEN de GTX260 te gebruiken voor de PhysX te renderen.
Sinds wanneer is een 9800GTX>GTX260?

Bovendien speelde ik mafia II met een GTX260 en een 210 voor de PhysX, dat ging prima!
Begrijp je reactie niet helemaal, want volgens mij noemt hij nergens de 9800gtx.
Aanbevolend word wanneer physx op high staat een dedicated kaart van minimaal de 8800gt voor primaire doeleinden wordt een fermi aangeraden en ja ik heb deze combi en ja dat maakt zeer veel verschil.

Niet dat ik de hele nvidia set niet zou inruilen voor een ati, beide hebben hun voor en nadelen, beide timmeren aan de weg, en dat heeft alleen maar voordelen voor ons consument!
Physics kunnen een meerwaarde in games hebben, dat nV dat nou via hun videokaart pusht dmv PhysX is alleen maar irritant. Physics kunnen prima door de CPU afgehandeld worden, zeker op hoge resoluties wanneer de GPU het al druk zat heeft.
en er zijn geen problemen met de ATI drivers dan? Geloof me vrij, die zijn er ook, met hopen.

Drivers will be drivers.
@hieronder; met ondersteuning bedoel ik Batman Arkham Asylum bijv, elk spel die je speelt waarin het nVidia logo tevoorschijn komt. AA forceren, meestal moet je met ATI de AA forceren voor een spel en met nVidia niet.
Daar noem je wel een spel die wat mij betreft reden zou zijn om géén NVidia te kopen (al zou ik dat best doen als ze gewoon betere prijs/kwaliteit hebben als ik een nieuwe graka nodig heb hoor). Dat die AA niet werkte kon ATI namelijk niets aan doen omdat het hardcoded uit het spel gesloopt werd op ATI kaarten vanwege het TWIMTBP-principe.
Er zijn ook gewoon spellen waarin je een nVidia logo ziet, waar ATI gewoon beter presteert.
Ow en ik zeg niet dat ze beter zijn ik zeg dat er goede ondersteuning is en goede kwaliteit is.
AMD idem dito
Ze hebben met de GTX580 een single-gpu kaart uitgebracht die soms dichtbij een 5970 presteert.. en dat is een multi-gpu kaart.. En qua prijs liggen ze ook wel dicht bij elkaar, gezien de GTX580 nog op z'n introductieprijs zit..

Asus EAH5970 2GB 561 euro
Asus ENGTX580 553 euro
(en verwonderlijk -> MSI N580GTX-M2D15D5 460 euro)

heb je bij nVidia dus geen last van de Crossfire problemen die er gewoon zijn, want niet elke game gaat er even goed mee om. En ja het is niet allemaal goed bij nVidia soms, maar het lijkt erop dat ze deze keer toch goed bezig zijn.
Er is recentelijk (gisteren geloof ik?) een prijsverlaging doorgevoerd voor de HD5970. Daardoor zou de kaart binnen een maand rond de 400 euro uit moeten komen. Dat is NU alleen nog niet te zien in webshops, omdat ze nog kaarten hebben liggen die ze met de oude prijs hebben ingekocht, die ze dus ook nog voor de oude prijs verkopen. Zal wel snel veranderen neem ik aan.

En dan is de keuze natuurlijk wel HEEL snel gemaakt. 100 euro minder voor een kaart die beter presteert. You do the math.
Webshops hebben echt geen kaarten op voorraad liggen hoor, zeker niet kaarten die 400 euro kosten.

Winkels als Alternate en Yorcom weer wel maar dan betaal je ook een paar tientjes meer dan bij een webshop.
SLI heeft hetzelfde probleem als CF heeft hoor.
Daarbij is de 5970 al dik driekwart jaar oud en de 580 een week. Die x2 kaart gebruikt ook nog eens minder stroom en maakt minder geluid... Het is maar wat je wil natuurlijk
Je snapt het niet, de 5970 gebruikt intern CF, waardoor er compatibiliteitsproblemen zijn. zoals ik dus zei: single gpu vs multi gpu. En het verbruikt maalt weinig gamer op, en de 580 is stiller.. de review gelezen? reviews: Geforce GTX 580: Nvidia terug van weggeweest?
of jij snapt 1 ding niet, een 5970 gebruikt geen crossfire.. het is een single kaart maar met 2gpu's dus 0.0 nadelen van CF..

en ik denk dat bijna iedere gamer kijkt naar stroom verbruik.. en het is toch knap dat de 5970 minder stroom verbruikt dan de 580 (multi core vs single core)..

ik als gamer kijk naar prijs, prestatie, stroom verbruik, hitte, en geluid.. en dat afwegen tegen de conccurent..

en dan komt de 5970 toch iets beter uit de bus dan de 580..

[Reactie gewijzigd door 215005 op 11 november 2010 14:09]

En hoe denk je dat die twee GPU's samenwerken? 8)7

Van HardOCP

AMD ATI Radeon HD 5970 Video Card Review
Just when you thought there was no way to outdo the 5800 series, AMD gives us the ATI Radeon HD 5970. It has two GPUs on a single PCB and brings with it CrossFireX in a single PCIe x16 slot.

Zoals C-Gate al zei: de 5970 gebruikt intern CF
intern ja.. een spelletje ziet niet dat je CF hebt.. omdat het op de kaart zelf al word geregeld..

stimpy.. met je hamertje..

[Reactie gewijzigd door 215005 op 11 november 2010 15:01]

Ehm, dat ziet een spelletje dus wel, voor zover dat relevant is. Je hebt gewoon crossfire en alle nadelen die erbij horen, het enige verschil met twee kaarten in crossfire is eehm... de twee kaarten. Of je er last van hebt is een tweede maar dat het maar half crossfire is of "slechts intern" of dat je 0,0 nadelen van CF hebt is gewoon onzin, het is gewoon 100% crossfire.

[Reactie gewijzigd door bwerg op 11 november 2010 20:56]

Dit klopt ook niet want de drivers enablen CF. Je kunt het ook gewoon uitzetten!
waardoor je een trage kaart over hebt.. mijn punt blijft bestaan. er komt CF aan te pas dus kunnen er issues zijn.
De HD5970 werkt gewoon met software CF. Daardoor heb je dezelfde afhankelijkheid van drivers en/of CF profileupdates. Moet echter wel zegen dat AMD dit nu frequenter doet en het niet echt meer een argument is om geen CF meer te nemen.
5970 = CF

Als je dat niet snapt, hoe durf je dan zo je bek open te trekken?
ik zou de 580 willen. Ik speel wel eens arma 2 en de crossfire ondersteuning schijnt belabberd te zijn. Sli wordt beter ondersteund, maar dat is natuurlijk helemaal geen issue met 1x580.
Nou om eerlijk te zijn is de gtx460 toch nog een mooie kaart voor een goede prijs. Echter me de lancering van de nieuwe ATI lijn is het hiermee ook nog niet helemaal afgelopen. Er zal nog gekeken moeten worden welke het beste in de prijs omlaag kan. Nvidia gebruikt over de gehele lijn genomen wel meer stroom om dezelfde prestaties neer te zetten. Dus om het nu belachelijke prijzen te noemen gaat mischien iets ver.
De 460 is gewoon price-locked, ze kunnen hem niet duurder maken, anders verkoopt ie voor geen meter. Helaas voor NVidia is het wel een grotere chip, dus ze leveren flink op marge in. Daar zijn aandeelhouders niet echt blij mee, zeker niet gezien de hoeveelheden die er verkocht worden (meeste winst wordt gewoonlijk gemaakt op kaarten rond de 200 euro, het middensegment).

Pas als het echt fout gaat (zie de GTX260, GTX280 en aanverwanten), stopt NV de productie, en dat doet best aardig zeer, vermoed ik. Zo lang ze het enigzins kunnen verantwoorden, blijven ze gewoon prijzen verlagen als de concurrentie met iets beters komt.
Als ATI blijft uitstellen gaan consumenten toch echt weer Nvidia overwegen, daarbij heeft Nvidia een stap in de goede richting gezet met hun GTX580, de videokaart is niet alleen sneller, stiller en koeler, maar ''het gevoel'' erbij is ook stukke beter.

En tja, Nvidia is altijd al duur geweest, hetzelfde geld voor Intel, want waarom zou men Intel kopen als je een hexa core CPU van AMD voor onder de 200 euro hebt?

Dit is een beetje appels met peren vergelijken, maar in de videokaarten markt heeft iedereen commentaar op de prijzen, dat een CPU van intel 1000 euro kost hoor ik niemand over.
Ach, het is elke zoveel jaar stuivertje wisselen qua dominantie. Eerst was er Voodoo, ATI Rage, NVidia TNT & Geforce 1/2/3, toen ATI Radeon 8/9, NVidia Geforce 6/7/8/9, ATI HD4/5/6. Lijkt een beetje op de klassieke wet van remmende voorsprong.

En je vergelijking met Intel vs AMD gaat niet helemaal op; ATI is nooit een budget merk geweest ...
Maar dat komt omdat die cpu's van Intel ook beter performen en de 'dure' videokaarten van nVidia niet.
Volgens mij waren er al eerdere tekenen van verslagenheid bij Nv..
Een passend voorbeeldje was assasin creed met directx 10.1 implementatie.
Ati presteerde toen hogere framerates in deze game, nvidia beweerde voet bij stuk dat 10.1 geen meerwaarde zou bieden kwestie performance. Dan heeft Ubi. maar deze eruit gesloopt onder 'mom van' renderbug.
Soit, ik denk niet dat ati zich zal moet haasten in de kaartenwedloop.
Nee er waren wel degelijk renderbugs... echter de rest van de wereld was onder 10.1 zo indrukwekkend en soepel dat men het in eerste instantie gewoon niet door had.

Het verwijderen van de 10.1 support blijf ik echter vreemd vinden, mogelijk dat Nvidia hier inderdaad iets mee te maken had. Ik kan me echter ook goed voorstellen dat Ubisoft geen zin had om geld uit te trekken om een 2e codebase ernaast te gaan zetten om 10.1 support voor 1 merk in leven te houden.
Het zou gaan om een driver-mosfet, afkomstig van het bedrijf Texas Instruments.
Waarom zouden ze dan geen andere mosfets nemen? Er zijn vast nog wel mee bedrijven die mosfet's maken.
Tenzij dat TI natuurlijk de efficiëntste maken die beschikbaar zijn, voor een voedingscircuit van een top kaart komt dat natuurlijk wel van pas.
De mogelijkheid bestaat dat AMD de lancering van de GTX 580 heeft afgewacht en de kloksnelheden naar gelang aanpast.
Hmm hoor ik daar een kaart met de nodige overclockruimte aankomen? :D
Als AMD de kloksnelheden verhoogt om de strijd met de GTX 580 aan te gaan, verwacht ik juist dat er minder ruimte overblijft om zelf nog over te klokken.
Ook zou meespelen dat de HD 5970 nog steeds de snelste videokaart is, zelfs na de komst van de GTX 580.
De HD 5970 verslaat de GTX 580 nog, dus ik verwacht van de HD 6990 dat hij hetzelfde doet maar dan hands down. Dan kunnen ze nu de kloksnelheden omlaag doen om de yields te verhogen (minder strenge eisen), wat meer overclock ruimte over laat.

Edit: Verkeert gelezen, gaat over de 6970 ipv 6990. Tja dan zullen ze de kloksnelheden idd wel omhoog schroeven.

[Reactie gewijzigd door Malantur op 11 november 2010 13:38]

Ze hebben vast niet de kloksnelheden naar beneden aangepast, dus ik zou eerder het tegendeel verwachten.
Ik neem aan dat ze zeker gekeken hebben naar alternatieven. Echter de situatie op de componentenmarkt is behoorlijk penibel voor zover ik weet.
Inkopers moeten nu echt op componentniveau gaan shoppen.
Ik heb door de jaren heen zowel ATI als nvidia kaarten in mijn systeem gehad, mijn aankoop was altijd gebaseerd op prijs kwaliteit. Dus ik ben geen fanboy!
Nu wat ik zelf vaststel is dat ik aan mijn nvidia kaarten langer plezier beleef, en dit is enkel te danken aan de driver updates die echt wel een verschil uitmaken.
op dit moment gebruik ik nog steeds mijn 8800gt sli setup, toegeven bij de release van een game is het niet altijd optimaal maar na een driverupdate is het voor mij meestal speelbaar.
Een ervaring die ik spijtig genoeg mis met mijn ati kaarten.
Om welke ATI kaarten heeft u het over als ik vragen mag? Uw ervaring is sterk verouderd, net als G92 zelf... :)
Ik ben het met comrade eens: Een paar jaar geleden was er nog geen sli/crossfire en daardoor kon je ook niet een goedkoop alternatief als prijs/prestatie kiezen die zo goed is als nu. Daarnaast zijn op dit moment kaarten vaak veel sneller dan wat de games van je eisen. Ik denk dat je daarom deze ervaring daar (mede?) door ontaan is.
"op dit moment gebruik ik nog steeds mijn 8800gt sli setup"

Je mag van geluk spreken dat die kaarten het nog doen...
Eigenlijk is het dan nog maar maximaal 3 weken uitstel. En dan vooral omdat een derde partij de bestellingen niet afgewerkt krijgt. Dat valt nog goed mee! En voor de rest hebben ze er duidelijk vertrouwen in en dat mag blijkbaar ook aangezien ze hun huidige reeks nog goed kunnen verkopen.

Ik vraag me af hoe groot de volgende klap zal zijn die nVidia te verwerken krijgt. Want ze zijn nu toch al een paar jaar "Too little, too late". (Hoewel ze ook nog steeds indrukwekkende chips weten te bedenken, maar ze lopen precies altijd een jaar achter.)
Hmm, ik neem dit bericht met een korreltje zout. De vertraging zal heus niet alleen liggen aan dit "kleine onderdeeltje" wat mist. Er zullen wel meerdere dingen meespelen. Misschien is de HD6970 niet snel genoeg, of vallen de yields tegen? Of zijn ze aan het kijken om hem hoger te klokken om de GTX580 te verslaan. Wie weet, dat zullen we zien over een maandje.

AMD heeft verder ook geen haast natuurlijk want de 5970 is sneller dan een GTX580. Ook kunnen ze mooi van de voorraad 5xxx serie afkomen.
Tegenvallende yields los je niet op in 3 weken. Dan doet men eerder een re-spin en komt er makkelijk 6 a 9 maanden bij. Dus het kan echt wel aan dat onderdeeltje liggen.
Ja,
Ze zien nu dat ze niet kunnen conccureren met de gtx580 (wel qua prijs, niet meer de beste prestaties). De 6990 zal denk ik pas komen als de dual-fermi (2x gtx460) uit is, en dan weer kunnen claimen dat ze de snelste kaart hebben (of niet natuurlijk).
De laatste optie lijkt me dus het mees waarschijnlijk, dat ze de clocks aan willen passen zodat ze dichter bij de gtx580 zitten. En het is natuurlijk bullshit om de 5970 met de gtx580 te vergelijken, de prijs verschilt nogal en de ene kaart is dual gpu, de andere single. De performance per watt is bij de gtx580 ook beter dan bij de 5970. Dus een stomme vergelijking.
En het is natuurlijk bullshit om de 5970 met de gtx580 te vergelijken,
En vervolgens maak je 2 vergelijkingen :D En waarom mag je ze volgens jouw niet vergelijken? Je vergelijkt toch juist verschillende dingen en niet dingen die hetzelfde zijn, die hoef je niet te vergelijken namelijk :P

Het zijn toch 2 videokaarten die een koper kan overwegen? En die moet ze dan toch echt vergelijken om een keuze te maken..

edit:
De HD5970 gebruikt onder load toch minder:
reviews: Geforce GTX 580: Nvidia terug van weggeweest?

[Reactie gewijzigd door watercoolertje op 11 november 2010 13:36]

10watt valt wat dat betreft gewoon in de foutmarge. Ik denk dat je prima kan stellen dat de GTX580 en de HD5970 onder load vrijwel evenveel verbruiken...

OT; Voor AMD is dit een lichte tegenvaller en ik denk eerlijk gezegd (mede door een bericht als tekorten in onderdelen) dat de beschikbaarheid pas op gang gaat komen in 2011 en niet halverwege december... Voor AMD is te hopen van wel, want dan pak je goede kerstverkopen mee. Zo niet, dan is dat voor Nvidia een meevalletje, want dan kan je er vanuitgaan dat in december de prijs van de GTX580 nog iets verder gaat zakken om in die maand een slagje te slaan. Ben erg benieuwd naar de uiteindelijke uitkomsten qua performance...
ik wist niet dat er zoveel mensen op de wereld kerst kado's kregen van 550€ ??

dus het zal reuze meevallen qua verkoop tijdens de kerst denk ik zo.. misschien dat de 100-250 euro kaarten als kadoo worden gegeven..

maar mijn ouders en vriendin hebben geen duizenden euro's op hun bank zodat ze mij een kadoo kunnen geven van 500+ euro..
Nu ja, sommige krijgen een PS 3 of Ipad blijkbaar.
Zullen er ook wel een 500+ GPU krijgen.

Andere zullen misschien een leuk spel krijgen plus nog wat zakgeld.
En dan denken ze van, kan ik hier een leuke GPU als kerstcadeau van kopen.
jawel ze zijn er wel, maar het is een druppel op een gloeiende plaat.. die 50 extra nvidia kaartjes die nu gekocht worden ipv ATI boeit ook niet toch?..

MW1F laat het lijken alsof AMD nu duizenden verkopen mis loopt.. maar volgens mij valt dat reuze mee.
jij kijkt naar de Nederlandse/Europese markt, je wil niet weten wat er in de maand december in de VS wordt uitgegeven aan dit soort zaken. De VS is een veel grotere 'consumptie' markt als hier en het zal dan niet om ~50 kaartjes gaan, maar wel meer...
En het is maar een puntje hoor, het is niet of het succes van de kaart hiermee valt of staat natuurlijk.
Ze zien nu dat ze niet kunnen conccureren met de gtx580 (wel qua prijs, niet meer de beste prestaties)?? Ik zie bij reviews dat de HD5970 nog steeds de snelste kaart is. Mocht je SLI/crossfire gaan draaien met deze kaarten dan wordt het een ander verhaal(4 gpu's presteerd totaal niet). Daarbij verbruikt de HD5970 onder load ook minder, wat automatisch de performance per wat beter maakt.


Dit zal weinig uitmaken met de kerst aangezien de meeste (kinderen :P ) een kaartje van maximaal 200 euro gaan krijgen.
Ja,
Ze zien nu dat ze niet kunnen conccureren met de gtx580 (wel qua prijs, niet meer de beste prestaties). De 6990 zal denk ik pas komen als de dual-fermi (2x gtx460) uit is, en dan weer kunnen claimen dat ze de snelste kaart hebben (of niet natuurlijk).
De laatste optie lijkt me dus het mees waarschijnlijk, dat ze de clocks aan willen passen zodat ze dichter bij de gtx580 zitten. En het is natuurlijk bullshit om de 5970 met de gtx580 te vergelijken, de prijs verschilt nogal en de ene kaart is dual gpu, de andere single. De performance per watt is bij de gtx580 ook beter dan bij de 5970. Dus een stomme vergelijking.
Je performance per watt is een rare opmerking, ik zou toch zweren dat uit de laatste t.net review bleek dat de 5970 nog steeds een 580 evenaart maar minder stroom verbruikt? (al is het maar een klein beetje, tis al wel technologie van een jaar oud...) Ook de prijzen van de 5000 reeks zullen kelderen zodra de grote broertjes van de 6850/6870 uitkomen, dan kun je voor een habbekrats straks een 5970 opdiepen.

De 6000 reeks laat nu al echt een verbetering zien van bijna 25% tov de huidige 5000 reeks, dat verschil is net zo groot als dat de 580 beter presteert dan de 480. Dus als de 5000 reeks voorlag, dan zal de 6000 reeks dat ws. ook gewoon doen?

Ik ben 't wel met je eens dat ze idd de kat uit de boom kijken om straks een dijk van een serie te gaan neerzetten :+

[Reactie gewijzigd door Rey Nemaattori op 12 november 2010 11:58]

5970 is goedkoper dan een GTX580
Goedkoopste HD5970; pricewatch: Club3D HD5970 2GB GDDR5 PCI-E (DiRT 2 Edition)

Goedkoopste GTX580 in pre-order; pricewatch: Gigabyte GV-N580D5-15I-B
Op voorraad; http://www.salland.eu/pro...b-zt-50101-10p.html?ref=2

Hoe zie jij dat de HD5970 goedkoper is? Ja, die op voorraad is 10,- goedkoper, maar dat is niks noemenswaardig. Dus gelijkgeprijsd lijkt me logischer.
Er is echter wel een prijsverlaging van de HD5970 aangekondigd, maar daar is in NL nog niks van terug te zien.

Op dit moment (!) is de GTX580 gewoon een betere keuze dan de HD5970; kost hetzelfde, verbruikt evenveel, presteert nagenoeg gelijk. Maar, de GTX580 heeft geen last van problemen bij CF ondersteuning, is koeler en maakt minder geluid. Pas als de HD5970 onder de 450,- gaat zitten is dat weer een betere keuze lijkt me.

[Reactie gewijzigd door MW1F op 11 november 2010 14:07]

Hoe zie jij dat de HD5970 goedkoper is? Ja, die op voorraad is 10,- goedkoper, maar dat is niks noemenswaardig. Dus gelijkgeprijsd lijkt me logischer.
Dan is het een klein beetje goedkoper, maar hij heeft geen ongelijk.
Er is echter wel een prijsverlaging van de HD5970 aangekondigd, maar daar is in NL nog niks van terug te zien.
En dat maakt ook niet uit, want die goedkopere 580 is nog een pre-order. Het maakt pas uit wanneer deze op voorraad is en de 5970 nog duurder is.
Op dit moment (!) is de GTX580 gewoon een betere keuze dan de HD5970; kost hetzelfde, verbruikt evenveel, presteert nagenoeg gelijk. Maar, de GTX580 heeft geen last van problemen bij CF ondersteuning, is koeler en maakt minder geluid. Pas als de HD5970 onder de 450,- gaat zitten is dat weer een betere keuze lijkt me.
Een enkele 5970 heeft geen CF problemen aangezien dat intern wordt afgehandeld. Voor de rest heb je zeker gelijk.
Nou, de HD5970 heeft meer dan een half jaar nodig gehad om de volle potentie eruit te halen en hoe bedoel je geen CF problemen? Maakt niks uit of dit intern geregeld wordt, het gaat om odersteuning van één of twee GPU's, of dit nu op één of twee PCB's zit. Feit is dat je met een single kaart vaker stabielere framerates hebt en minder kans op framedrops. Ik wil hier absoluut niet zeggen dat de HD5970 een slechte kaart is, integendeel! Maar er kleeft nu eenmaal een nadeeltje aan.
Enfin, offtopic....

[Reactie gewijzigd door MW1F op 11 november 2010 16:58]

Er is echter wel een prijsverlaging van de HD5970 aangekondigd, maar daar is in NL nog niks van terug te zien.
Daar doelde ik op. Dat komt in de loop van deze maand wel.
En dan is het tij weer in het voordeel van AMD. :)
look again.

Asus EAH5970 2GB 561 euro
Asus ENGTX580 553 euro
(en verwonderlijk -> MSI N580GTX-M2D15D5 460 euro)
de prijs daling die ATI heeft doorgevoerd moet de webshops nog bereiken maar dan zou de 5790 zo'n 450-470 moeten kosten.
Het zou wel nuttig zijn als T.net zelf eens ging navragen bij AMD of dit bericht klopt.
Want als AMD dit officieel aan Tweaktown vertelt, dan lijkt het me dat AMD het ook aan T.net en andere sites kan bevestigen.

Voor AMD is het te hopen dat ze dan wel meteen voldoende voorraad hebben in die week, want dat lijkt me wel erg krap voor de kerst inkopen.
Ik ben wat achterdochtig maareh.. Waarom zou je als AMD de R&D-afdeling nou harder laten lopen (en daarmee duurder laten zijn) dan nodig is?

Het is bij mijn weten nog steeds zo dat de snelste kaart in handen is van AMD (ik heb het over de fysieke video-kaart, niet over het aanta GPU's dat daar dan opgeplakt zit). Als het puur om die titel gaat, waar het zo af en toe op lijkt, zou ik de volgende (reeds ontwikkelde) kaart pas uitbrengen als Nvidia weer in de buurt komt of als ze de kroon nét over hebben genomen.

Zou het niet gewoon zijn omdat de nieuwe GTX580 minder presteert dan waarop geanticipeerd werd? Nu kan er langer geld gemaakt worden met de 5000 serie van AMD. Hoe langer je een zelfde product kunt blijven verkopen, hoe beter de verhouding van ontwikkelkosten vs. opbrengsten.

Die onderdelen zijn volgens mij gewoon een mooie smoes.
En dat is precies wat ze aan het doen zijn echter zullen ze dat natuurlijk nooit melden
@MeepMeep. heb je de die sizes van beide chips eens vergeleken. Die GTX580 is een stuk groter dan de best3e chip van amd, dus hij mag ook wel sneller zijn. Ik denk dat winst per chip in het voordeel van amd is :)
Een MOSFET is simpel genoeg om te secondsourcen, maar ook dat zorgt natuurlijk wel voor iets van vertraging.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True