Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 119 reacties

Het speculeren over de specificaties van AMD's aankomende generatie videokaarten is volop gaande. De mainstreamversies zouden zich volgens de laatste geruchten met de huidige generatie high-end kaarten kunnen meten.

De nieuwste specificaties zouden, volgens uitgelekte gegevens van de Chinese website Chiphell, waarop VR-Zone zich baseert, de prestaties van de Barts-gpu's uit de doeken doen. De Barts-gpu's moeten de bovenste regionen van het mainstreamsegment innemen met de Barts PRO en de Barts XT, die het hart van respectievelijk de HD 6750 en de 6770 vormen. De kaarten zouden zuiniger zijn dan de high-end 5850- en 5870-kaarten en vergelijkbare prestaties leveren. Bovendien zou het mainstreamsegment naar alle waarschijnlijkheid goedkoper worden dan de huidige high-end kaarten, wat krachtige prestaties voor een relatief lage prijs zou inhouden.

De Radeon HD 6750, met de Barts PRO-gpu aan boord, zou een tdp van slechts 114W krijgen, maar nog altijd ruim hogere prestaties dan de 5770 neerzetten. Voor de 5850 doet de kaart echter iets onder; de rekenkracht van de 6750 bedraagt 1,624TFlops, tegenover 2,088TFlops van de 5850. De PRO doet dit met een gpu-kloksnelheid van 725MHz, 280 streamprocessors, 56 texture-units en 32 rop's. Het gddr5-geheugen tikt op 1000MHz en en heeft een bandbreedte van 128GB/s. Het opgenomen vermogen zou maximaal 114W bedragen, met een idle-vermogen van 20W.

De Barts XT vormt het hart van de Radeon HD 6770; deze gpu zou volgens Chiphell op 900MHz tikken en over 320 steamprocessors beschikken. De gpu zou goed zijn voor een rekenkracht van 2,304TFlops, net iets minder dan de 2,720TFlops van de high-end 5870. Ook de hoeveelheid texture-units is met 64 stuks iets lager, terwijl met 32 stuks evenveel rop's beschikbaar zijn. Het geheugen tikt op 1050MHz, maar heeft iets minder bandbreedte. Het opgenomen vermogen in idle-toestand bedraagt 23W, terwijl onder belasting niet meer dan 146W zou worden verstookt. Daarmee zou de kaart met slechts één pci-express-voedingsstekker toe kunnen, maar dat is waarschijnlijk aan de 6750 voorbehouden.

Barts PRO en XT-specificaties

Moderatie-faq Wijzig weergave

Reacties (119)

In de genoemde link staat dat er nu twee bronnen zijn met dezelfde info.
Sheet is dus wellicht betrouwbaar.

UPDATE: Over at Chiphell, the source of most leaks, Napoleon, has leaked the full version of the same table. Two very similar tables coming from different sources certainly lends much more credibility to this chart than previous ones. The full chart reveals further details - power consumption. While notably higher than HD 5700, the HD 6770 is also lower than HD 5850, a GPU it will most likely beat comfortably. The HD 6770 features a TDP of 146W and the HD 6750 a very reasonable 116W. Idle power usage is 23W and 20W respectively. This means the HD 6770, while under 150W, will probably release with 2-pin PCI-e connectors, while the HD 6750 can easily do with just one.
Ik vind het een matig artikel.
De vergelijking met de 'oude' generatie highend-kaarten gaat nergens over.

Voor de 5850 doet de kaart echter iets onder; de rekenkracht van de 6750 bedraagt 1624TFlops, tegenover 2088TFlops van de 5850 Iets? dat is 22% minder.

Bovendien zou het mainstreamsegment naar alle waarschijnlijkheid goedkoper worden dan de huidige high-end kaarten, wat krachtige prestaties voor een relatief lage prijs zou inhouden. Dat mag ik dan wel hopen want de prestaties zijn dus lang niet gelijk...

Mijn inziens hadden ze beter een vergelijking kunnen maken met de midstreamkaarten van de 'oude' serie en dan zeggen wat de verschillen zijn, er vanuit gaande dat de nieuwe midstreamkaarten weer op hetzelfde prijsniveau komen als de oude serie.
Niet vergeten dat je dat percentage niet rechtstreeks kan vertalen naar prestaties in spellen, omdat de nieuwe generatie een reeks kleine verbeteringen zal hebben, en tevens omdat de HD6000 serie SIMD's van 4 ipv 5 eenheden zal hebben, waarbij prestaties dus minder hard zullen inkakken als de game de hardwarearchitectuur van ATI slecht ondersteunt.
Zal ik het ook maar hier vermelden (heb het een paar posts eerder ook al gedaan): dat HD6700 toevallig op 700 eindigt wil niet zeggen dat ze een hernieuwde versie van een HD5700 zijn. Zoals je kan lezen gaan deze kaarten qua prijs, prestaties en verbruik tussen een HD5700 en HD5800 in zitten, vooral dicht bij de HD5800. Dus ja, deze kaarten kunnen net zo goed vergeleken worden met de HD5800 als de HD5700.
Vroeger kon je bepaalde dingen vanwege overheidswege niet kopen omdat ze ongezond waren/milieuvervuilend/gevaarlijk of maatschappelijk problemen veroorzaken.

Vandaag de dag zie je alleen dat bepaalde peertjes (lampen met wolfram gloeidraad) niet meer geïmporteerd mogen worden.

Maar wat gebeurd er met onze energie net indien IEDEREEN over zo een kaart zou beschikken?

Zolang je ventilatoren nodig hebt om het verlies (warmte = overtollig energie met energie bestrijden) te compenseren is het geen vooruitgang.
Ik denk dat je de Maximale verbruik verwisselt met de minimum verbruik.

Deze kaart gebruikt 23Watt onder idle, wat 99% van de mensen doen, gedurende 90% van de tijd.

In vergelijking met oudere kaarten, is deze gpu zelf enorm zuinig, zeker als je ziet dat de oudere kaarten bijna continue op hun werk voltage, maximale memory speed, enz draaien.
Een stuk zuiniger: dat zie ik graag.
Het werd een beetje te dol met die kaarten de laatste jaren.
Als ik zie dat die 6750 meer stroom verbruikt dan de 5750 dan zie ik geen zuinigere kaarten. Volgens mij gebruikt de 6750 zelfs meer stroom dan de 5770. Ook verbruikt de 6770 meer stroom dan de 5770 en net iets minder dan de 5850.
Ik zie dus geen kaarten die minder stroom gaan gebruiken, enkel kaarten die juist meer stroom verbruiken. Idle power is zo te zien ook omhoog gegaan waardoor ze zelfs idle nog meer stroom verbruiken.

Als we naar prestatie/watt kijken, dan is het misschien zuiniger, maar dat betwijfel ik alsnog. Maar als je dan moderne kaarten vergelijkt met een Geforce 4 dan leveren alle moderne kaarten meer prestatie/watt, dus echt opmerkelijk is dat niet. Pas als ze daadwerkelijk sneller zijn dan de vorige generatie en niet alleen relatief maar ook absoluut minder stroom verbruiken, dan zou ik het zuiniger noemen.

[Reactie gewijzigd door Tsurany op 27 september 2010 15:06]

Het verbruik is als je er koud naar kijkt idd omhoog gegaan, maar als je de prestatie per verstookte watt bekijkt heb je weer een heel ander beeld ;) Dus ja, als je de directe serienummers met elkaar gaat vergelijken, dus de 5770 t.o 6770 dan verbruikt de 2e idd meer, maar de toename in kracht is zoveel meer dat die kaarten eigenlijk niet eens te vergelijken zijn. Oftewel, hadden ze de 6770 vergelijkbare power gegeven met de 5770, dan zou het verbruik theoretisch lager zijn... maar aangezien de kaarten blijkbaar een flinke performance boost krijgen kan je dat nog moeilijk zeggen.
Wie zegt dat de HD6770 de directe opvolger van de HD5770 moet zijn? Alleen maar omdat de nummertjes op elkaar lijken? 'T zal mij (en alle andere consumenten met mij) een worst wezen welk nummertje erop staat, gezien de prijs en prestaties ligt de HD6770 duidelijk in een hoger segment dan de HD5770 dus ja, dan ook het verbruik. Vergelijken op absoluut verbruik, en dan als basis een nummertje uit de naam nemen om af te leiden hoeveel een kaart zou moeten verbruiken is totale onzin. ;) Want als ze de HD6770 nou de HD6830 hadden genoemd dan was het ineens wel goed geweest of zo, terwijl er in feite helemaal niets veranderd...

Dus ja, prestatie/watt is waar je wél zinnige uitspraken over kan doen en dat wordt met de HD6000-serie beter. Prima, toch?

[Reactie gewijzigd door bwerg op 27 september 2010 16:38]

het punt is dat uit de nummers af te lezen moet zijn welke doelgroep het heeft. de nummers zijn uiteindelijk zo logisch als het maar kan:
Xxxx: geeft aan welke generatie de kaart is
xXxx: geeft aan op welke markt deze is gericht (3-5: budgetsegment/low-end, 6-7: mid-range, 8=high-end en 9 is 2 gpu's op 1 kaart, oftewel de enthausiasts kaart.)
xxXx: welk nummer de kaart heeft in dat segment (hoe hoger het nummer, hoe hoger de prestaties)
xxxX: altijd een 0.

dus dat maakt wel degelijk uit: als ze een 6370 en een 6970 zouden uitbrengen, zou jij al vanzelf gaan bedenken dat de 6370 VEEEEL lager presteert tegenover de 6970. het is een systeem en daar wijken ze niet zomaar vanaf.
en bovendien staat in de inleiding nog de bevestiging:
De mainstreamversies zouden zich volgens de laatste geruchten met de huidige generatie high-end kaarten kunnen meten.

dus de getalletjes op de kaart maken wel degelijk uit....
Nou, daar wijken ze dus lekker de hele tijd vanaf. Het is een grove indicatie en niet meer dan dat. Was de HD5450 zoveel minder dan de HD4550? Was de HD2900 een dual-variant? Had de HD2000-serie geen high-end single-chip kaart met het ontbreken van de HD2800? Hadden de dual-varianten van de HD3000- en HD4000-serie typenummer 39xx en 49xx? Het antwoord op al deze vragen: nee! En zo kan ik nog wel even doorgaan met 'uitzonderingen'.

Sterker nog, de laatste geruchten zijn volgens mij dat de HD59xx ook single-chip kaarten gaat bevatten. Dat ik het verschil zie tussen de HD6370 en de HD6970 is logisch, dat is binnen één serie en het tweede cijfer in het typenummer is een grove indicatie. Dus ja, ik weet dat een HD6370 veel trager zal zijn dan een HD6970. Nee, ik heb geen idee of de factor verschil 10 keer is of 20 keer. Maar of een HD5450 sneller of langzamer is dan een HD4550 dat ga je mij echt niet kunnen zeggen op basis van typenummers (alleen dat het wel niet heel veel zal uitmaken, net als dat een HD6700 wel wat sneller zal zijn dan een HD5700).

[Reactie gewijzigd door bwerg op 27 september 2010 17:43]

Sorry hoor maar ik denk toch echt dat je echt wel een lager model kunt gebruiken, ik heb echt geen 68XX kaart nodig om de spellen te spelen met aardig wat eye candy.

De huidige kaarten hebben zo veel power onboard dat de meeste spellen in belachelijk hoge fps werken, ja zelfs de zogenaamd zwaarste games draaien al echt lekker op de huidige generatie videokaarten.
Het zal toch echt een hele tijd gaan duren voor er spellen uitkomen die deze kaarten echt gaan laten zweten, en ik denk dat dit nog een hele poos gaat duren.
Ik heb al heel wat spellen bekeken welke zogenaamd dx11 zijn, maar of ik nu met dx9, 10 of 11 draai ik zie amper verschil :D
Dus op dit moment allemaal leuk die kreten, laat er eerst maar eens spellen uitkomen die echt gebruik maken van de geboden power dan is misschien zo'n dure kaart nuttig.
Dus anders dan het hoge bluf karakter (benchmarks waar je geen ruk aan hebt), zie ik echt geen noodzaak om de allersnelste te hebben.
Tuurlijk het is mooi dat ze snel zijn maar met de huidige energie prijzen(en belastingen daarop) en de steeds maar grotere stijging daarvan is het verbruik zeer belangrijk, zeker als je meer performance krijgt met minder stroom verbruik.
Hoe was dat een reactie op mij, ik zeg helemaal niets over wie welke kaart nodig heeft? :P

Maar om dan toch maar te reageren: wat je zegt klopt voor de meeste spellen. Maar er zijn toch echt spellen die zelfs een HD5970 niet aankan op hoogste settings (metro 2033 is echt fokking zwaar!). Daarnaast heb je gelijk dat DX10 of DX9 bijna geen verschil maakt, maar het verschil niet zien met DX11? Als je depth-of-field en tesselation niet ziet moet je echt letterlijk blind zijn, of je hebt alleen spellen gespeeld die nauwelijks van DX11 gebruik maken. En probeer eyefinity maar eens te draaien op hoogste settings, voor resoluties als 5760x1200 kun je echt niet genoeg kracht hebben hoor.

Tevens gaat het je vies tegenvallen hoe veel geld je bespaart door een zuinigere kaart te nemen, zeker aangezien ze het grootste deel van de tijd in idle draaien en er dan echt bijna geen verschil meer tussen verschillende high-end en mid-range kaarten zit. Enkele euro's kom je dan op uit op jaarbasis en dat is vergeleken bij de aanschafprijs helemaal niets. ;)

[Reactie gewijzigd door bwerg op 27 september 2010 18:59]

dat is ook wel een foute vergelijking, die 4550 tegenover de 5450. we hebben altijd gezien, en dat blijft voorlopig ook echt wel zo, dat nieuwere generaties meekomen met betere prestaties. dit is weer een perfect bewijs. de 7660 gaat concurreren met de 5850, een mid-sigm. tegenover een oudere high-segm. kaart. en bovendien zijn 5450's en 4550's, net als de 4350's, allemaal low-end/budgetsegment kaarten. en dan is het prestatieverschil niet zo heel veel uit, tenslotte heeft het dezelfde doel op de markt: het low-end segment. je gaat mij ook niet vertellen dat de 5450 even goed presteert als de X1950, omdat dat een compleet ander doel heeft op de markt. het is ook nooit zo dat een huidige low-end kaart vroeger een high-end zou zijn geweest. het heeft totaal het doel niet een hoog presterende kaart te zijn, maar een laag verbruik kaartje met leuke prestaties zodat films niet gaan laggen. hij is niet gebouwd op het gamen. natuurlijk, CoD4 kan hij makkelijk op lage details op een 1280x1024 schermpje spelen. maar je koopt dan nog steeds geen 5450 om in een hardcore computer te stoppen, of een X1950 voor in een HTPC.
het belangrijkste is om te letten om de eerste 2 getallen. des te hoger die twee zijn, des te hoger zal de kaart presteren. het zij zo, zo is het systeem al sinds de HD2xxx serie.
Die getallen maken niet uit. Het is de prijs waarvoor deze verkrijgbaar gaan zijn dat van belang zal zijn.

En inderdaad, wat een bullshit allemaal. De kaarten zijn relatief gezien zuiniger. Dat is winst. AMD zou toch gewoon DOM zijn om enkel zuinigere kaarten uit te brengen. Kijk naar de Nvidia-kaartjes. Als het verbruik zo belangrijk zou zijn zouden deze absoluut niet verkocht worden.

Als de HD6770 nu een 250 euro gaat kosten. Terwijl de HD5770 150 euro kost. Hoe kun je dan in godsnaam deze kaarten op die manier gaan vergelijken? De HD5770 heeft nooit zoveel gekost, dus dat is duidelijk een ander marktsegment, op die manier maken DIE cijfertjes niet uit. Het zijn de cijfertjes bij het euro-teken, de prijs, die uitmaakt.

Prijs - Prestaties - Verbruik. Dat telt, en vooral dan de eerste twee. (En daarnaast warmte en geluid, maar dat hangt samen met het verbruik.) Als men de mid-range anders gaat positioneren, dat is toch perfect mogelijk. En dan kunnen die cijfertjes van de benaming je niet helpen.

Nogmaals, ik snap al dat gezever over zuinigheid niet tegenwoordig. Welke kaart koop je, degene die 200 euro kost, 50Watt verbruikt en je games amper kan draaien of de kaart die 200 euro kost, 150Watt verbruikt en je games vlot draait? Als je een kaart wilt, die zuiniger is dan je huidige kaart, neem dan een budget-kaartje van de volgende reeks. Dus een HD66xx kaartje voor je HD57xx kaartje te vervangen. Dan behoud je de prestaties en heb je in relatieve EN absolute termen een zuiniger kaartje. Maar niemand doet zo iets, dus waarom klaag iedereen dan zo over dat verbruik?! Dat is enkel van belang als het extreem veel is (kijk GTX470/GTX480).

[Reactie gewijzigd door Phate_13 op 27 september 2010 17:06]

In het artikel vergelijken ze die dan ook niet met de directe voorgangers maar met de high-end kaarten van nu (de 58XX-serie). Ik denk meer in de zin van: als je nu een kaart koopt is een nieuwe 6770 ongeveer net zo snel als en zuiniger dan een huidige 58XX-serie kaart.

Op zich dus wel meer prestatie voor het aantal watts, al moet ik nog zien dat ze zo snel presteren. Het is ook nog maar de vraag of de 68XX-serie zuiniger gaat zijn dan de 58XX-serie, ik denk het niet. Wellicht wel relatief en ook dat is een stap in de goede richting (5890... 5970 iemand? :D).
Ja maar dat lijkt me absoluut niet opmerkelijk, sterker nog, het zou pas opmerkelijk zijn als de prestatie per watt achteruit zou gaan. Overal zie je dat de prestatie/watt met elke generatie vooruit gaat, maar als de nieuwe generatie alsnog meer watt verbruikt dan hun voorgangers zou ik niet zeggen dat zuinigheid de trend is. Dat zou het pas zijn als ze en sneller zijn en minder stroom verbruiken.

Stap je nu over van een mid-range 5770 naar een mid-range 6770 dan zal je gewoon meer stroom verbruiken, dat noem ik niet zuiniger.
Ze zijn in hun eigen klassement ook verre van zuinig(er) (geworden). Ik vind het wel opmerkelijk omdat we het hier hebben over 75-90 watt besparing op een totaal van 190, bij vergelijkbare prestaties. Tuurlijk is er altijd innovatie en verbetering, maar dit vind ik aanzienlijk genoeg om opmerkelijk te zijn. Het is geen regel, maar ook geen uitzondering. Dit zal nog wel een tijd duren.

Uiteraard zal de eerste nieuwe kaart in dezelfde klasse die zuiniger is dan zijn voorganger helemaal nieuws zijn.
Tja, aangezien de GTX 460 (directe concurrent van de 5770) regelmatig geprezen wordt, met ruwweg dezelfde prestaties voor veel meer prik (140W versus 115W) maakt blijkbaar het verbruik niet gek veel uit... Kaarten worden allereerst beoordeeld op hun pure prestaties, pas daarna gaat men eens kijken naar het verbruik (als je daar al op let, gezien de verkopen van de GTX 480). ATi (sorry AMD) heeft dus nu ook maar besloten om de prestaties op te voeren, power be damned.
Een 5770 komt te weinig in de buurt van een GTX460 om het 'ruwweg dezelfde prestaties' te noemen naar mijn mening. De GTX460 moet je meer plaatsen tegenover de 5830 (en zelfs dan is hij zo goed als altijd sneller) en in mindere mate de 5850 (die gemiddeld wel een stukje sneller is dan de GTX460.
Die 190 watt kaart is de 5870, die is een flink stuk sneller dan de 6750 waarmee het 75-90 watt scheelt. De 6770 verbruikt echter 146 watt dus dan hebben we het over een besparing van slechts 40 watt. De pure rekenkracht van de 5870 is echter wel een stukje hoger dan de 6770.
Met die aantekening dat het niet helemaal duidelijk is of de H5770 wel 1:1 met de HD6770 mag worden vergeleken.

De HD5770 (en de HD4670 voor hem) was een halve uitvoering van de grote broer: de HD5870 (en de HD4870 respectievelijk). Er zijn aanwijzingen dat de HD6770 niet een halve HD6870 betreft, maar meer lijkt op een tweederde uitvoering.

Daarmee wordt de niewe generatie HDx7x0 opgestuwd naar een iets hoger niveau - en wordt daarmee ook de thermal evelope opgeschoven.
Niet helemaal juist, de 4770 was namelijk ook 2/3 zoals jij dat dan noemt. De 4670 was de helft qua power.
De 5670 was een vreemde kaart, deze is in mijn ogen low-end, terwijl de benaming anders doet denken.
In het artikel vergelijken ze die dan ook niet met de directe voorgangers maar met de high-end kaarten van nu (de 58XX-serie). Ik denk meer in de zin van: als je nu een kaart koopt is een nieuwe 6770 ongeveer net zo snel als en zuiniger dan een huidige 58XX-serie kaart.
Zo zal AMD het inderdaad presenteren, want dat lijkt gunstiger. Maar de werkelijkheid is dat elke serie meer energie gebruikt dan de vorige.

Natuurlijk kan je zeggen dat een 6770 beter presteert dan een 5850 en ook nog zuiniger is, maar games worden ook zwaarder en als je dus een 5850 had wil je straks dus een 6850, die dus meer energie gebruikt. Extrapoleer dat verder in de toekomst en je hebt bijvoorbeeld een 9850 die rond de 250W gebruikt of nog hoger, en een 9870 met 300W verbruik, terwijl de 9970 best eens 500W zou kunnen gebruiken. Die kant wil je toch niet op?

Een zinnige vergelijking is bijvoorbeeld: midrange vergelijken met midrange, highend met highend enzovoort. Ik heb nu een 5850. Denk je echt dat ik hierna een 6770 ga kopen omdat die zuiniger is? Natuurlijk niet. Als ik al een 6000 serie kaart koop, wordt het waarschijnlijk wéér een midrange in dezelfde klasse, dus een 6850. En die gaat dus meer energie gebruiken dan mijn 5850. Een 7850 gebruikt weer meer en een 8850 nog meer enzovoort, tenminste als ze op deze manier door gaan. Dàt is het punt.

Ook staat dit steeds hogere verbruik in contrast met de situatie op het gebied van CPU's, waarbij het verbruik al een aantal jaar op hetzelfde niveau ligt terwijl de snelheid wel blijft stijgen.

[Reactie gewijzigd door Bonez0r op 28 september 2010 22:36]

muah als die 6750 daadwerkelijk (dus niet alleen theoretisch aan de hand van de TFlops specificaties) 20% langzamer is dan de 5850 en daarbij dus ook zo'n 25% zuiniger is (114 ipv 151 Watt) dan vindt ikzelf niet dat het verbruik omhoog gaat, sterker nog het daalt lichtjes...
Dit dus als we de verbruik/prestaties verhouding met elkaar vergelijken...
Ze zijn relatief zuiniger als je ze vergelijkt met een veel hoger ingedeelde voorganger die een stuk sneller is. Dat is een Fiat Panda die op een dorpsweg sneller is dan een Enzo, als je begrijpt wat ik bedoel. De Fiat Panda is een stuk zuiniger bij lage snelheid maar zit dan ook in een totaal andere klasse auto dan de Enzo. Je moet wel de juiste klassen met elkaar vergelijken. De midrange klasse verbruikt een stuk meer stroom dan de vorige midrange klasse en de high-end klasse (68xx) zal waarschijnlijk meer stroom verbruiken dan de vorige high-end klasse. Dus overall worden de kaarten niet zuiger maar gaan ze allemaal meer stroom verbruiken. De gemiddelde stroomkosten van de kaarten stijgen gewoon, enkel krijg je per watt misschien meer performance, maar dat lijkt me met elke generatie voortgang logisch en niet opmerkelijk.

[Reactie gewijzigd door Tsurany op 27 september 2010 15:14]

sorry maar wat een vergelijking, jij zit de top van de high-end te vergelijken met een een van de lagere low-ends...
Nu is een 5850 een middle/high-end van de oude generatie, en die wordt vergeleken met een middle-end van de nieuwe generatie (het is immers geen 68xx serie)...
Oftewel we vergelijken een oudere BMW serie 5 met een nieuwe BMW Serie 3, net iets anders dan een Ferrari en een Panda, als je begrijpt wat ik bedoel ;)
Moet je de nieuwe BMW 3 serie niet gewoon vergelijken met de oude BMW 3 serie en de nieuwe BMW 5 serie die straks komt vergelijken met de oude BMW 5 serie? Je kan mooi cross-serie gaan vergelijken, maar daar schiet je niet veel mee op. Zet de serie tegenover zijn eigen opvolger, niet de opvolger van een serie lager.
Nogal onzinnig om met autoseries te vergelijken denk ik. Een videokaart moet niet meer doen dan rekenwerk, en het enige dat hem dus low, mid of high-end maakt is hoe snel hij rekent en wat hij kost.
Vermits het goed mogelijk is dat een nieuwe low-end sneller is dan een oude high-end, zijn er dus situaties waar het vergelijken van de 2 wel nuttig kan zijn.
Als je steeds de laatste nieuwe games wil spelen gaat deze vergelijking inderdaad niet op, omdat je dan bij een nieuwe generatie games ook een nieuwe generatie videokaarten nodig hebt. In dat geval is het dus belangrijk dat de prestaties vooruit gaan zonder dat het verbruik stijgt.
De BMW-5 serie is veel luxer en heeft meer opties, tuurlijk moet je die dus met zijn voorganger vergelijken. Bij videokaarten gaat het (mij) eigenlijk alleen maar om de snelheid. Van mij mag je dan crosss-serie vergelijken. Maargoed, alle series overlappen elkaar trouwens bijna voor 80% met snelheid.

Vergelijking wordt op deze manier zeer ingewikkeld. Zo zie ik door het bomen het bos al bijna niet meer, lijkt wel of ze het opzettelijk doen. Zal wel marketing zijn. Intel heeft daar ook een handje van.
Je snapt het punt zeker niet he? Het gaat dus niet enkel om de snelheid maar juist om de verhouding tussen snelheid en verbruik. En dan vergelijk je juist wel de juiste series omdat je moeilijk kan zeggen dat de nieuwe generatie zuiniger is als alle series meer stroom verbruiken dan dezelfde serie van de vorige generatie.
Moet je de nieuwe BMW 3 serie niet gewoon vergelijken met de oude BMW 3 serie en de nieuwe BMW 5 serie die straks komt vergelijken met de oude BMW 5 serie? Je kan mooi cross-serie gaan vergelijken, maar daar schiet je niet veel mee op. Zet de serie tegenover zijn eigen opvolger, niet de opvolger van een serie lager.
En waarom kan je die dan niet met elkaar vergelijken. Als die nieuwe BMW3 in de buurt komt van de oude BMW5 dan is het heel interessant om te kijken wat er nu verschillend is en of je wel meer een nieuwe BMW5 moet kopen of dat de goedkopere 3 serie ook voldoet.

Nu gaat deze vergelijking totaal niet op, want auto vervang je niet omdat er een sneller model uit is, je kan dat dus helemaal niet projecteren op videokaart markt, videokaart vervang je immers 9 van de 10 keer niet omdat die op begint te raken maar omdat er een sneller model uit is, de oude kaart kan nog jaren lang zijn werk doen. Bij auto doe je dat niet, je gat geen nieuwe auto kopen omdat de nieuwe sneller is.

Cross vergelijking is dan ook niet echt van toepassing als je vorige model het vorige top model(5 serie) was, als je dan naar de midrang(3 serie) gaat kijken zal je bijna op alle punten slechter af zijn dat het eigenlijk niet opgaat, misschien voor wat stroom besparing maar verder zal je dus nadelen bevinden. :)

Maar cross vergelijkingen kan zeker wel en is ook op veel punten aan te raden, zoals auto voorbeeld van jou. Maar bij videokaarten is het wellicht niet zo heel handig voor de meeste mensen, maar voor aantal kan het handig zijn. Mensen die bijvoorbeeld een 2de high end willen kopen van de afgelopen generatie of een van de nieuwe generatie maar dan een midrange.
5850 is high-end van de huidige generatie (geen mid-end).
67XX is mid-end van komende generatie.

Verder eens. Om er nog maar een praktisch voorbeeld, meer Twiekers-gerelateerd, aan toe te voegen:

We vergelijken hier een oude Core i7 met een nieuwe Core i5 en de nieuwe Core i7 moet nog uitkomen. Uiteraard dan met oude en nieuwe architecturen / sockets.

[Reactie gewijzigd door Chocola op 27 september 2010 15:33]

hehe vindt toch de 5850 middle/high-end :P
de 5870 en de 5970 vindt ik echt high-end :P
maar dat is waarschijnlijk omdat ikzelf een 5850 heb nu en niet echt het gevoel heb dat ie high-end is :D
Je kan stellen dat 100-200 euro mainstream is omdat daar de meeste verkopen aan gamers en dergelijke zijn. Daarboven kan je alles high-end noemen.
Het verbruik tegenover de vorige generaties ATI is misschien niet zo groot als je rekening houdt met de iets lagere prestaties, maar vergeleken met Nvidia loopt het verschil toch aardig op.
dat het absolute verbruik omhoog gaat is correct, maar relatief niet, dus verbruik/prestaties niet. ook hier zal ik mijn berekeningen erop loslaten. ik zal gebruik maken van de 6770. ik bereken alle verschillen in prestaties, vervolgens in percentages, die tel ik bij elkaar op en deel die door de 11 factoren.
[img]http://computerbouwen2.we...70c013487c05122970c-800wi[/img]

zo kom ik tot de conclusie dat de 6770 een geschatte 58,0% hoger zal presteren t.o.v. de 5770. en dan maken we het wel even af: is het de hogere TDP nu wel waard?

bij de HD5770: 100% prestaties staat tot 106W TDP.
bij de HD6770: 158% prestaties staat tot 146W TDP
als het TDP van de HD6770 gelijk zou zijn aan de HD5770, dan zou de prestaties:
106W : 146W = 0,726
158% x 0,726 = 114,7% prestatie.
dus een relatieve prestatiewinst van 14,7%. vindt ik toch een mooie prestatie om neer te zetten. ik gok daarom ook dat de 6770 goed op de nVIDIA 4xx series zal gaan inhakken.
laat nu de strijd maar komen AMD!
Maar in hoeverre is dat nieuws? Dat zie je overal in de ICT wereld, dat prestaties sneller stijgen dan stroomverbruik. Dat de nieuwe generatie per watt sneller is, dat is helemaal niet boeiend, want dat is tenslotte een verwachting. Echter dat de nieuwe generatie daardoor ook op zuinigheid richt is naar mijn idee gewoon onzin als het totale verbruik enkel stijgt.
Het zit 'm juist dat de productieproces (40nm) hetzelfde is gebleven, dit terwijl normaal gesproken een lager gebruik alleen wordt gerealiseerd door een kleiner productieproces.

Daarnaast is het aannemelijk dat de prestatie per mm2 een stuk hoger is in vergelijking met de 5xxx serie. Dit is gunstig voor de verkoopprijs en/of winstmarge voor AMD.

[Reactie gewijzigd door MichielB op 27 september 2010 19:53]

Logisch toch? Kaarten zijn niet gemaakt op ander productieprocedé, maar wel sneller. Sneller betekent meer stroomverbruik op vaak hoger voltage. Enkel wanneer de gpu kleiner gemaakt wordt denk ik dat de kaarten zuiniger en minder warm gaan worden.
Ze zijn waarschijnlijk sneller omdat men ook optimalisaties op kleine schaal heeft gedaan. Vaak kan dezelfde output met dezelfde input worden bereikt met minder verbruik van chipruimte en energie door de elektrische schakelingen te stroomlijnen. Er zitten altijd wel wat imperfecties in een chip met zoveel functionaliteit.
Teringjantje...in 1997 hadden ze 9200 Pentium Pro - processoren nodig om 2 TFLOPS te halen :P

En een eigen elekriciteitscentrale.
Ik vind het knap van AMD dat ze toch nog de kaarten zuiniger weten te maken en toch nog genoeg snelheid weten te leveren. Zelf heb ik op dit moment nog een van de grote stroomslurpers in mijn PC zitten (Ati HD 4890) en moest ik na aanschaf van deze kaart meteen mijn 500W voeding vervangen door een 850W voordat hij beeld gaf. :P

Nu kan ik met een gerust hart een opvolger kopen zonder mij zorgen te moeten maken of mijn voeding het nog trekt.
Ik zit nog steeds met een 500W voeding en een 8800GT

Was eigenlijk niet van plan om bij mij nieuwe videokaart me voeding te veranderen.
Hoop dat ik dus niet daar toe gedwongen ga worden tegen die tijd.

Verder vind ik toch nette prestaties, volgens mij had steeds iedereen het over een hoger verbruik dan vorige generatie omdat ze sneller werden, maar op 40nm bleven
Als je een degelijke 500watt voeding hebt kom je een heel eind hoor. Ik draai een overgeclockte i5-750, HD4890 en 5 hdd's op een 520 watt coolermaster voeding, dit gaat prima. Als je een multi-gpu opstelling maakt of er een 5970-achtige kaart in zet, dan is een zwaardere voeding wel aan te bevelen.
500W != 500W... Q-tec rampdingen mogen dan een heel imposant stikkertje hebben, ik trek ze er rustig allemaal (desnoods tegelijk) uit met 1 Seasonic / Antec / Coolermaster / Zippy van 400W. Geen enkel probleem. Als je dan daarop een moderne en redelijk veeleisende GPU zet, gaat het waarschijnlijk mis, en omdat ATi en NVDA dat weten, adviseren ze fikse overkill voor hun kaarten.
Dan ben ik erg benieuwd naar de rest van je specs. Kheb hier ook een 4890 icm een Q9400@ 3.2 Ghz en dat draait als een zonnetje op een 450 Watt voeding.

Ontopic:
"Daarmee zou de kaart met slechts één pci-express-voedingsstekker toe kunnen, maar dat is waarschijnlijk aan de 6750 voorbehouden. "

Dat is wel goed nieuws. Ook al is het maar 1 stekker minder, het scheelt toch weer wat ruimte en verbeterd in veel gevallen ook de airflow.
Denk dat die ene stekker op je airflow weinig verschil zal uitmaken. Sowiezo niet als je het een beetje netjes weg weet te werken. Ik draai binnen mijn huidige systeem enkel op fancooling en mijn 4 case fans, cpu fan, gpu fan houden in load mijn systeem toch mooi op ~30 graden case, ~34 graden cpu (non-OC) / ~ 50 graden cpu (OC) en ~60 graden gpu (non-OC) / ~70 graden gpu (OC).

Naar behoefte kunnen daar nog eventueel 3 case fans, schroeft mijn case temp terug naar een graad of 24 en komt daarmee vrij dicht in de buurt van ambience temp. Vind de geluid productie dan alleen te hoog worden, begin het boven headset uit te horen :p.

Maar een kabeltje meer of minder, zou ik me echt geen zorgen om maken :p.
Dit betekend dat zodra iedereen op de 6000-serie gaat overstappen, dat ik een HD 5870 kan gaan scoren :D. Ik loop dan weliswaar altijd wat achter, maar het is voor mij genoeg en scheelt me bakken met geld.

Dat stroomverbruik (TDP) is trouwens wel erg gunstig! Maakt in mijn geval niet erg veel uit gezien mijn PSU 850 watt levert (blijft hij lekker bij 50% load == stil en relatief zuinig) dus kan lekker vooruit :).

Betwijfel trouwens of deze kaarten wel écht net zo snel zijn als een HD 5850 of HD 5870.

edit: tikfout via "feedback" gedaan i.p.v. hier.

[Reactie gewijzigd door Chocola op 27 september 2010 15:04]

Denk dat ik dat ook doe inderdaad. Heb er geen problemen mee net ietsje achter te lopen. Graphics op max hoeft ook niet altijd van mij. Medium is vaak al mooier als X360/PS3 en dat vind ik vaak al erg mooi.

Is er trouwens software om te zien hoeveel watt je computer trekt? Zodat ik kan zien of ik mn voeding moet upgraden icm een 5870?
Op dit moment heb ik 580 watt op een Gigabyte GA-MA758-U2SH icm AMD Phenom X2 Black 555 op 3.2ghz en een Sound Blaster Audigy 2 die extra stroom vereist. Maar heb geen idee wat zoiets ongeveer trekt?
Softwarematig is dit vaak niet accuraat of objectief. Beste is gewoon een metertje tussen je stopcontact en stekkerdoos te plaatsen. Of stekkerdoos en PSU als je niet je monitor en randapparatuur wil meeberekenen. Zijn nu duur hoor.
Dit is dan wel redelijk omslachtig, dan zou ik nog eerder de kaart erin zetten en kijken of het werkt eerlijk gezegd. Ik weet niet hoever software er normaal van afzit? Een ruwe schatting zou ook al handig zijn. Heb al wat rond zitten zoeken naar verbruik van mijn systeem maar zie veel tegenstrijdige berichten waar ik dus ook niet veel wijzer uit wordt. Maargoed, ik kom er zowieso wel achter wanneer ik er 1 heb dus wat dat betreft..
Voor een ruwe schatting kun je ook gewoon een tool op internet of een rekenmachine gebruiken.

- http://www.thermaltake.outervision.com/

Deze gebruik ik wel eens als ik te lui ben voor een fysieke meter.
Dank jullie wel, die tool geeft aan dat ik rond de 380 wat verbruik dus het zou of net wel, of net niet lukken afhankelijk van hoeveel de tool afwijkt natuurlijk.
In ieder geval het proberen waard dus om er gewoon een kaart in te zetten..
Zo heel lastig is het niet, bereken de TDP van je systeem (losse onderdelen optellen) en kijk wat geluidskaarten en hardeschijven gemiddeld aan stroom verbruiken. En kijk naar de 12v lijn, want watt zegt lang niet alles.

[Reactie gewijzigd door Tsurany op 27 september 2010 15:46]

Ik vind het eerder omslachtig om een videokaart te kopen en dan maar te hopen dat één en ander werkt. Ik heb nu enige tijd geleden een Cresta stroommeter gekocht bij de Kijkshop. Voor een tientje kan je precies meten welk deel van je gear (monitor, computer, televisie, of hele groepen samen) wat verbruikt. Als je dan even opzoekt wat de efficiëntie van je voeding is (zou gemeten moeten zijn) weet je al een hoop. Natuurlijk zit er nog enige onnauwkeurigheid in, maar het is al een stuk beter dan gokken op opgegeven cijfers van fabrikanten o.i.d.

Sowieso heb ik met het metertje een hoop sluipverbruik opgespoord. Met een tientje heb je zo'n ding er binnen een half jaar alweer uit, zelfs met maar een paar apparaten :)

[Reactie gewijzigd door Camacha op 28 september 2010 06:23]

Nee, je kunt het berekenen, maar dat blijft gokwerk. Uiteindelijk ben je denk ik het beste uit door een verbruik metertje te halen bij de gamma/praxis, en dat hoeft niet eens ZO'N dure te zijn, en het te meten. 5% afwijking is niet ongewoon bij die dingen, maar dan toch wat exacter dan raden. Overigens kun je zo wel mooi weten hoe efficiënt je systeem is, je voeding, en wat alle profielen doen, je ziet immers bij je stopcontact of onder je bureau dat metertje van 100 naar 300 gaan en weer terug, of zelfs hoger.
Ik heb een zalman fan controller met ingebouwde watt meter, werkt ook met tussenstuk op je stekker.
Ik vraag me af waarom mensen hier zo "schrik" hebben van het stroom verbruik. Als je mensen ziet quote dat ze 850w, 750w voedingen hebben, wat in praktijk grondig overkill is ( of men moet SLI draaien, wat de meeste mensen niet doen ).

Met een 146W GPU, heb je meer dan genoeg met een 450Watt voeding.

Het ziet er in ieder geval interessant uit, hoe snel de nieuwe GPU's geworden zijn ( zit nog met een GTX260 ( eerste model ) ). De 6770 heeft zelf een pak minder in verbruik dan mijn GTX260 ( 182W vs 146W ). En die 260 draait perfect op een 450Watt voeding ( deftige! voeding, geen van die el-cheapo toestanden ).
Inderdaad, het scheelt nogal wat voor voeding je hebt. It's all about ampere ^^.

450 échte watts zijn genoeg voor de meeste kaarten. Toch heb ik liever meer voor maximale efficiëntie en temperatuur (ja ik ben een mierenneuker).
Maximale efficientie?
Het tegendeel zul je bedoelen!!

Een voeding word minder efficient naarmate de load lager is.
Als je PC dus maximaal 450W trekt, dan is het efficienter er een goede 500W voeding aan te hangen dan een 800W voeding.

En als je een goede voeding hebt dan is dat ook niet boeiend voor temperatuur en geluidsnivo.
Als dit klopt dan ziet het er naar uit dat de nieuwe 67xxmidrange kaarten, aan de prestaties van de 58xx zitten.
En dan voor een betere prijs, nou dat zou interresante upgrade worden voor m`n 4770 xfire setje.
Ik hoop dat AMD snel met een officiele mededeling komt.
Dat x770 bij de HD5000-serie mid-range was wilt niet zeggen dat het dat bij de HD6000-serie ook gaat zijn hé. Het zijn maar nummertjes. De HD3800's en HD4800's waren toch ook sneller dan de HD2900's? De HD4550 werd toch ook niet opgevolgd door de HD5550 maar de HD5450? Zo'n nummertje is leuk om te zien in welk segment een kaart ongeveer gaat zitten maar je kan er echt nog geen prijs op baseren of zo. De HD6700's gaan namelijk ergens tussen de prijs van de HD5700's en HD5800's in zitten.
De prijzen zullen in het begin redelijk hoog zijn, totdat de 68xx reeks uitkomt,
dat was bij de 57xx serie ook het geval. Best slim eigenlijk, helemaal als de 67xx serie echt sneller is dan de 58xx serie. Mensen kopen dan eerst de mid end want die is op dat moment sneller en relatief goedkoop, hebben ze genoeg gecashed van de early adapters dan brengen ze de 68xx serie uit en gaan de early adapters deze weer kopen.$$$

En ik w8 totdat 6770 dan op marktplaats komt.
De HD5700 kwam alleen tegelijk met de HD5800. ;)
Pff, die opsomming van getallen maakt dit nieuwtje vrij irritant om te lezen. Zo ergens tegen het einde kon ik de flops van de rops en de watts niet meer uit elkaar houden :P

Maar wat ik ervan begrijp is dat er nieuwe radeon's komen voor minder geld maar hogere prestaties, wat in mijn ogen altijd positief is. Ben nog op zoek naar een kaart voor een goede prijs, maar na een aantal jaren niet meer meegedaan te hebben is het lastig wegwijs te woden uit het huidige aanbod. HD57** is in ieder geval the way to go als ik het zo begrijp, en straks dus de 6 serie?
Alles boven een HD5770 draait zo ongeveer alles wat je er tegen aan gooit.

On-topic:
Als dat zo doorgaat kunnen de monitor fabrikanten het straks niet meer bijhouden en zitten we straks met z'n alle op 1080p te spelen tewijl de mainstream al het dubbele aankan. :)
Het is ook niet de taak van de monitor fabrikanten om het bij te houden maar van de game developers. Resolutie is nooit een probleem geweest in games, het zijn altijd de grafische effecten die de GPU het meest belasten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True