Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 103 reacties

Er zijn een aantal PowerPoint-slides opgedoken met informatie over de HD 6900-serie. De Cayman-chip lijkt gebruik te maken van een nieuwe architectuur en is op tal van punten verbeterd. De HD 6990 zou maar liefst 6Tflops leveren.

Een van de eerste slides maakt melding van de HD 6970, de officiële opvolger van de HD 5870. De gpu zou beschikken over 1920 streamprocessors, die over 30 simd-engines zijn verdeeld. De gpu van de HD 5870 heeft 1600 streamprocessors, verdeeld over 20 simd-engines. Dat betekent dat elke simd-engine van de Cayman-gpu 64 streamprocessors heeft in plaats van 80. Het aantal texture units nam toe, van 80 naar 96. Het aantal rops bleef echter hetzelfde, wat komt doordat er nog steeds vier 64bits-geheugencontrollers aanwezig zijn, die met 2GB-gddr5-geheugen in contact staan.

HD 6900-serie slides HD 6900-serie slides HD 6900-serie slides

De overige slides werden tijdens de presentatie gefotografeerd en zijn afkomstig van een Poolse website, die het artikel al offline heeft gehaald. Het aantal streamprocessors van 64 per simd-engine valt niet te rijmen met de huidige architectuur, waarbij de streamprocessors per 5 zijn gegroepeerd. Een andere slide biedt uitkomst, door melding te maken van een zogeheten vliw4-architectuur. Er gingen eerder al geruchten over een vliw4-architectuur, waarbij de streamprocessors zijn aangepast, zodat elke streamprocessor nu meer kan. De architectuur is vermoedelijk efficiënter, omdat het in theorie gemakkelijker is om alle streamprocessors aan het werk te zetten.

HD 6900-serie slides

Het aantal texture units is ook verwarrend. Eerst zaten er vier texture units in elke simd-engine, maar met 30 simd-engines en 96 texture units gaat dat niet langer op. Uit de derde slide blijkt dat de texture units van de simd-engines zijn losgekoppeld, waardoor het bijvoorbeeld mogelijk is om met minder simd-engines toch de volle hoeveelheid texture units te behouden. Ook op het gebied van gpgpu-computing voerde AMD een aantal veranderingen door, zoals op onderstaande slide is te zien.

 HD 6900-serie slides

Een ander opvallend gegeven is dat de HD 6970 nu twee polygonen per kloktik kan verwerken, wat mogelijk wordt gemaakt door de aanwezigheid van twee Graphics Engines. Beide Graphics Engines beschikken over een Tesselator, waardoor ook de tesselationprestaties flink zouden zijn toegenomen. De HD 6970 zou met tesselation tussen de anderhalf en drie keer zoveel prestaties bieden dan de HD 5870. Verder is er nog een slide die melding maakt van de rops, die een aantal bewerkingen nu tot twee maal zo snel kunnen uitvoeren als de rops die op de HD 5870 aanwezig zijn.

HD 6900-serie slides HD 6900-serie slides HD 6900-serie slides

Weer een andere slide gaat in op het energieverbruik, dat op verregaande wijze in de gaten gehouden en aangepast kan worden. Het maximale verbruik van de videokaart zou kunnen worden ingesteld, waarna de kloksnelheden van verschillende onderdelen van de gpu zonodig automatisch worden verlaagd. De verschillende functies zijn toegankelijk via AMD Overdrive, een programma dat AMD ook voor zijn cpu's levert.

HD 6900-serie slides

De laatste slide toont de HD 6990, die begin 2011 wordt uitgebracht. Met 3840 streamprocessors krijgt de videokaart twee volledig werkzame Cayman-chips aan boord. De twee gpu's zouden 6Tflops aankunnen. De HD 5970, AMD's huidige snelste videokaart met twee gpu's, levert 4,64Tflops. Beide gpu's krijgen de beschikking over 2GB Gddr5-geheugen met een kloksnelheid van 4800MHz, goed voor een geheugenbandbreedte van 153,6GB/s per gpu. De HD 6950 wordt amper genoemd, maar zal een afgeslankte versie van de HD 6970 worden.

HD 6900-serie slides
Moderatie-faq Wijzig weergave

Reacties (103)

Deze eerste slide is naar alle waarschijnlijkheid gefotoshopped.
Zie http://www.arabhardware.n...?p=1646720&postcount=1523 voor de 'echte' slide, en http://forum.beyond3d.com...?p=1496081&postcount=5174 levert een soort van bewijs.

Met de supposedly 'echte' slide samen en een hele bult andere slides op de het arabhardwareforum lijkt het er wel degelijk op dat de slides bij dit tweakers.net artikel niet de echte slides zijn, maar de geshopte slides.

Deze geven dus naar alle waarschijnlijkheid foutieve informatie, en dit lijkt me niet de bedoeling van dit artikel.

Men kan slechts speculeren naar de reden van het photoshoppen, en vervolgens herpubliceren van dit soort informatie:)

[Reactie gewijzigd door Mathragh op 22 november 2010 18:02]

Als het deze keer hetzelfde gaat als met de 5870, dan is het verstandig om de kaart gelijk in huis te halen. De prijzen van de 5870 zijn sinds de launch alleen maar gestegen, niet echt motiverend om een kaart te kopen die in prijs stijgt.
Al kwam dit door het uitblijven van concurrentie uit de hoek van Nvidia, maar die is er ditmaal ook niet echt.

Goede zaak dat je zelf het verbruik een beetje kan regelen, dan hoeven we of geen nieuwe voeding te kopen en/of tegelijkertijd geen stofzuiger/straaljager aan te horen tijdens het gamen.

Schijnbaar offtopic :)

Maar er zijn ook mensen die even 2 maandjes afwachten tot de prijs gezakt is, als de prijs dan hoger is dan voorheen ga je niet ineens 50 euro meer betalen voor een kaart die daarvoor nog 300 was. Zo heb ik de 5870 overgeslagen, tegen de tijd dat de prijzen begonnen te zakken was deze serie al ruim in zicht en zo snijdt AMD zich een beetje in de vingers.

[Reactie gewijzigd door paazei op 22 november 2010 13:57]

Je vergeet denk ik het feit dat er eerst een olie crisis kwam en daarna een complete resessie waarbij alle hardware tot aan de cameras aan toe enkele tientjes duurder geworden zijn. Ook kan bv. het veranderen van een transport methode of leverancier gevolgen hebben op de totale prijs van een product. :z


Ik vraag me ook af of dit niet een stunt is van AMD/ATI zelf. Het zijn nl. best aardige foto's voor een smartfoon, nu maar wachten op de benches. Het stroom verbruik is erg netjes voor deze rekenwonders als je dit vergelijkt met de oudere types. Echter vraag ik mij af of ze kwa ondersteuning ook op het niveau van Nvidia kunnen komen, ik hoor hier veel klachten over. Maar ja!, je kan niet alles hebben
Met ondersteuning doel je volgens mij op Linux drivers, een kleine niche markt die beter af is met Nvidia kaarten.
Ik denk dat Ati/AMD dat bewust doet aangezien 99% van de gamers gamed op een windows machine, je kan dan wel je halve driver team richten op Linux, maar de meerwaarde daarvan is minimaal vergeleken met goede Windows drivers.
Zelf nooit klachten gehad met Ati drivers, behalve de standaard overscan die je uit moet zetten om een normaal beeld te krijgen op een FullHD-TV, dus ik weet niet over welk niveauverschil je het hebt eigenlijk.
Battlefield Bad Company 2?
Heeft vanaf dag 1 perfect gedraaid op m'n 4870.
gaat met deze niet gebeuren omdat A: het 40nm procedé hebben ze nu wel onder de knie. B: Nvidia heeft nu wel een alternatief.
Al kwam dit door het uitblijven van concurrentie uit de hoek van Nvidia

En dit was voorspeld nog voor de 58xx serie er was , alleen wisten we dat Nvidia probs had
ik zou er eerder gedemotiveerd van worden als ik op dag 1 een kaart van 300 euro koop, en dat ding na 2 maanden nog maar de helft waard is. :)
Zodra je de winkel uitloopt is het waarschijlijk al 2/3 waard.
Dat komt omdat ie dan 2e hands is...
Ach, ik zit hier nog met een 8800GT met "maar" 512MB... hopelijk zakken ze in de lente iets in prijs zodat ik in één klap een fikse upgrade tegemoet kan zien. Als ik kijk hoeveel sneller de semi-high end kaarten tegenwoordig zijn vergeleken met mijn 8800, dan wordt 't een feest als ik Black Ops en Drakensang op de hoogste kwaliteit kan spelen!

Het enige waar ik stilletjes op hoop, is dat met de nieuwe kaarten ook het verbruik (in idle én load) steeds verder omlaag gebracht kan worden. Dat was/is de afgelopen jaren met bokkesprongetjes telkens omhoog gegaan, maar buiten wat kleine verbeteringen is er tot nu toe niet écht flinke winst gehaald met het zuiniger maken van kaarten. Een beetje home-made gamemachientje met een dubbele videokaart vraagt tegenwoordig al snel om een voeding van 800 Watt of meer :)
Hmm? Idle verbruik van videokaarten is sinds de hd5xxx serie juist flink teruggebracht, ook bij Nvidia kaarten. De topmodellen zijn onder load nog wel gulzig maar bvb de hd5850 is echt een performance per Watt wonder.

Maar goed, het kan altijd nog beter natuurlijk, zo zuinig in idle als een moderne cpu zijn ze nog niet. En nu steeds meer cpu's ook een ingebouwde gpu krijgen zou het mooi zijn als er iets a la optimus voor de desktop komt, dat de graka alleen gebruikt wordt als ie echt nodig is en de rest gewoon door de igp gedaan wordt.
Precies :)

Het gaat me ook niet zozeer om 't Idle-verbruik, maar om het verbruik onder Load. Dat wil nogal eens flink oplopen. Het is de laatste tijd alweer aardig teruggebracht, maar ik hoop dat ze zich daar voor in blijven zetten. M'n vriendin is niet altijd even blij als de jaarlijkse rekening gepresenteerd wordt, hehe. Niet dat we van die bomenknuffelaars zijn, maar we proberen 't een béétje binnen normale waardes te houden, hehe.
Verbruik onder Load is in praktijk vaak maar 5 a 10% van het gemiddelde computer verbruik.

Wat meer van belang is, is de IDLE gebruik. Hoe lager hoe beter. Of hoe beter het de GPU zijn gpu speed, memory speed, voltage aanpast, als je er een lichte load opzet ( zoals film acceleratie, enz ) .

In praktijk valt de idle gebruik van de meeste Graphische kaarten nu enorm mee. Wat ik niet kan zeggen, van de CPU's ( laatste generatie zoals i7's ) deze dagen. In verhouding tot de prestaties die geleverd worden op idle of semi-idle, is de power load best nog hoog.

In feiten is een mens beter af met 2 pc's. Een kleine werk pc, voor surfen, films zien, enz, met een Atom, en een game pc, met daar de zwaardere componten in. Nadeel is dat je soms vervelend wordt om constant te switchen tussen systemen.
Dat hangt allemaal af van hoe en met welke frequentie je die dingen gebruikt. En wat je als hoofdcriterium gebruikt; verbruik of totale prijs met verbruik...en hoe lang je ze gebruikt alvorens te vervangen ...etc etc.
Het enige waar ik stilletjes op hoop, is dat met de nieuwe kaarten ook het verbruik (in idle én load) steeds verder omlaag gebracht kan worden. Dat was/is de afgelopen jaren met bokkesprongetjes telkens omhoog gegaan, maar buiten wat kleine verbeteringen is er tot nu toe niet écht flinke winst gehaald met het zuiniger maken van kaarten. Een beetje home-made gamemachientje met een dubbele videokaart vraagt tegenwoordig al snel om een voeding van 800 Watt of meer :)
Die 800 watt zal niet snel veranderen, of je nu een 580 GTX of een HD69xx erin knalt, met een beetje high-end cpu en raid opstelling zul je niet onder de 600watt uit komen.

Mijn machine van 4,5 jaar oud heeft al een 550watter, en dat met een 7950GT/4200+ X2
nVidia ging een beetje van stapel, ze hebben de tijd er niet voor genomen om nog wat meer te verbeteren aan de 5xx series. AMD heeft nu krachtigere kaarten released in 1 jaar tijd die beter zijn dan hun voorgangers en ook natuurlijk zuiniger.
Er komt nog een 595 aan, die gebruikt 2x gf110 chip (3gb gddr5 geheugen en 1024 streamprocessors). Dat wordt ook de waardige concurrent van de 6990, ben benieuwt wie er "wint"

[Reactie gewijzigd door HesRuud op 22 november 2010 13:54]

3gb gddr5 geheugen
Waarvan uiteindelijk in principe de helft effectief is, zoals ik laatst eens voorbij heb zien komen.
Dat wordt ook de waardige concurrent van de 6990, ben benieuwt wie er "wint"
Een waardige concurrent wellicht, maar zoals Phntm ook al zegt, veel verbeterd is het dan nog niet. Als die nieuwe 595 nou drie keer zo snel zou zijn bij een te waarderen energieverbruik en warmte-afzet (Watt), dan zeg ik "Ja ok", maar dat verwacht ik niet dat gaat gebeuren.
aarvan uiteindelijk in principe de helft effectief is, zoals ik laatst eens voorbij heb zien komen
Wat voor alle multi GPU kaarten (of SLI/Crossfire) opgaat. Het geheugen wordt per GPU apart toegewezen en niet gedeeld.
Het is maar de vraag hoe snel ze zijn,

In het verleden heeft Nvidia 2 gpu's laten zien dat ze niet goed schaalbaar zijn.

De snelheidswinst is veel kleiner dan bij 2 ati's.

En dat zou nu ook wel eens kunnen en dat ze het af gaan leggen tegen de 6990
Ben inderdaad benieuwd welke dan beter is GTX595 of 6990, de winnaar mag in ieder geval bij mij komen ( hoop stiekem op AMD)
Of ze hebben bij AMD in het eerste plaatje gekozen voor een nieuw lettertype met een slechte uitlijning van de cijfers in de specificaties van de HD6970 of het is een slechte fake volgens mij (zie de getallen 30 en de 1920).
Al zou het natuurlijk wel heel mooi zijn als deze getallen ook blijken te kloppen. Een waardige opvolger van de vorige generatie.
Klopt, op het forum kun je een foto vinden waar hij van afgeleid is, daar staat >160Gb/s en >20 simengines en NDA ipv 1920

tevens is de echtheid van de slide van de HD6990 ook niet bekend...
Je hebt gelijk zoals het eruit zit, maar ik zie dat de oranje cijfers en letters sowieso beter te lezen zijn.
Minder vaag.

Dit kan het gevolg zijn van de contrasterende kleuren, waarbij wit slechter te zien is op een rode achtergrond.
Eigenlijk vind ik het meest interessante feit uit het artikel het regelen van een max stroomverbruik, waarbij de clocksnelheid wordt aangepast. Zo heb je zelf in de hand wat je verbruikt. Nu is alleen nog de vraag hoe accuraat dit gemeten wordt! Helaas niet al te veel bekend geraakt over de 6950.
Zelfs als dit niet op de Watt nauwkeurig is, is dat zelden relevant. Stel dat het per trapjes van 5W is? Of zelfs 20W...het feit dat jij beslist hoeveel het ding MAG verbruiken is een prestatie op zich.
Idd. Controle over de stroombeveiliging is een leuke feature.
Veel was al uitgelekt maar toch mooi om te horen dat na de verwarring met de 6800 serie de 6900 serie toch een waardige opvolger van de 5800 serie lijkt te zijn. De veranderingen op gebied van tesselation klinken iig veel belovend. Ben benieuwd naar de eerste benchmarks en prijskaartje.
Ziet er zeker wel goed uit goede specs nou hopen dat deze kloppen het is natuurlijk wel ruim qua gebruik want 300W is wel best veel maar verder blijkt uit de specs wel waarom. Je kan zien dat dit toch wel een krachtige opvolger wordt van de 5800 ook al vind ik het wel raar dat de prijs op dit moment van de 5800 sinds de release alleen maar stijgt, dus misschien maar snel halen :P
Nu nog wachten op de prijzen, prijsvergelijk tussen AMD en NVidia en kopen met die handel, mijn 4870 begint beetje te laggen op highest settings.
Hopelijk komen de kaarten van beiden fabrikanten in elkaars buurt zodat er beetje prijzenslag gedaan wordt.
Hoezo lekken de specificaties uit??
Volgens mij is de NDA vandaag vervallen en zijn de partijen vrij om te doen en laten met de informatie die ze hadden verkregen van AMD.
Aan lekken denk ik aan een illegale handeling, dat is imho niet het geval.
Eerder waren de geruchten dat vandaag de release zou zijn, dat is echter uitgesteld dus de NDA ook neem ik aan. Het is niet erg gebruikelijk (lees: gewoon raar) om al weken voor de release je NDA op te heffen, dan kan je net zo goed geen NDA gebruiken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True