Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 23 reacties

AMD heeft nieuwe producten voor de mobiele markt ge´ntroduceerd; laptops kunnen voortaan worden uitgerust met de mobiele varianten van de Radeon HD 6000-serie, die onder meer 3d-ondersteuning krijgen.

Gebruikers van laptops mogen zich binnenkort op nieuwe producten verheugen. AMD bracht de mobiele varianten van zijn Radeon HD 6000-serie gpu's uit. De serie bestaat vooralsnog uit de Radeon HD 6300M- tot 6900M-gpu's, alle met DX11-ondersteuning. De 6300M heeft 80 streamprocessors, gpu-kloksnelheden van 500 tot 750MHz en ddr3-geheugensnelheden van 1,6 tot 1,8GHz. De 6400M-serie verdubbelt het aantal streamprocessors tot 160 stuks, terwijl kan worden gekozen voor ddr3- of gddr5-geheugen. De kloksnelheid bedraagt 480 tot 800MHz.

De snellere 6500M beschikt over 400 streamprocessors, core-snelheden van 500 tot 650MHz en het gddr5-geheugen tikt op 900MHz. Nog een tandje sneller zijn de met 480 streamprocessors uitgeruste HD 6600M- en 6700M-gpu's, die kunnen worden gecombineerd met ddr3- of gddr5-geheugen. De gpu's hebben kloksnelheden van 500 tot 725MHz, waarbij het geheugen op 800 tot 900MHz tikt.

Voor het serieuze werk is er de 6800M-serie, die over 800 streamprocessors beschikt en enkel met gddr5-geheugen is uitgevoerd. De gpu doet zijn werk op 575 tot 675MHz en het geheugen tikt op 900 tot 1000MHz. De snelste telg uit de 6000M-serie is de 6900M, die met 960 streamprocessors is uitgerust en met gddr5-geheugen wordt gecombineerd. De gpu heeft kloksnelheden van 580 tot 680MHz, met een geheugenkloksnelheid van 900MHz.

AMD voegde twee nieuwe features aan de kaarten toe: HD3D-technologie en Eyespeed. Eerstgenoemde techniek moet 3d-beelden mogelijk maken, terwijl de tweede moet leiden tot betere gameprestaties en het soepel afspelen van streaming video.

Moderatie-faq Wijzig weergave

Reacties (23)

AMD voegde twee nieuwe features aan de kaarten toe: HD3D-technologie en Eyespeed. Eerstgenoemde techniek moet 3d-beelden mogelijk maken, terwijl de tweede moet leiden tot betere gameprestaties en het soepel afspelen van streaming video
Kan iemand mij uitleggen hoe eyespeed de gameprestaties doet verbeteren? Ben overigens wel benieuwd naar de ingame prestaties van de snellere hd series.. Ik neem aan dat je de 6900m serie vergeleken mag worden met de 6800 serie van de desktop? Of is dat iets te hoge verwachting?
de 6900 serie loopt vrijwel gelijk met de desktop 6850,
zoals hier te zien is:

http://content.hwigroup.n...lienware-sandybridge1.jpg

dat is een score die ongeveer gelijk is aan een i7 920 stock,
met hd 6850 of gtx 460.
best indrukwekkend dus,

ook zal de 6900 flink sneller zijn dan de 6800 serie,
aangezien de mobile 6800 serie wss nog gebaseerd is op de vorige generatie 5D shaders en evergreen architectuur (5D shaders dus 800/5= 160 echte SP's)
en de nieuwe 6900 4D shaders heeft 960/4 = 240 echte SP's
en 160 naar 240 is toch een vrij aardige toename.

(hetzelfde idee als bij de desktop 6800 serie die bijna even snel was als de 5800 serie met "minder" SP's)
Wikipedia komt alleen met: "EyeSpeed - Allows you to experience games with true-to-life actions-and reactions. Things like physics effects, Artificial Intelligence (AI), and more." op de ATI website: http://search.amd.com/US/...yespeed&collection=all-us
6900M: 960 cores @ 580-680 Mhz en geheugen @ 900 Mhz
HD6850: 960 cores @ 775 Mhz en geheugen @ 1 Ghz

Dus je zit er nog wel een stukje onder qua performance, maar voor een laptop is het mijns inziens wel een bom van een kaart!
Kan iemand mij dit uitleggen, want dit snap ik niet:
De snellere 6500M beschikt over 400 streamprocessors, core-snelheden van 500 tot 650MHz en het gddr5-geheugen tikt op 3,6GHz
En dan dit:
De snelste telg uit de 6000M-serie is de 6900M, die met 960 streamprocessors is uitgerust en met gddr5-geheugen wordt gecombineerd. De gpu heeft kloksnelheden van 580 tot 680MHz, met een geheugenkloksnelheid van 900MHz.

Waarom tikt bij de 6500M het geheugen op 3.6 Ghz, terwijl bij de 6900M de geheugenkloksnelheid maar 900Mhz bedraagt?
Het geheugen is heel makkelijk gezegd opgedeeld in verschillende sectoren. Ik weet niet hoeveel dat er zijn. Maar die 900MHZ slaat op 1 sector, de 3.9GHZ slaat op alle sectoren. Dus als de 6900M over 4 sectoren zou beschikken draait dat geheugen ook op 3.6GHZ (4 * 900)

Correct me if I'm wrong
Het geheugen is tegenwoordig vaak quad pumped, wat inhoud dat met ÚÚn kloktik vier keer zo veel data doorgegeven kan worden. Er wordt daarom wel vaker gezegd dat de kloksnelheid daardoor vier keer zo hoog is, iets wat technisch gezien discutabel is. Maar in de marketingwereld verviervoudigen ze hun snelheden graag want 3,6GHz ziet er wat stoerder uit dan 'maar' 900MHz.
Mooie line-up AMD!

Vooral die 6900M zou ik hÚÚl graag in de nieuwe iMac zien!
Dan stap ik gelijk over naar Mac :p maar voorlopig vind ik de grafische kaarten nog wat zwakjes, zeker voor een 27" scherm.

Met hun HD3D-technologie loopt AMD toch wel wat achter op nvidia niet?
Werkt het ook minstens zo goed? Zou dat ook werken voor 3D-tv's via de hdmi-kabel?
Potentieel heeft het allicht.

Volgens AMD's uitleg voor Eyespeed is het een soort van 'Vision'-verbetering, 3D-motor en mogelijkheid om de GPU te laten samenwerken met de CPU oftewel taken te laten verdelen. Dat is toch wat ik ervan kan maken...
Zwakjes zijn ze omdat ze onder Mac OS niet volwaardig kunnen presteren. AMD loopt achter? gezien er niet zo veel mensen 3D televisies hebben kan ik dit voorsprong van Nvidia niet anders dan twijfelachtig noemen, cuda en physics horen daarbij, iedereen weet wat physics is, maar niemand heeft het gezien en iedereen weet wat cuda is, maar niemand weet waarvoor je die kan gebruiken. :)
Op papier is de 6900M dus sneller dan mijn HD4850, die toch nog de spellen die ik speel goed trekt. Ik wist niet dat de GPU's van laptops al zo vergevorderd waren!
Waar staat dat? Kloksnelheden en dergelijke zeggen daar namelijk niets over.
Als deze net iets sneller is dan jouw 4850 zou dat erg teleurstellend zijn. Hoop toch dat hij vergelijkbaar is met een goede kaart uit de 5xxx serie.
We moeten maar wachten op benchmarks.

[Reactie gewijzigd door Sebedees op 4 januari 2011 14:01]

Ik krijg het idee dat snelheid niet meer de belangrijkste factor is bij gpu's voor mobiel gebruik. Het afgelopen jaar is me opgevallen dat nVidia in steeds meer laptops terecht kwam vanwege de Optimus techniek, waarbij de laptop schakelt tussen de dedicated gpu en de in de Core I cpu ge´ntegreerde gpu.

Begrijp me niet verkeerd: ik werk het liefst met een ATI/AMD gpu, vanwege de betere resultaten in openGL, maar ik vrees dat veel fabrikanten voor nVidia zullen kiezen omdat deze bij normaal gebruik minder energie gebruikt.
Mijn Acer Timeline-X heeft intel+AMD en kan ook switcen tussen de geintegreerde en dedicated GPU :)
Het is nu juist dat sinds 2006/2007/2008 het gebruik van Nvidia GPU's door oem fabrikanten in laptops is terug gelopen, vanwege de inmiddels bekende design/produktie fouten die Nvidia pas Juli 2008 wilde toegeven. Het betreft hier de gehele 8000 serie (G84, G86 en G92). AMD(ATi) is niet voor niets inmiddels marktleider, zoals vorige week op de frontpage was te lezen. :)

[Reactie gewijzigd door _Dune_ op 4 januari 2011 19:41]

Waar staat dat? Kloksnelheden en dergelijke zeggen daar namelijk niets over.
Als deze net iets sneller is dan jouw 4850 zou dat erg teleurstellend zijn. Hoop toch dat hij vergelijkbaar is met een goede kaart uit de 5xxx serie.
We moeten maar wachten op benchmarks.
kloksnelheid zegt wel degelijk iets over architecturen die nagenoeg hetzelfde zijn, zullen elkaar niet gek veel ontlopen als je ze klok voor klok gaat vergelijken. En in die gevallen zegt kloksnelheid wel iets, je kan het niet 100% nemen maar je kan er hele goed schatting mee maken die vrij goed in de buurt zal komen van de werkelijkheid.
Ik heb een latopje met een Radeon 4850 tevens, en die doet echt niet onder voor een mid-end systeem. Het enige knelpunt van deze laptop is de harddisk, je merkt gewoon dat hij trager is bij het laden van spellen op een vergelijkbaar systeem. De grootste upgrade die gaming laptops zouden krijgen, is op dit moment SSDs, die dit knelpunt kunnen verhelpen.

Verder zijn laptops aardig bezig als game systeem, maar zal nooit een high end systeem kunnen evenaren, enkel benaderen. Misschien in de toekomst dat de lijn vervaagd.
De 5870M was al even snel als de (desktop) 5770, die op zijn beurt weer vergelijkbaar was als de (desktop) 4870.
Dus de 5870M was al wat sneller dan jou HD 4850.

Maar back OT:
Is er ook al nieuws van wat deze kaartjes verbruiken, vooral dan die 68xx en 69xx kaarten? Als ze dezelfde TDP's blijven voortzetten als de 5xxx series dan zouden ze 45W en 55W moeten bedragen als ik juist ben. Zolang ze maar niet richting de NVIDIA 480M gaan kwa verbruik ben ik blij...
interessant, in tegenstelling tot hetgeen wat het vorige bericht vermeldde zijn dit geen directe rebrands:
nieuws: AMD introduceert 'nieuwe' HD 6000M-gpu's voor laptops

oud:
54xx: 80SP
56xx / 57xx: 400SP
58xx: 800SP

nieuw:
63xx: 80SP (zelfde als 54xx)
64xx: 160SP
65xx: 400SP (zelfde shaders/kloksnelheid als 56xx/57xx)
66xx / 67xx: 480SP
68xx: 800SP (marginaal trager dan de 5780m)
69xx: 960SP

het aanbod is dus fink verbreed, ik ergerde me er altijd aan dat het gat tussen de 54xx en 5650 zo groot leek.

ik weet alleen niet of het 4d of 5d shaders betreft, kan iemand dat zien aan de specs?

[Reactie gewijzigd door Darkstone op 4 januari 2011 14:35]

waarom zouden amd videokaarten niet volwaardig kunnen presteren op osx? kan zijn dat ik iets mis ofzo?
@ Sebedees

960 streamprocessoren tegenover 800 in de mijne
Kloksnelheid ongeveer gelijk
Gddr5 tegenover Gddr3

Daarom zeg ik ook op papier. De praktijk kan anders uitwijzen. En de 4850 is al een oude kaart.

[Reactie gewijzigd door Pietjebelll op 4 januari 2011 14:04]

De hele architectuur is anders. De zaken die je hierboven noemt zeggen niets zonder verdere context. Mijn oude GeForce 6600GT had ook ddr3 geheugen, maar was toch echt langzamer.
Trouwens, de memorybus is ook veel kleiner, directX 11 verschil, ook op papier zijn er veel meer verschillen dan je nu weergeeft.
en het verbruik vd kaarten? Daar hoor of zie je vaak weinig over :(! Je kan wel een powerhouse in je notebook hebben maar mobiel trekt die je accu ook zo leeg!
Als je ziet dat de desktopvarianten van 200 naar 20 Watt gaan, mag je er vanuit gaan dat het verbruik best zal mee vallen. Ik kan me moeilijk inbeelden dat die mobiele chips niet onder de 100 Watt zullen gaan. Als het idle verbruik evenredig mee naar beneden gaat, belooft dat veel goeds.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True