Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties, 20.956 views •

AMD's aankomende videokaartgeneratie, de HD8000-serie, krijgt mogelijk een dynamische overklok-optie. De kloksnelheden van de gpu en het geheugen zouden daarmee dynamisch aangepast kunnen worden afhankelijk van de load, temperatuur en energiegebruik van de chip.

Amd Radeon Graphics logo (75 pix)TechPowerup meent dat enkele passages in de documentatie van AMD's Display Library naar een dergelijke feature verwijzen. In de sectie over de mogelijkheden van versie 6 van AMD's OverDrive-tool voor overklokken worden drie nieuwe mogelijkheden genoemd: aanpassen van de core clock, aanpassen van de geheugenclocks en het meten van de belasting van de gpu. Met die variabelen zou het mogelijk moeten zijn om de kloksnelheden van de gpu aan te passen op basis van de belasting, vergelijkbaar met Nvidia's GPU Boost-technologie.

De software zou de kloksnelheden kunnen variëren binnen een ingestelde maximale tdp. Bij een lage belasting betekent dat hogere kloksnelheden voor zowel de gpu als het geheugen, terwijl bij maximale belasting de kloksnelheden gewoon op de fabriekssnelheid lopen, zoals nu ook het geval is. Een verschil met Nvidia's GPU Boost zou het dynamisch regelen van de kloksnelheden van het geheugen zijn; Nvidia's oplossing varieert enkel de snelheid van de gpu.

De huidige generatie AMD-videokaarten heeft een enigszins vergelijkbare - maar minder geavanceerde - functie genaamd PowerTune with Boost. Hierbij kan de gpu wisselen tussen twee maximale kloksnelheden die 50MHz uit elkaar liggen.

Reacties (53)

Dynamisch overklokken is toch vooral handig om het energie gebruik laag te krijgen? Ik heb begrepen dat de boost die je bij de GTX670/680/690 serie krijgt aan de bovenkant te verwaarlozen is.

Verder is het natuurlijk goed nieuws dat fabrikanten hun best doen om die energiemonsters die men videokaarten noemt een beetje te temmen. :)

[Reactie gewijzigd door Mozy op 6 februari 2013 08:19]

Het effect kan ook andersom zijn, zeker als je framerate targets gaat handhaven. Als de grafische kaart met gemak 90fps in je game haalt en je target op 60 staat, maar bij moeilijke passages dropped onder de 60, dan zou het ook nuttig kunnen zijn. Als je detectie algoritme een beetje vlot is en een snel verval detecteert tussen 90 naar bijv 70 fps en een boost geeft om boven de 60 fps te blijven, denk ik dat het best nuttig kan zijn om je spel beleving zo goed mogelijk op peil te houden.
stel je GPU draait op 1000 mhz, en meestal doet hij daarop 85 fps kan het voorkomen dat in een zware scene de framerate inkakt tot zeg 50. of 45. 2 problemen daarmee, 1 gestotter en 90% van de tijd onnodig hoge framerate, (je monitor is toch maar 60 hz)

het punt is dan inderdaad dat als de gpu op 700 mhz al solide 60+ fps haalt, dan daalt de temperatuur en het stroomverbruik, dit heeft Nvidia ook geprobeerd met adaptive V-sync:
boven de 60FPS V-sync, daaronder gaat hij automatisch uit.
logisch en een goed idee. Ze hadden er helaas wel wat problemen mee.

maargoed op 700 mhz 60FPS V-sync dus. als er daarna een erg zware scene komt dan is er dus ruimte om zelfs over het TDP te gaan voor een paar seconden om een inzakker naar 40 FPS te voorkomen, door naar 1250 mhz te gaan bijv, de chip warmt niet zo extreem snel op, en als de voeding het aankan (en de gpu maar onder de 300 watt blijft) is dat geen probleem. resultaat minimum framerate blijft 60 FPS, en stroom verbruik is lager.

Daarna kan de gpu weer downclocken om warmte en stroom te besparen. dit werkt natuurlijk niet bij furmark want als de gpu te warm wordt downclocked hij weer, maar
dit is natuurlijk ook erg prettig icm laptops, welke thermisch niet altijd even efficient zijn, en welke ook zuiniger moeten zijn met stroom.

hoe nieuw is dit nu, nou we hebben al jaren 2D en 3D clocks, en tijdelijke boosts zitten er ook wel op, dus hoe revolutionair hangt vooral af van de uiteindelijke implementatie. maar het kan een erg fijne feature zijn.

[Reactie gewijzigd door freaq op 6 februari 2013 09:27]

- 90% van de tijd onnodig hoge framerate, (je monitor is toch maar 60 hz)

Het ligt aan het spel, maar bij sommige spellen is een framerate die groter is dat de refresh rate van je monitor niet onnodig. Denk hierbij aan fast paced shooters, hoe meer update cycles je hebt, des te eerder registreert de game dat jij geschoten hebt, en dus heb je een grotere kans om iemand als eerste te raken. Verschillen zullen klein zijn, maar elk beetje helpt!
Jij kan het letterlijk niet eens zien(je scherm kan het niet aan), dus die klein beetjes helpen helemaal niet....
je maakt een denkfout. In een spel wordt voor iedere nieuw frame een cyclus doorlopen van verschillende programmaonderdelen. Bijvoorbeeld: plaatsbepaling omstanders, AI, physx, bepaling eigen plaats, kijkhoek, enz. Als je 1 frame per seconde hebt, is het onzinnig om 2 keer per seconde die programmacyclus te doorlopen omdat de gebruiker (gamer) daar toch niet op kan reageren. Dus hoe hoger je framerate, hoe sneller je kunt reageren op mensen uit je team die online spelen.

Als je 120 frames per seconde hebt, betekend dat dat je computer 120 keer per seconde het programmaonderdeel doorloopt die kijkt of je schiet. Als je alles fixed op 60 frames per seconde, kijkt de computer maar 60 keer per seconde of je schiet.

Met de komst van multicore processorsystemen is er een eenvoudige oplossing voor handen, echter hebben ontwikkelaars die extra rekenkracht hard nodig voor de steeds zwaarder wordende spellen. Uitzonderingen daargelaten.
heeft niet zoveel mee te maken of je het kan zien of niet. Het zorgt voor een vloeiender spel. Ik merk zelf het verschil tussen 30 en 60 en 120. Kan ik het zien? nee. Maar mijn spelervaring is wel anders.
Het zorgt voor een vloeiender spel. Zolang je een 120Hz(of meer) monitor heb, en die zijn er niet heel veel als je de pricewatch bekijkt.

Erger nog: het is (bijna) allemaal TN, en daar moet ik niets van hebben, tenzij het een iets is waar ik heel kort per keer naar moet kijken, laat games daarop maar achterwege.
strikt genomen heeft een hogere FPS dan de verversingssnelheid van je scherm wel zin omdat dit zorgt voor een lagere lag.

Stel je videokaart kan er 120 fps uitpersen, maar je monitor werkt op 60Hz...

Als je je fps beperkt tot 60... op t=0ms begint je videokaart te rekenen. Op t~8,33ms is het eerste frame klaar. Dit frame wordt echter pas op t~16,67ms naar de monitor verstuurd. Het beeld dat je ziet op t=16,67 + (input lag van de monitor) is berekend met informatie van t=0, wat betekend dat je grafische kaart een lag van ~16,67 ms geeft.

Als je Vsync nu uitschakeld... dan zal je videokaart op t~8,33ms opnieuw een frame renderen, en zal dit tweede frame op t~16,67ms naar de monitor gestuurd worden. De lag die in je grafische kaart veroorzaakt wordt is nu teruggebracht naar ~8,33ms, een verbetering van 50%!

Uiteraard zal een lag van ~16,67ms voor de meeste toepassingen totaal niet storend zijn, maar het is niet ondenkbaar dat het verschil merkbaar is voor de echte fanatiekelingen onder ons.
Dat is een kwestie van een slecht ontworpen game. Wat nu als je een gamer hebt die slechts 20 FPS haalt zou die dan slechts 20x per seconde veranderingen aan de engine door kunnen geven?

Vroeger had je wel games die daar zwaar op leunden, zodanig dat als je een bepaalde hoeveelheid FPS had, je een stuk verder kon springen. Ik mag toch hopen dat dat tegenwoordig toch niet meer het geval is.
Dat is inderdaad iets wat je vroeger had (volgens mij bij 1 van de eeste medal of honours of call of duty's)

Dan kon je dus super ver springen en snel schieten met een hogere framerate, daarom zetten mensen de instellingen zo laag dat je alleen nog maar pixels zag bewegen... maar je had dan wel een voordeel tegen over je vijanden

Tegenwoordig zitten engines anders in elkaar dat die situatie nu nooit meer voor zou komen
De gpu moet tochniet uitmaken wanneer een schot aankomt, dat doet de cpu?
@freaq:
"(je monitor is toch maar 60 hz)"

Dat is toch echt wel een onzin redenering.
Ja een gemiddelde LCD monitor zit rond de 59/60 Hz. Maar dat staat wel helemaal los van de FPS die een Game draaid. Dit laatste bepaald namelijk de speelbaarheid van de Game. De frequentie van de monitor staat daar echt los van. Net als in het verleden de 50Hz. frequenties los stonden van de Gameplay bij beeldbuis monitoren.

Bij First person shooters onder de 80 FPS kun je beter iets anders gaan doen...
Bij 125 FPS in Q3/QL heb je in ieder geval een kans om nog wat te winnen.

Dit bepaald volledig de snelheid van de Game en niet de frenquentie van de monitor.

@hieronder:
Laat ik het dan maar heel makkelijk stellen:
Waarom bestaan er dan uberhaupt nog framerates boven de 60FPS wanneer dat toch geen verschil meer zou maken ?
Precies, omdat dit dus wel verschil maakt.

En voor alle ongelovigen die het nog steeds niet willen snappen:
In first person shooters word er niet alleen gereageerd op wat je ziet maar ook op wat je nog niet ziet. Denk daar maar eens over na.......

[Reactie gewijzigd door trm0001 op 6 februari 2013 15:31]

Ik hoor je nochtans nergens die onzin redenering weerleggen. Het enige wat je zegt is dat naar jouw gevoel een spel beter draait aan 125FPS. Dat kan even goed een placebo gevoel zijn. Als ik tijdens het spelen ook constant de framerate zou laten weergeven, zou het ook lijken alsof alles zoveel beter gaat. Jouw gevoel van hoe vloeiend een spel weergegeven wordt is geen definieerbaar bewijs.

De echte refresh rate die een mens kan zien is vrij ingewikkeld te bepalen en afhankelijk van welke kleurovergangen je bekijkt, welk medium je bekijkt, hoe groot dit is, welke afstand, of er waas in de beelden aanwezig is (zoals moderne games motion blur hebben tegenover pakweg Q3 niet). Maar reken maar dat alles boven de 100Hz geen verschil maakt. Ogen werken trouwens toch niet met refresh rates, eerder een constante stroom data.

Je moet het misschien wat genuanceerder voorstellen. Gemiddeld 120FPS is zinloos, maar als je een hogere piek refresh rate hebt, dan zullen de dalen ook wel hoger liggen en zal de refresh rate niet snel onder de 60FPS zakken. Dat zou je dus wel ervaren als gestotter.

En zoals eerder gezegd, als een monitor werkt aan 60Hz, dan werkt die ook echt aan 60Hz. Spellen zijn al lang niet meer zo geschreven dat bij elke frame alle IO en dergelijke ook verwerkt wordt, dat gebeurt in deze tijden van multithreading parallel en is dus meer CPU-afhankelijk. Kan goed zijn dat dat nog zo was bij Quake 3, maar op 15 jaar tijd is er veel gebeurd ;).

[Reactie gewijzigd door MacPoedel op 6 februari 2013 15:16]

Bij First person shooters onder de 80 FPS kun je beter iets anders gaan doen...
Wat een onzin zeg... zal best per persoon verschillen maar 80 FPS kan je tegenwoordig alleen nog halen als je 2/3 videokaarten in je pc hebt in de nieuwste shooters..

Dus volgens jouw zou niemand meer BF3 moeten spelen bijvoorbeeld

Ik zal wel slechte ogen hebben maar stabiele framerates boven de 30FPS zijn voor mij prima om alles soepel te beleven, ook in shooters

BTW Refresh rate heeft wel wat met de FPS te maken, namelijk dat je geen hogere FPS kan zien dan je refresh rate... maar dat betekend niet dat hogere FPS niet nuttig kan zijn
FPS is how fast your graphics card can output individual frames each second, and is covered under the Frames Per Second section of this guide. Refresh rate is a separate property of your monitor: how many times per second it can 'refresh' the screen, regardless of how many frames are being fed to it by the graphics card
Bron: http://www.tweakguides.com/Graphics_7.html

[Reactie gewijzigd door Sinester op 6 februari 2013 16:28]

De boost die je er aan de bovenkant bij krijgt is per GPU en/of fabrikant verschillend.

Mijn GTX670 zou 915mhz moeten draaien standaard, maar komt met de GTX680 kloksnelheden en draait dus 1006mhz. Mijn maximale standaard boost is 1215mhz, ingame zit ik altijd tussen de 1100 en 1200.

De boost geeft dus bij mij wel degelijk een aardige performancewinst. Echter er zijn ook kaarten die maar boosten tot 1080mhz, en ingame zit je dan tussen de 1000 en 1050 continu.

[Reactie gewijzigd door InfinityG35 op 6 februari 2013 09:52]

Dynamisch overklokken is toch vooral handig om het energie gebruik laag te krijgen? Ik heb begrepen dat de boost die je bij de GTX670/680/690 serie krijgt aan de bovenkant te verwaarlozen is.
Dynamische overclock niet verwarren met performance states van de kaart. Al enige jaren hebben grafische kaarten verschillende performance states. Deze lagere states hebben aangepaste mhz en voltages om het stroomverbruik te reduceren.

Je kunt deze zelf uitlezen met software als gpu shark.
http://www.ozone3d.net/gpushark/

Dynamische overclock is er meer op gericht om meer prestatie uit de chip te persen op het moment dat dit mogelijk is. Denk aan Intel turboboost (tdp en warmte goed>sneller met die hap).

Ik heb zelf een 660 Ti PE van MSI. Hierbij heeft MSI een truukje uitegehaalt (iets wordt geovervolt, TDP limiet is ook 50W hoger) waardoor de kaart eigenlijk onbeperkt kan boosten.

Dit wil zeggen dat als ik furmark draai de kaart in plaats van op 1019 mhz nonstop tussen de 1189 en 1215 mhz draait. Door de custom cooler is dit geen probleem.

Super nuttig dus :).

[Reactie gewijzigd door sdk1985 op 6 februari 2013 22:22]

Dit zou een hele mooie optie zijn voor de mensen die niet kunnen en/of durven overclocken. Op deze manier hebben ze dus toch een soort van overgeclockte kaart waar men verder niets aan hoeft te doen.
Dan koop je toch een van de vele retail overclock kaarten die er te koop zijn. :)
Denk niet dat ze het de HD8000 serie gaan noemen aangezien oem fabrikanten nu de 7950 rebranded hebben naar 8950's dan zal de verwarring wel hele groot worden.

Tevens zijn er ook geruchten dat AMD en Nvidia de nieuwe lineup naar Q4 hebben doorgeschoven :(
Met uitzondering van de GTX titan.

Dynamisch overclocken haalt een beetje de fun uit het overclocken vind ik persoonlijk, echter wel weer goed voor het energie verbruik van de kaart als die toch maar 50% benut in een game, heb je er inderdaad niks aan als die vol op max overclock staat.
Eerst zien dan geloven. Je moet niet alles geloven wat er gezegd wordt :)

Voor nVidia kan ik het begrijpen. Als ze Titan op de markt hebben hebben ze een krachtige single GPU.
Voor AMD niet. Want ze kunnen nu nog mee komen maar zodra Titan er is niet. Daarnaast hebben we ook niet met nieuwe productie processen te maken gewoon weer 28nm van TSMC. Dus er is geen rede om 2 jaar over een refresh te doen. Want het zal gewoon een efficientere versie van GCN gaan.

Daarnaast zijn die rebrands OEM only! die komen dus niet in de winkel te liggen. Maar het is geen mooie oplossing. Ook niet als het alleen voor OEM's is.

[Reactie gewijzigd door Astennu op 6 februari 2013 08:24]

Al jaren is het zo op GPU gebied dat het stuivertje wisselen is. Een paar jaar ATI/AMD en daarna een paar jaar Nvidia. Vaak zie je dat degene die GPU's levert voor de nieuwe consoles het slechter doet.

de WII-U heeft iig een AMD GPU
(ik weet niet of dit klopt ga er maar even vanuit0
PS4: AMD
XBox720 nvidia.AMD

Nu zie je dus precies het probleem. AMD loopt weer wat achter waar ze 2 jaar geleden Nvidia van de kaart bliezen. Dat draait vanzelf weer om. Ook zijn de achterstanden nooit erg groot want kan er bijna geld op in zetten dat als nvidia met de Titan AMD weg blaast dat deze in een paar maanden een gelijkwaardige kaart op de markt weten te brengen. Zo gaat het nu eenmaal vaak.

edit:
Zie beneden fixed Xbox, wat mijn punt alleen maar duidelijker maakt. Waarom trouwens mijn boven genoemde ontopic en ik 'offtopic'?

[Reactie gewijzigd door Kevinp op 6 februari 2013 10:36]

Ook de nieuwe xbox word door amd gemaakt, dus ze doen het goed in de console wereld.
De opvolger van de 360 (in de volksmond 720) heeft volgens de laatste geruchten ook een amd gpu
Titan een geweldige kaart, je vergeet denkelijk de daarbij behorende geweldige prijs.

En daarmee dus feitelijk de prijs / prestatieverhouding
AMD zal mogelijk ook in staat zijn dit soort kaart te produceren maar ja de kosten rijzen dan wel de pan uit. Ze hebben zelfs geen 7990 uitgebracht terwijl andere fabrikanten lieten zien dat ze die wel zelf konden produceren.
En zou ik daarvoor dan ook een bron mogen? Een bron die mij objectief kan vertellen waarom het een goede kaart is. Niets tegen jouw, maar 1 bron is een halve bron en vooral als het mond-tot-mond is (or rather text-to-text)
Vaak zie je dat degene die GPU's levert voor de nieuwe consoles het slechter doet.
Ik snap die logica even niet...
Dat draait vanzelf weer om. Ook zijn de achterstanden nooit erg groot want kan er bijna geld op in zetten dat als nvidia met de Titan AMD weg blaast dat deze in een paar maanden een gelijkwaardige kaart op de markt weten te brengen. Zo gaat het nu eenmaal vaak.
Denk niet dat ze dat deze keer gaan doen... de Titan word net als bijvoorbeeld een Asus Ares een product wat bijna niemand koopt, en alleen als prestige gezien moet worden

AMD zou er slim aan doen gewoon door te gaan met de 8xxx serie, grote kans dat die wel de Titan weg kan blazen voor wat normalere prijzen
Hoe weet je dat titan zoveel beter is dan de 8000-series en komen ze ook ongeveer tegelijk uit?
Titan is een product wat puur en alleen er is omdat de markt voor TESLA al verzadigd is.
Je gaat ons toch niet wijs maken dat Nvidia deze chips gewoon op de zakelijke markt voor een veelvoud verkoopt en dan omdat ze weer met hun eigen product kunnen concurreren de GTX 690 op het zelfde prijs niveau ..

Het woord niche krijgt met de Titan een nieuwe inslag.

Wat AMD doet met boost is lang niet zo belangrijk als het klinkt het lijkt er op dat ze meer voorzichtig zijn met vooruitgang boeken dan een echte grote stap in eens.

Kijk naar de CPU turbo core op AMD daar zijn ze ook in hele kleine stapjes progressie.
Ik doe dit al jaren met afterburner. de knop "home" zet hem op 925 met 0% power limit aan en de knop "end" zet hem op 1200 mhz met 20% power limit.
scheelt best wel heel veel stroom kwam ik achter
Alleen doe jij dus iets totaal anders . En zit je de hele tijd op knopjes te drukken . Lijkt me erg fijn in shooters ...
uh ik leg het even uit want blijkbaar is het knap lastig. Het werkt zo. Je computer boot dan zit hij in low profile (home).
Indien ik een zwaar spel ga spelen (bf bv) druk ik 1x op 'end' en kan ik zo lang spelen als ik wil. \o/
Ik hoef dus maar 1x op een knopje te drukken! sapperderflap!
Ja, steengoede tool. Gebruik het ook, alleen laat ik hem automatisch van profiel wisselen als hij 3D detecteerd. Werkt zonder problemen, zelfs met SLI setup.
Best een slim plan eigenlijk, een overklok kan zo meer dan 100W extra verbruik betekenen, en er zijn zat games waaarin een OC niet echt nodig is.
geloof me er zal zeker een mod. [zoals de RadeonPro] komen die hetzelfde kan voor de HD6xxxx en HD7xxx series.
bij lage belasting gaat de klok omhoog, begrijp ik. Zorgt dit er nu voor dat het stroomverbruik ook omhoog gaat en/of heb je die extra klok wel nodig bij lagere belasting. Sorry, vind het een vreemd verhaal. Bij lagere belasting zou je eerder verwachten dat de core's en stroom omlaag kunnen.
Dit vroeg ik me ook al af tijdens het lezen. Wat is het nut van meer power bij lage belasting als je dan toch al je gewenste framerate haalt? En hoe kan dit voor betere minima zorgen als je die extra performance juist niet krijgt bij hoge belasting?
Leek mij ook al erg vreemd. Waarschijnlijk een foutje in het artikel, maar we zullen zien.
Dat is mooi ook al dacht ik dat dat al kon.
Dit doen de AMD kaarten nu automatisch al!

Mijn kaarten (2x 6990) draait op 880/1250 Mhz standaard. Bij geen belasting draait GPU 1 op 450/150mhz, GPU2-4 draaien op 250/150mhz. Bij het opstarten van een game gaat de GPU naar 880/1250mhz.

Er zit ook een functie (enable ulps) ingebakken (scheelt ook stroom), maar die wil je juist uit zetten, want je wilt natuurlijk de meeste frames/details (met name voor crossfire).

Tevens heb je met msi-afterburner (werkt voor merken) een overklok programma waarbij je alles kan instellen (gpu, voltage, memory, fan snelheid). Ook zit er een historie graph bij en kan het tijdens het spelen de gpu belasting en temperatuur op het scherm showen.

Mooie marketing dus, maar het zit er dus op.
Precies, ik zie niet wat hier nieuw aan is. Mijn Radeon HD 6950 doet dit al vanaf het begin...
Wat jij noemt is nogal een verschil met de clocks aanpassen tijdens het gamen.
bij jouw gaat ie tijden een game gewoon op Full, en in Windows op Low

Met Dynamisch overklokken, kan hij dus de clock hoger zetten tijdens gamen om je framerates goed te houden (bijvoorbeeld op zware momenten)
Ik zie liever dat de clock snelheid volledig bepaald wordt door het gebruik van de kaart. En niet dat deze zich enkel terug klokt naar de standaard waarde. Het idle verbruik van videokaarten is absurd hoog. Inmiddels verbuikt mijn pc meer dan de rest van mijn gehele huishouden bij elkaar. En dat terwijl deze helemaal niets staat te doen. Echt belachelijk.
Is de huidge "Power Control" functie niet hetzelfde? laat je deze op 0 procent dan beperk je het maximale stroomverbruik, vervolgens word ook de clocksnelheid teruggeschroefd als er minder gebruik wordt gemaakt tijdens een Game.

Zet je de power control op +20 dan draait hij onder lage of hoge belasting altijd op de hoogste clock en verbruikt zoveel mogelijk power om het maximale aan FPS uit te persen.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True