G70-core loopt simultaan op meerdere kloksnelheden

In een reactie op het bericht dat de GeForce 7800 in staat zou zijn zichzelf te overklokken, heeft nVidia's Chief Scientist David Kirk bekendgemaakt dat het niet zo eenvoudig is om één kloksnelheid als dè kloksnelheid van de G70-core aan te duiden. Omdat nVidia niet beschuldigd wilde worden van het overdrijven van de snelheid van deze nieuwe videokaart, besloot men een aanvaardbaar getal te kiezen voor publicatie-doeleinden, maar dat is inderdaad slechts één van de mogelijke kloksnelheden, zo bevestigt Kirk. De chip heeft wel degelijk een nieuwe architectuur, al is die niet altijd zichtbaar. Dit is onder andere het geval omdat de nieuwe core ontworpen werd om minder energie te verbruiken. Er werd dan ook intensief gebruikgemaakt van de ervaring die nVidia opdeed bij het ontwikkelen van mobiele oplossingen. Zo is de kloksnelheid dynamisch en zou men, wanneer deze met een oscilloscoop weergegeven wordt, een constant wisselende kloksnelheid meten, afhankelijk van welke delen van de chip belast worden.

nVidia logo (nieuwe stijl)PR Manager Adam Foat stelt dat men deze technologie niet eerder aangekondigd heeft omdat men wilde dat de mensen het effect van de verbeteringen opmerkten en men de technologie zichzelf wou laten verkopen. Wanneer David Kirk gevraagd werd wat de drie verschillende gemeten kloksnelheden precies inhouden, kreeg men als antwoord dat men niet zonder meer moest veronderstellen dat er slechts drie verschillende kloksnelheden gebruikt worden. '"The chip is large - it's 300m transistors. In terms of clock time, it's a long way across the chip, it makes sense for different parts of the chip to be doing things at different speeds', aldus Kirk.

Hij is overigens niet van mening dat deze technologie het overklokken benadeelt. Doordat de chip zowel zuiniger is als minder warm wordt, is deze volgens hem zelfs een goede kandidaat voor sterke overklokpogingen. Hij is dan ook van mening dat nVidia zal moeten samenwerken met de ontwikkelaars van RivaTuner om gebruikers de mogelijkheid te bieden met behulp van dergelijke tools op zoek te gaan naar de beste instellingen om optimale prestaties te realiseren. Door de manier waarop de chip opgebouwd is, is het volgens Kirk ook logisch om de verschillende onderdelen op verschillende snelheden te laten werken, wat eventueel nieuwe overklokdeuren zou kunnen openen.

Door Yoeri Lauwers

Eindredacteur

12-07-2005 • 11:31

37

Bron: Bit-Tech

Reacties (37)

Sorteer op:

Weergave:

Netjes,

Ik ga steeds enthousiaster worden van deze kaart. In begin vond ik hem niet echt een verbetering tov 6800ultra maar dat bleek later wel degelijk het geval te zijn.

Zou het wel top vinden als ze inderdaad gaan
samenwerken om overclocken te optimaliseren...
Uiteraard hebben ze zelf er ook wat aan. Ze kunnen er misschien makkelijker achterkomen hoe hoog deze kaart komt met normale omstandigheden zodat ze snellere versies kunnen lanceren mocht de markt dat vragen.
Uiteraard hebben ze zelf er ook wat aan. Ze kunnen er misschien makkelijker achterkomen hoe hoog deze kaart komt met normale omstandigheden zodat ze snellere versies kunnen lanceren mocht de markt dat vragen.
Die expertise hebben ze zelf niet denk je?
Verwijderd @neh12 juli 2005 20:13
Het is echter vaak dat van 1000 dezelfde chippies, er geen één exact hetzelfde is, de kwaliteit van de dies in het midden van de wafer, zijn van veel hogere kwaliteit dan die aan de buitenkant.

Daarom zijn overklokkers ook constant bezig, en wat voor de éné kaart werkt, faalt op de andere.

Dus om de prijs niet omhoog de drukken en dat nVidia voor elke GPU apart gaat uitzoeken wat de ultieme instellingen zijn, doen ze gewoon een standaard test, en de gebruiker kan dan zelf het uiterste er uit proberen te persen.

De samenwerking met RivaTuner is dan ook van harte welkom, omdat dit het voor de meeste gebruikers een stuk makkelijker maakt om met de instellingen te spelen.
idd, heb dat kaartje mogen testen met een Battlefield 2 demo op een P4 2.8 775 met 1500 MB ram :9~

Alle video instellingen handmatig op het allerhoogst, resolutie op 1600x1200 en dan AA op 4x en gewoon vloeiend lopen...
Met 64 bot's kreeg het systeem het moeilijk, alleen was dit te wijten aan het systeem (rekenkracht) en niet aan de videokaart
Het fannetje van de kaart is ook super stil alleen daarintegen wordt de kaart tijdens het spelen wel ontzettend heet.
Denk dat ze t eerder in t publiek gooien zodat ze langer de prestatiekroon kunnen behouden. En dat is altijd goede PR voor ze. Denk bijv. die 'gekke Japanners' met hun stikstofoplossingen.
Ik weet niet wat T.net heeft de laatste tijd met oud nieuws maar dit artikel staat al een tijdje op bit-tech:

G70 has 'many' clocks - NVIDIA
Posted 18:39 - 7 July 2005 - by Wil Harris

Bijna een week na datum is dit geen nieuws meer. Na het HKEPC crossfire artikel nu dit.

Tip voor ander laattijdig nieuws: Speculaties over een vijandige overname van ATI
http://arstechnica.com/news.ars/post/20050709-5077.html
Vorige week was het ook hier, maarja, niemand leek er toen al te veel van te snappen..

http://tweakers.net/nieuws/37928

Edit, en zie ook vooral de links die ik maakte in mijn posts naar Guru3D.
hmm, ik denk dat Nvidia niet zo blij zou zijn als Intel ATI zou overnemen.
Overigens ook niet als AMD dat zou doen, want Nvidia en AMD zijn juist zo'n geslaagde combinatie. Die verstandhouding zou dan wel flink veranderen.
wanneer deze met een oscilloscoop weergegeven wordt, een constant wisselende kloksnelheid meten
Dit doet je processor toch ook?

Kijk maar eens met de realtime clock meter van wcpuid

http://www.h-oda.com/
Ze bedoelen ineens 100 -> 1000MHz minder hé dat die ineens draaid niet 1->20MHz hé dat is gewoon door de wisselnde voedingspannignen enzo
Niet als je een goede voeding hebt.
Voor publicatie doeleinden lijkt het me toch makkelijker om te zeggen: "Tussen xMhz - yMhz" of alleen "Tot yMhz".

Het is een ander concept,. En het is niet vreemd om je marketing daarop aan te passen.
Dat is alleen maar verwarrend voor veel mensen..
Je koopt toch ook gewoon een '3GHz computer', in plaats van een computer met 3GHz Pentium4, waarvan n deel op 6GHz draait, verbonden via een 200MHz bus.. etc...

Alleen voor ons technici zou het interessant kunnen zijn om te weten welk deel op welke frequentie draait, maar het wordt er niet begrijpelijker door.
De informatie met betrekking tot het aantal Mhz in een videokaart is voor diezelfde mensen uberhaupt al teveel informatie. Dus in mijn reactie geeft ik aan dat ze net zo goed de juiste informatie kunnen neerzetten.

Pentium is zo aantrekkelijk voor consumenten omdat je:
1) Een herkenbare merknaam hebt
2) Een makkelijke versionering hebt zoals Pentium 1, Pentium 2 .. etc.

Het aantal Ghz dat jij noemt is, voor de mensen die jij noemt, niet interessant.
Ik denk dat je daar niet helemaal gelijk hebt. Elke leek krijgt te horen 'hoe hoger, hoe beter' dus volgens mij gaat het meerendeel toch echt voor een P4 3ghz ofzo, mits het in hun prijs/snelheid/kwaliteit-verhouding past. Ik denk dat meer mensen dan je denkt begrijpen dat ghz 'iets met snelheid' te maken heeft, of rekenkracht oid. Daarbij komt dat elke verkoper dit ook zal uitleggen. Wie heeft niet dat slimme, handige neefje die het uitlegt? Iedereen heeft tenslotte een PC tegenwoordig, dus men wordt er volgens mij ook (een klein beetje :P) wijzer over.

*Edit*

Hetzelfde verhaal gaat naar mijn idee op voor GPU's.
En wat ik nu goed vind, ook al is het verschil maar 40MHz, ze hebben ervoor gekozen om met de laagste snelheid van de chip gebruikt hebben voor marketing.

Verder klinkt de techniek erg vanzelf spreken, een GPU zit vol van kleinere semi-cores die hun eigen functie en ook eigen arhcitectuur meekrijgen, en verschillende architecturen met dezelfde transistors kunnen nu eenmaal verschillende clocksnelheden hebben, dus waarom alles op de clock snelheid van die onderdelen die het laagst geclocked kunnen worden laten lopen? Heel logisch dus.
denk dat ze gewoon dynamisch overclocken.
de 'architectuur' verandert geloof ik niet echt.
dwz intern is alles altijd net zo afhankelijk van elkaar als anders.
allen kan de chip besluiten dat alsie veel te doen heeft en nog niet tegen zn hittegrens aanzit om zn klok ff wat hoger te zetten.

het is volgens mij niet zo dat de chip met meerdere clocks gevoed wordt waarie uit kan kiezen ofzo.
het gaat denk ik om 1 master-clock die van snelheid verandert afhankelijk van de belasting.
Lijkt me ook meer een logische verklaring dit, aangezien je als groot bedrijf niet kan denken dat als de kloksnelheid variabel zou zijn, men er niet gauw achter zal komen.
Nou maar open dat ATI dit ook doet, of iets vergelijkbaars weten te maken, anders kunnen ze nog wel eens in de problemen komen eind dit jaar...
Eigenlijk al oud nieuws. Misschien moesten ze wel relatief klokken.

Wat ATI zal doen:
http://www.theinquirer.net/?article=24540
Bij AMD's Cool 'n Quiet gaat het om een variabele kloksnelheid van de gehele core. Bij de G70 om verschillende kloksnelheden voor verschillende delen van de chip tegelijkertijd. Het betreft hier dus wel iets anders dan Cool 'n Quiet.
klopt, dit lijkt gewoon echt voor geen _meter_ op cool 'n quiet.
Het principe komt anders wel op het zelfde neer.
Een totale variabele kloksnelheid, bestaande uit variabele kloksnelheden opgesplitst in delen van de core.

Trouwens wel interessant om te melden is dat deze techniek wel eens speciaal voor Longhorn users interessant zou kunnen worden met dat nieuwe tweaktooltje genaamd WinSat.

Dan kan Windows precies configureren zoals David Kirk in dit artikel zegt, moet nvidia met rivatuner gaan samenwerken. Dus ga er dan maar van uit dat ze ook zullen samenwerken met Microsoft om deze G70 core met variabele snelheid totale geautomatiseerde instructies kan laten uitvoeren door Windows om de prestaties in Longhorn te optimaliseren.
Het principe komt anders wel op het zelfde neer.
Een totale variabele kloksnelheid, bestaande uit variabele kloksnelheden opgesplitst in delen van de core.
De G70 wordt inderdaad aangestuurd aan de hand van een soort totale variabele kloksnelheid. De onderliggende intern te onderscheiden kloksnelheden zullen aan de hand hiervan via (waarschijnlijk gefixte, maar misschien wel dynamisch instelbare) vermenigvuldigingsfactoren worden bepaald. Door de 'hoofdklok' te versnellen, zullen de onderliggende 'subklokken' verhoudingsgewijs mee versnellen.

Dit is echter wat anders dan Cool 'n Quiet waar het er niet om gaat dat de klok variabel is in te stellen (da's al heel lang ingeburgerd), maar om het extra gegeven dat de kloksnelheid variabel wordt bepaald aan de hand van de load van de CPU.
Trouwens wel interessant om te melden is dat deze techniek wel eens speciaal voor Longhorn users interessant zou kunnen worden met dat nieuwe tweaktooltje genaamd WinSat.
Met WinSat biedt Longhorn de mogelijkheid om aan de hand van de snelheid/kracht van 4 subsystemen (graphics, memory, processor, storage) de configuratie van het OS zo in te stellen dat deze het beste aansluit bij de capaciteiten van de 4 subsystemen. Dat de G70-core intern uit meerdere kloksnelheden is opgebouwd, is voor WinSat niet van betekenis. De GPU wordt immers door WinSat als één geheel beschouwd bij de bepaling welke OS-configuratie optimaal is. Dat de G70 als motor van het grafische subsysteem z'n snelheid bereikt door o.a. meerdere verschillende kloksnelheden, is hierbij voor WinSat niet van belang.
Dat de G70 als motor van het grafische subsysteem z'n snelheid bereikt door o.a. meerdere verschillende kloksnelheden, is hierbij voor WinSat niet van belang.
Correct.
Maar aangezien er door David Kirk wordt aangedrongen op samenwerking tussen Nvidia en Rivatuner kunnen we ervan uitgaan dat een dergelijk tweakprogramma als WinSat er wel degelijk belang bij heeft om op bepaalde momenten extra GPU power te kunnen leveren.

Dit zal dan eerst met Rivatuner mogelijk worden en wellicht in de toekomst (speculatie) met WinSat.
Waarschijnlijk kan de gebruiker in Rivatuner bepaalde profielen aanmaken om bijvoorbeeld bij een veeleisend spel extra FPS te kunnen maken. Later zal Winsat dit aan de hand van eigen benchmarks eventueel zelf kunnen doen. Wat natuurlijk ook mogelijk is is dat Nvidia kiest om gewoon een eigen programme te ontwikkelen dat in de toekomst wellicht bepaalde gegevens voor profielen doorstuurd naar WinSat.

Kortom een hoop speculatie, en veel mogelijkheden liggen te wachten op de nieuwe dynamische kloksnelheid van de G70 core.
PR Manager Adam Foat stelt dat men deze technologie niet eerder aangekondigd heeft omdat men wilde dat de mensen het effect van de verbeteringen opmerkten en men de technologie zichzelf wou laten verkopen.

Ik vind het nogal een onzin verhaal en wel hierom. Als je een nieuwe gpu heb uitgebracht met zulke verbeteringen, dan maak je dit toch kenbaar naar je potentiele klanten groep, zeker als je een grote concurrent heb ? Dus zowel op de beurzen en de aanloop naar het uit brengen zwijg je hierover ?

Lijkt me nogal een rare PR gedachte, temeer omdat, zelfs de beste tweaker, niet boven water kan halen wat er nu gesteld is. Volgens mij zit er ergens catch achter, maarjah, welke ? Kan ook gewoon zijn dat iedere chip variabel/insatbiel werkt, en het dan misschien met deze uitspraak proberen te verbloemen. Hopen dat er gauw meer tests hier omtrend worden gedaan en de drivers eens goed nagekeken worden ;)

Persoonlijk vind ik deze uitspraak wat huiverig, danwel, schept geen vertrouwen.
Bekijk het anders: stel dat ze de hoogste klok genomen hadden, dat zou pas bedrog zijn. Nu nemen ze de laagste klok, perfect eerlijk en geeft net wel vertrouwen.
Waarom zou dat bedrog zijn?
Als die kaart dat gewoon kan, en alleen maar lager loopt als er geen belasting is, dan is dat helemaal geen bedrog.

Er is toch ook niemand die beweert dat je bij een AMD een lagere frequentie moet melden omdat ie Cool 'n Quiet gebruikt?

TENZIJ de hoogste kloksnelheid niet continu vol te houden is.
BV omdat het een overklok is, waarbij je videokaart uiteindelijk oververhit raakt als je dat continu volhoudt.

In DAT geval zou het wel bedrog zijn. Bedoel je dat?


Dat lijkt me op zich wel een logische redenatie, want anders kan ik me totaal niet voorstellen waarom ze dit geheim zou houden.
Door de fabrikant ondersteunt overklokken is immers niet nieuw. (overdrive) en delen van een gpu langzamer laten lopen als ze toch niet of weinig gebruikt worden is ook niet nieuw. Dus waarom zou je het dan geheim houden? Het zijn immers goede verkoopargumenten, die je juist niet geheim wilt houden.
De enige logica is dat er ergens dus een addertje zit.
Het zat er dik in dat ze wat technieken gaan gebruiken die ze niet meteen naar buiten willen brengen om een voordeel op de bouwen ten opzcithe van concurentie.

GPU architecturen wisselen gigantisch snel, nu een van de andere GPU bouwers deze techniek kent, kan het in hun volgende generatie product misschien nog ingebouwd worden, ik vraag me af of nVidia nog meer van dit soort truks achter de mouw heeft.

Hoe dan ook, de klant is niet benadeeld, enkel de tweaker die wil weten op welke clock die draaid en die nu hele moeilijke berekeningen moet gaan doen om er achter te komen wat de vertex rate van zijn overclockte 7800GTX.
Welk voordeel zouden ze dan op deze manier bouwen?
Zowel ATI als Nvidia gebruiken die technieken immers al in hun mobiele gpu's, en met overdrive ondersteunt ati zelfs al dynamisch overklokken.

Het enige dat dus nieuw is, is dat nvidia wat mobiele technieken in een desktop gpu heeft gezet. Maar dat hoeven ze niet geheim te houden, want dat kan ATI toch niet in een paar maanden tijd in de R520 inbouwen als daar in het ontwerp geen rekening mee was gehouden.
En ze wisten ook van te voren dat ze het nooit erg lang geheim zouden kunnen houden.

De enige logica die ik kan verzinnen om het geheim te houden is het bekende addertje onder het gras.

Bv zoals ik mijn reactie hierboven aangeef. Stel dat het ding dynamisch overklokt, maar dat niet continu kan volhouden. ('k heb er geen bewijs voor, maar STEL dat het zo is)
Dan kan de klant wel benadeeld worden, want als dat niet bekend is, dan wordt een 7800 GTX vergeleken met andere kaarten die niet overklokt zijn. Bij een vergelijking met een ATI kaart zal dan normaal gesproken overdrive niet aangezet zijn. En dat geeft dan een oneerlijk voordeel aan de nvidia kaart. Daarmee wordt de klant dan wel benadeeld, omdat ie geen goede vergelijking kan maken voor ie een kaart aanschaft.

Nogmaals: ik zeg niet dat het perse kwade opzet moet zijn van Nvidia, maar het is de enige verklaring die ik kan bedenken die logisch is. Een mooie taak voor de reviewers om uit te vinden wat er nou precies aan de hand is :)

[edit:]
Interessante thread op beyond3d:
http://www.beyond3d.com/forum/viewtopic.php?t=24615&postdays=0&postord er=asc&start=60

Het lijkt er op dat het grootste gedeelte van de gpu gewoon op 430 loopt (PS en ROP etc), maar dat een heel klein gedeelte op 470 loopt. Welk gedeelte dat dan precies is blijft nog onduidelijk. "Geometry" wordt genoemd, maar alle VS tests wijzen gewoon op 430.

Maar waarom ze daar nou zo geheimzinnig over doen blijft een raadsel.

Op dit item kan niet meer gereageerd worden.