Nvidia Optimus laat laptops automatisch wisselen tussen igp en gpu

Nvidia heeft de Optimus-technologie gepresenteerd waarmee laptops automatisch kunnen wisselen tussen de igp en een discrete gpu. Het wisselen gebeurt realtime en is afhankelijk van de grafische rekenkracht die de applicatie vraagt.

Nvidia OptimusTechnologie om laptops naar keuze de igp of de cpu te laten gebruiken bestaat al een aantal jaren. De eerste generatie vereiste echter een hardware-knop en een reboot om van gpu te wisselen, terwijl de tweede generatie nog altijd een aantal seconden over een switch deed, beperkte driverondersteuning had en nogal eens blokkeerde als er bepaalde applicaties draaiden die de videochip gijzelden. De tweede generatie noemde Nvidia Hybrid SLI en de meest bekende notebooks die hiermee uitgerust worden zijn de MacBook Pro-modellen. Beide generaties zorgden voor hogere productiekosten, wat de marktacceptatie tegenhield. Ook de consument liep niet warm: volgens Nvidia wisselde maar één procent van de gebruikers daadwerkelijk van gpu.

Bij de nieuwe Optimus-technologie van Nvidia zouden de tekortkomingen van de voorgangers opgelost zijn, schrijft Anandtech. In plaats van 5 tot 10 seconden kunnen laptops in 200 milliseconden van gpu wisselen en de Optimus-driver bepaalt per applicatie of de igp of de additionele gpu ingeschakeld moet worden.

De technologie wordt ondersteund door de in januari uitgebrachte GeForce 300M-reeks, terwijl ook 200M-modellen en Ion de hardwareondersteuning in huis hebben. Nvidia noemt de betreffende hardware 'Optimus Copy Engine'. Deze kopieert de framebuffer van de discrete gpu en zet deze via de pci-e-bus over naar de framebuffer van de igp. De latency zou hierdoor met slechts 3ms toenemen, claimt Nvidia. Aan het moederbord en de igp zouden verder geen eisen gesteld worden, al valt uit de presentatie op te maken dat alleen Intel-cpu's ondersteund worden.

Nvidia heeft de introductie echter moeten uitstellen tot de software klaar was. Volgens de fabrikant gaat het om complexe code met de omvang van Windows NT, waar zo'n duizend ontwikkelaars aan meegewerkt zouden hebben. Optimus maakt gebruik van standaard api-calls en schakelt de gpu in veel gevallen automatisch in als er applicaties draaien die dxva, DirectX, OpenGL of Nvidia's Cuda gebruiken. De herkenning van overige programma's, waarbij uiteraard met name games van belang zijn, wordt door Nvidia bijgehouden door middel van profielen. Deze profielen worden onafhankelijk van de driver-cycli bijgehouden en kunnen door gebruikers desgewenst ook handmatig worden toegevoegd.

Nvidia beweert dat er deze zomer minstens vijftig notebooks met Optimus-ondersteuning op de markt verschijnen, waaronder de UL50Vf, de UL30Jc, de N61JV en de N82JV van Asus.

Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides

Door Olaf van Miltenburg

Nieuwscoördinator

10-02-2010 • 13:55

78

Reacties (78)

78
78
53
4
0
3
Wijzig sortering
Is dit de reden dat Apple nog geen nieuwe lijn Macbooks heeft aangekondigd? Ik zou graag een verbeterde batterijduur zien in de gehele lijn, en de 13" een middenmoot nvidia gpu zien hebben, met de 15/17" versies een snelllere gpu maar ook deze functies.

Maar ik vraag me af: werkt widi hier ook mee?
Het persbericht van nVidia vermeldt niet welke besturingssystemen worden ondersteund, maar bevat wel de volgende quote: "We are pleased that NVIDIA continues to innovate for Windows 7 users".
Reken dus maar niet te hard op Apple ondersteuning. Ook vanwege de uitspraak dat er net zoveel software voor nodig is als de hele code base van Windows NT (wat me overigens wel erg veel lijkt). Een dergelijke ontwikkelinspanning zou wel erg kostbaar zijn om te herhalen voor systemen met een veel kleiner marktaandeel.
Misschien geven ze de specificaties wel gewoon aan Apple, en zeggen, zo moet je die drivers bakken.

Denk niet dat ze 'om de hoeveelheid' code Apple links laten liggen mocht Apple er in geïnteresseerd zijn, dan komt dat er ook wel voor Apple.
Ook vanwege de uitspraak dat er net zoveel software voor nodig is als de hele code base van Windows NT (wat me overigens wel erg veel lijkt).
De drivers van nVidia, inclusief alle ondersteuning voor de innovaties van de laatste jaren (CUDA, SLI, dit) lijken me anders aardig uitgebreid en dergelijke.

En ter grootte van Windows NT, ik denk dat ze de kernel / kern bedoelen, ipv het gehele softwarepakket - daar daarbij ook media en een hele trits aan standaardapplicaties bij meegeleverd worden.

Ik kijk even op Wikipedia, en daar staat dat Windows NT 3.1 4 tot 5 miljoen regels code bevatte, en NT 4.0 11 tot 12 miljoen. Dat lijkt me niet zo'n vreemd cijfer voor de drivers / software van nVidia.
Apple heeft toch meestal ATI kaarten in hun systeempjes zitten?
vroeger, toen ze nog PPC-varianten van motorola(G3) (freescale) en IBM (G4&G5) gebruikten.

Met de komst van intel hebben ze enkel nog Nvidea-Kaarten ingebouwd, zover ik weet, in de eerste reeksen vind je trouwens alleen maar GMA-chips
Whieee Moderator Apple Talk @g4wx311 februari 2010 10:58
ook niet waar. Apple gebruikt al jaren afwisselend ATi en nVidia chips door elkaar. Als we kijken naar Macs sinds 2004, kunnen we 3 lijstjes maken:

Intel: MacBook (GMA950, GMA X3100), Mac Mini (GMA 950), iMac for Education (GMA950), MacBook Air (GMA X3100)

ATi: eMac (9200, 9600), iBook G4 (9200, 9550), iMac G5 (9600, X600), PowerMac G5 (9600, 9650, X850), PowerBook 15/17" (9700), iMac Core Duo (X1600), iMac Core 2 Duo (X1600), MacBook Pro 15/17" (X1600), Mac Pro (X1900), iMac ALU (HD2400, HD2600), iMac ALU 24" (HD2400, HD2600, HD4850), iMac 21.5" (HD4670) iMac 27" (HD4670, HD4850)

nVidia: iMac G5 (GF4 MX, FX5200), PowerMac G5 (5200, 6800, 6600, 7800, QFX4500), PowerBook 12" (5200), iMac 24" (7300, 7600), Mac Pro (7300, 8800, QFX4500, QFX5600), MacBook Pro 15/17" (8600), iMac ALU 20" (9400), iMac ALU 24" (8800, 9400, GT120, GT130), MacBook unibody (9400), Mac Mini (9400), MacBook Air (9400), MacBook Pro 13" (9400), MacBook Pro 15/17" unibody (9400, 9600), iMac 21.5" (9400M)
Volgens mij zit in alle macbooks een nvidia.
We gaan het straks dus over een grafische co-processor hebben. Okee. :/

waarom schakelt de GPU de IGP uit? Je kunt 'm toch ook BIJschakelen? een soort van hybride Crossfire/SLI met je IGP en GPU... lijkt me wel zo slim.
De IGP wordt niet uitgeschakelt, het is de GPU die wordt uitgeschakelt als deze niet gebruikt wordt.
En hybride crossfire is enkel voordelig wanneer je ongeveer een zelfde prestatie hebt tussen dezelfde soort kaarten. Zo werkt hybride crossfire alleen tussen kaarten binnen dezelfde reeks, of een zeer tragere kaart met een interne.

In feite worden zwaardere dingen doorgestuurd naar de GPU die als dit berekent is doorstuurt naar de IGP die dat doorstuurt naar het scherm. Indien de GPU dit rechstreeks moest doorsturen had je problemen zoals flikkeringen bij het overschakelen, meerdere verbindingen ed. Dat is het hele probleem bij de oude variant van wisselen, waarmee je dus niet kon switchen als er iets was ingeladen in één van de geheugens, de reden ook waarom je een macbook opnieuw moet opstarten.
Meestal gebruiken IGP het interne geheugen en da's verre van snel. Ik denk dat je eerder een extra bottleneck creëerd dan dat het daadwerkelijk snelheidswinst oplevert.
Aan de ene kant lijkt dit een mooi systeem, maar is het niet veel eenvoudiger een "echte" kaart te maken die idle gewoon zeer zuinig is (zoals de 58xx serie van ati) en dan de intel igp gewoon uit te zetten? Scheelt vast een hoop gedonder (gezien de in het artikel genoemde complexiteit) en hoeft echt niet zo heel veel meer energie te verbruiken.
Anoniem: 111177 @haarbal10 februari 2010 15:34
Persoonlijk denk ik dat als dat zo simpel zou zijn, dit al lang het geval zou zijn. ;)
Dat kan alleen als je chips maakt zonder leakage. Onmogelijk natuurlijk.
Of als je de voeding van een deel van de *chip* uitschakelt als het verbruik laag is. Dat kan gedeeltelijk wel, maar het is technische nog steeds moeilijk om dat perfect te doen en het heeft ook gevolgen voor de maximale kloksnelheid van de chip, afhankelijk van welke techniek je gebruikt.

Over een jaar of twee zou dit wel mogelijk moeten zijn.
Het zal theoretisch wel mogelijk zijn powersaving-technologie in tebouwen om shaders uit te schakelen, en de klok terug te schakelen, en dan ook nog get vRAM gedeeltelijk uitschakelen. Volgens mij word de chip dan echt veel te complex en veel te ingewikkeld. De DIE (effectieve grote van de chips) zijn nu al bijzonder groot.

De oplossing die we nu krijgen is zeker geen slechte. Ik denk zelfs dat het de beste oplossing is. Powersaving-features inbouwen is veel ingewikkelder dan switchen tussen 2 chips, wat al kon, en nu nog geperfectioneerd wordt. Eigenlijk zou pas geswitched moeten worden als de 2de GPU geladen is, merk je het verschil niet. Je moet je features wel kunnen passen binnen het driver model waarvoor je schrijft natuurlijk.
Ze zijn wel heel erg optimistisch als je het 4e plaatje bekijkt, met optimus moet je dezelfde performance hebben als de dedicated GPU maar het energieverbruik van een onboard. Lijkt me onmogelijk.
Je moet het meer zien als de mogelijkheden van de laptop. Als je gewoon officewerk doet, krijg je de voordelen van een geïntegreerde grafische kaart (lange batterijduur). Maar als je kracht nodig hebt, dan kan dit ook met dit systeem. Natuurlijk wel ten koste van de batterijduur.
sterker nog, als we het plaatje moeten geloven dan zullen de prestaties van Nvidia Optimus beter zijn als de prestaties van de discrete gpu. ben benieuwd hoe dit gaat uitpakken...
Dat viel mij ook al op, ik vraag me echt af hoe ze aan die cijfers komen.
Gezien het rode kleurtje van het stipje dat een dedicated GPU moet voorstellen denk ik dat stiekem doelen op ATI Mobile RADEON's.
Ik las laatst dat Asus ook een notebook had gedemonstreerd met 2 GPU's die automatisch wisselden zodra dat nodig was. Is dat ook deze technologie of hun eigen?
Asus is een (heel goeie) integrator. Ze schrijven geen eigen drivers (toch zeker niet voor grafische kaarten). Evt. vragen ze wel aan bedrijven om bepaalde features extra te ontwikkelijk, maar dat zijn dan meestal kleinere dingen die daarna zowiezo ook voor anderen beschikbaar worden.

[Reactie gewijzigd door newinca op 22 juli 2024 23:46]

Asus propt af-en-toe ook eigen technologie in producten. De zojuist aangekondigde 'turbo-functie' bij de hexa-cores van AMD wordt allang afgehandeld door mijn mobo met Phenom X4 (yes, per core omhoog klokken en de andere omlaag).
'en de andere omlaag'.
Sorry, maar dat is dus niet wat de turbo-functie die AMD toepast doet; die zet een core helemaal uit waardoor die totaal geen warmte meer genereert.
Niet helemaal correct. De spanning wordt helemaal niet van die core gehaald dus warmte verbruikt die core nog wel.
Dit ziet er in ieder geval al een stuk handiger uit dan het in- en uitloggen dat ik nu nog moet doen op mijn Macbook Pro om te switchen tussen 9400M en 9600M.

Ik ben benieuwd of dit in de praktijk ook daadwerkelijk een merkbare verbetering in batterijduur met zich meebrengt.

Allesinds een leuke ontwikkeling voor mensen die hun laptop af en toe ook eens gebruiken om een game op te draaien.
Ik heb zelf ook een MBP en ik heb zelf nooit begrepen waarom je uit moet loggen... deze implementatie lijkt me puur een snelle hack om het aan de praat te krijgen. Je zou toch verwachten dat Apple het met een klein beetje goede wil toch ook realtime voor elkaar zou moeten krijgen. Er zit immers niets magisch achter het opnieuw inloggen en er wordt geen gebruik gemaakt van een reboot of een hardware knop.

edit: hmm, het probleem zal hem wel zitten in de eventuele graphics, shaders, etc die applicaties geladen hebben in het grafisch geheugen.

[Reactie gewijzigd door HerrPino op 22 juli 2024 23:46]

OSX lijkt al 3 jaar stil te staan (sinds de komst van de iPhone), het zal vast wel haalbaar zijn.
Moet toch zeggen dat Snow Leopard toch enorme verbeteringen bevat ten opzicht van Tiger, met Tigerx86 en leopard als tussenstop.
Wel raar, op mijn studio xps kon je wel gewoon realtime switchen met die chip dus het ligt aan osx. Ik heb die studio overigens geruild en een mbp gehaald.
Het moederbord wordt hierdoor wel complexer, dus duurder. Twee chips ipv één is duurder. Zou het niet goedkoper en efficiënter zijn om GPU's minder stroom in idle te laten verbruiken? Bijvoorbeeld hele stukken chip uitschakelen in plaats van enkel onder te klokken. Een beetje zoals C1E, maar dan voor GPU's. Neem nu de Radeon HD 5770. 108 Watt load, 18 Watt idle. Beide waardes zijn veel voor in een laptop, maar het toont wel aan wat er mogelijk is. Dat vind ik er in ieder geval interessanter uit zien.
Anoniem: 208019 @mieJas10 februari 2010 17:19
Gebruikt de 9400M IGP al 18W? Dus 18W voor de 5770 onder idle is goed genoeg voor laptops.

Het is eigenlijk heel super simpel. Gewoon de GPU automatisch laten terug klokken als het weinig gebruikt word. Linux kan dat met de CPU dus er kan ook iets gemaakt voor de GPU :p
Het is eigenlijk heel super simpel. Gewoon de GPU automatisch laten terug klokken als het weinig gebruikt word. Linux kan dat met de CPU dus er kan ook iets gemaakt voor de GPU :p
Ik vraag me af hoe je leakage naar beneden kan krijgen? Dat is niet klok afhankelijk en goed voor ~20% van het verbruik van de chip.
Voltage naar beneden?
Als ik het goed begrijp heeft dit dan ook als voordeel dat er niet fysiek meer een knop ingedrukt hoeft te worden om te wisselen tussen gpu en igp?
Dat begrijp je goed, geen knop, geen in-en-uit loggen, en niet wachten, maar automatisch en direct.
Vergis ik me of lieten de nieuwe arrandale processoren van intel switchable graphics al hardwarematig toe bij eender welke gpu(ati of nvidia) in samenwerking met intel igp?

Beetje overbodige technologie voor een arrandale laptop lijkt het me... Of is deze 'optimus' technologie echt zoveel beter dan deze van de Arrandale platformen?

Want ik zie momenteel liever een Ati dan een Nvidi in mijn laptop. Want draai het of keer het, alleen ati ondersteunt dx11 momenteel en is op andere vlakken ook performanter dan Nvidia.
De Arrandale family ondersteunt dit inderdaad, maar op een andere manier:
http://www.fudzilla.com/content/view/13524/1/
Wat deze chip doet is in feite de mogelijkheid bieden om de integrated graphics chip van Intel uit te schakelen en een andere chip te gebruiken voor de grafische rekenmeuk (bijv. van ATi of nVidia).

Wat ik begrijp uit het verhaal hierboven is dat deze 'technologie' (Optimus) realtime kan wisselen tussen de igp en gpu, of zwaardere stukken door kan sturen naar de gpu.

Het lijkt me overigens niet zo dat de performance dan beter wordt als een discrete gpu, of dat ie net zolang met de batterij kan doen... Maar we zullen zien ;)

En ATi ondersteunt weliswaar DX11, maar de levertijden zijn voor veel van deze modellen onbekend...
Ben benieuwd wat de echte accuduur hierdoor wordt. Even reviews afwachten :)
Verder zou ik het ook wel mooi vinden als dit soort 'switchable' graphics naar de desktop komt, zodat ook die zuiniger kunnnen worden, want ook ATI's nieuwe 5xxx serie gebruikt idle nog altijd meer dan de IGP.
Dat bestaat toch al in de vorm van ATI Hybrid Graphics? Of zie ik het verkeerd?

Op dit item kan niet meer gereageerd worden.