Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 78, views: 18.913 •

Nvidia heeft de Optimus-technologie gepresenteerd waarmee laptops automatisch kunnen wisselen tussen de igp en een discrete gpu. Het wisselen gebeurt realtime en is afhankelijk van de grafische rekenkracht die de applicatie vraagt.

Nvidia OptimusTechnologie om laptops naar keuze de igp of de cpu te laten gebruiken bestaat al een aantal jaren. De eerste generatie vereiste echter een hardware-knop en een reboot om van gpu te wisselen, terwijl de tweede generatie nog altijd een aantal seconden over een switch deed, beperkte driverondersteuning had en nogal eens blokkeerde als er bepaalde applicaties draaiden die de videochip gijzelden. De tweede generatie noemde Nvidia Hybrid SLI en de meest bekende notebooks die hiermee uitgerust worden zijn de MacBook Pro-modellen. Beide generaties zorgden voor hogere productiekosten, wat de marktacceptatie tegenhield. Ook de consument liep niet warm: volgens Nvidia wisselde maar één procent van de gebruikers daadwerkelijk van gpu.

Bij de nieuwe Optimus-technologie van Nvidia zouden de tekortkomingen van de voorgangers opgelost zijn, schrijft Anandtech. In plaats van 5 tot 10 seconden kunnen laptops in 200 milliseconden van gpu wisselen en de Optimus-driver bepaalt per applicatie of de igp of de additionele gpu ingeschakeld moet worden.

De technologie wordt ondersteund door de in januari uitgebrachte GeForce 300M-reeks, terwijl ook 200M-modellen en Ion de hardwareondersteuning in huis hebben. Nvidia noemt de betreffende hardware 'Optimus Copy Engine'. Deze kopieert de framebuffer van de discrete gpu en zet deze via de pci-e-bus over naar de framebuffer van de igp. De latency zou hierdoor met slechts 3ms toenemen, claimt Nvidia. Aan het moederbord en de igp zouden verder geen eisen gesteld worden, al valt uit de presentatie op te maken dat alleen Intel-cpu's ondersteund worden.

Nvidia heeft de introductie echter moeten uitstellen tot de software klaar was. Volgens de fabrikant gaat het om complexe code met de omvang van Windows NT, waar zo'n duizend ontwikkelaars aan meegewerkt zouden hebben. Optimus maakt gebruik van standaard api-calls en schakelt de gpu in veel gevallen automatisch in als er applicaties draaien die dxva, DirectX, OpenGL of Nvidia's Cuda gebruiken. De herkenning van overige programma's, waarbij uiteraard met name games van belang zijn, wordt door Nvidia bijgehouden door middel van profielen. Deze profielen worden onafhankelijk van de driver-cycli bijgehouden en kunnen door gebruikers desgewenst ook handmatig worden toegevoegd.

Nvidia beweert dat er deze zomer minstens vijftig notebooks met Optimus-ondersteuning op de markt verschijnen, waaronder de UL50Vf, de UL30Jc, de N61JV en de N82JV van Asus.

Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides Nvidia Optimus slides

Reacties (78)

Is dit de reden dat Apple nog geen nieuwe lijn Macbooks heeft aangekondigd? Ik zou graag een verbeterde batterijduur zien in de gehele lijn, en de 13" een middenmoot nvidia gpu zien hebben, met de 15/17" versies een snelllere gpu maar ook deze functies.

Maar ik vraag me af: werkt widi hier ook mee?
Het persbericht van nVidia vermeldt niet welke besturingssystemen worden ondersteund, maar bevat wel de volgende quote: "We are pleased that NVIDIA continues to innovate for Windows 7 users".
Reken dus maar niet te hard op Apple ondersteuning. Ook vanwege de uitspraak dat er net zoveel software voor nodig is als de hele code base van Windows NT (wat me overigens wel erg veel lijkt). Een dergelijke ontwikkelinspanning zou wel erg kostbaar zijn om te herhalen voor systemen met een veel kleiner marktaandeel.
Misschien geven ze de specificaties wel gewoon aan Apple, en zeggen, zo moet je die drivers bakken.

Denk niet dat ze 'om de hoeveelheid' code Apple links laten liggen mocht Apple er in geÔnteresseerd zijn, dan komt dat er ook wel voor Apple.
Ook vanwege de uitspraak dat er net zoveel software voor nodig is als de hele code base van Windows NT (wat me overigens wel erg veel lijkt).
De drivers van nVidia, inclusief alle ondersteuning voor de innovaties van de laatste jaren (CUDA, SLI, dit) lijken me anders aardig uitgebreid en dergelijke.

En ter grootte van Windows NT, ik denk dat ze de kernel / kern bedoelen, ipv het gehele softwarepakket - daar daarbij ook media en een hele trits aan standaardapplicaties bij meegeleverd worden.

Ik kijk even op Wikipedia, en daar staat dat Windows NT 3.1 4 tot 5 miljoen regels code bevatte, en NT 4.0 11 tot 12 miljoen. Dat lijkt me niet zo'n vreemd cijfer voor de drivers / software van nVidia.
Apple heeft toch meestal ATI kaarten in hun systeempjes zitten?
Volgens mij zit in alle macbooks een nvidia.
vroeger, toen ze nog PPC-varianten van motorola(G3) (freescale) en IBM (G4&G5) gebruikten.

Met de komst van intel hebben ze enkel nog Nvidea-Kaarten ingebouwd, zover ik weet, in de eerste reeksen vind je trouwens alleen maar GMA-chips
ook niet waar. Apple gebruikt al jaren afwisselend ATi en nVidia chips door elkaar. Als we kijken naar Macs sinds 2004, kunnen we 3 lijstjes maken:

Intel: MacBook (GMA950, GMA X3100), Mac Mini (GMA 950), iMac for Education (GMA950), MacBook Air (GMA X3100)

ATi: eMac (9200, 9600), iBook G4 (9200, 9550), iMac G5 (9600, X600), PowerMac G5 (9600, 9650, X850), PowerBook 15/17" (9700), iMac Core Duo (X1600), iMac Core 2 Duo (X1600), MacBook Pro 15/17" (X1600), Mac Pro (X1900), iMac ALU (HD2400, HD2600), iMac ALU 24" (HD2400, HD2600, HD4850), iMac 21.5" (HD4670) iMac 27" (HD4670, HD4850)

nVidia: iMac G5 (GF4 MX, FX5200), PowerMac G5 (5200, 6800, 6600, 7800, QFX4500), PowerBook 12" (5200), iMac 24" (7300, 7600), Mac Pro (7300, 8800, QFX4500, QFX5600), MacBook Pro 15/17" (8600), iMac ALU 20" (9400), iMac ALU 24" (8800, 9400, GT120, GT130), MacBook unibody (9400), Mac Mini (9400), MacBook Air (9400), MacBook Pro 13" (9400), MacBook Pro 15/17" unibody (9400, 9600), iMac 21.5" (9400M)
Ze zijn wel heel erg optimistisch als je het 4e plaatje bekijkt, met optimus moet je dezelfde performance hebben als de dedicated GPU maar het energieverbruik van een onboard. Lijkt me onmogelijk.
Je moet het meer zien als de mogelijkheden van de laptop. Als je gewoon officewerk doet, krijg je de voordelen van een geÔntegreerde grafische kaart (lange batterijduur). Maar als je kracht nodig hebt, dan kan dit ook met dit systeem. Natuurlijk wel ten koste van de batterijduur.
sterker nog, als we het plaatje moeten geloven dan zullen de prestaties van Nvidia Optimus beter zijn als de prestaties van de discrete gpu. ben benieuwd hoe dit gaat uitpakken...
Dat viel mij ook al op, ik vraag me echt af hoe ze aan die cijfers komen.
Gezien het rode kleurtje van het stipje dat een dedicated GPU moet voorstellen denk ik dat stiekem doelen op ATI Mobile RADEON's.
Ik las laatst dat Asus ook een notebook had gedemonstreerd met 2 GPU's die automatisch wisselden zodra dat nodig was. Is dat ook deze technologie of hun eigen?
Asus is een (heel goeie) integrator. Ze schrijven geen eigen drivers (toch zeker niet voor grafische kaarten). Evt. vragen ze wel aan bedrijven om bepaalde features extra te ontwikkelijk, maar dat zijn dan meestal kleinere dingen die daarna zowiezo ook voor anderen beschikbaar worden.

[Reactie gewijzigd door newinca op 10 februari 2010 17:33]

Asus propt af-en-toe ook eigen technologie in producten. De zojuist aangekondigde 'turbo-functie' bij de hexa-cores van AMD wordt allang afgehandeld door mijn mobo met Phenom X4 (yes, per core omhoog klokken en de andere omlaag).
'en de andere omlaag'.
Sorry, maar dat is dus niet wat de turbo-functie die AMD toepast doet; die zet een core helemaal uit waardoor die totaal geen warmte meer genereert.
Niet helemaal correct. De spanning wordt helemaal niet van die core gehaald dus warmte verbruikt die core nog wel.
Dit ziet er in ieder geval al een stuk handiger uit dan het in- en uitloggen dat ik nu nog moet doen op mijn Macbook Pro om te switchen tussen 9400M en 9600M.

Ik ben benieuwd of dit in de praktijk ook daadwerkelijk een merkbare verbetering in batterijduur met zich meebrengt.

Allesinds een leuke ontwikkeling voor mensen die hun laptop af en toe ook eens gebruiken om een game op te draaien.
Ik heb zelf ook een MBP en ik heb zelf nooit begrepen waarom je uit moet loggen... deze implementatie lijkt me puur een snelle hack om het aan de praat te krijgen. Je zou toch verwachten dat Apple het met een klein beetje goede wil toch ook realtime voor elkaar zou moeten krijgen. Er zit immers niets magisch achter het opnieuw inloggen en er wordt geen gebruik gemaakt van een reboot of een hardware knop.

edit: hmm, het probleem zal hem wel zitten in de eventuele graphics, shaders, etc die applicaties geladen hebben in het grafisch geheugen.

[Reactie gewijzigd door HerrPino op 10 februari 2010 14:21]

OSX lijkt al 3 jaar stil te staan (sinds de komst van de iPhone), het zal vast wel haalbaar zijn.
Moet toch zeggen dat Snow Leopard toch enorme verbeteringen bevat ten opzicht van Tiger, met Tigerx86 en leopard als tussenstop.
Wel raar, op mijn studio xps kon je wel gewoon realtime switchen met die chip dus het ligt aan osx. Ik heb die studio overigens geruild en een mbp gehaald.
Als ik het goed begrijp heeft dit dan ook als voordeel dat er niet fysiek meer een knop ingedrukt hoeft te worden om te wisselen tussen gpu en igp?
Dat begrijp je goed, geen knop, geen in-en-uit loggen, en niet wachten, maar automatisch en direct.
We gaan het straks dus over een grafische co-processor hebben. Okee. :/

waarom schakelt de GPU de IGP uit? Je kunt 'm toch ook BIJschakelen? een soort van hybride Crossfire/SLI met je IGP en GPU... lijkt me wel zo slim.
Meestal gebruiken IGP het interne geheugen en da's verre van snel. Ik denk dat je eerder een extra bottleneck creŽerd dan dat het daadwerkelijk snelheidswinst oplevert.
De IGP wordt niet uitgeschakelt, het is de GPU die wordt uitgeschakelt als deze niet gebruikt wordt.
En hybride crossfire is enkel voordelig wanneer je ongeveer een zelfde prestatie hebt tussen dezelfde soort kaarten. Zo werkt hybride crossfire alleen tussen kaarten binnen dezelfde reeks, of een zeer tragere kaart met een interne.

In feite worden zwaardere dingen doorgestuurd naar de GPU die als dit berekent is doorstuurt naar de IGP die dat doorstuurt naar het scherm. Indien de GPU dit rechstreeks moest doorsturen had je problemen zoals flikkeringen bij het overschakelen, meerdere verbindingen ed. Dat is het hele probleem bij de oude variant van wisselen, waarmee je dus niet kon switchen als er iets was ingeladen in ťťn van de geheugens, de reden ook waarom je een macbook opnieuw moet opstarten.
Dit is wel een hele mooie techniek vergeleken met de eerdere 'hybrid's'. Ik hoop dat deze in de Mac Book's en dergelijke komen.
Vergis ik me of lieten de nieuwe arrandale processoren van intel switchable graphics al hardwarematig toe bij eender welke gpu(ati of nvidia) in samenwerking met intel igp?

Beetje overbodige technologie voor een arrandale laptop lijkt het me... Of is deze 'optimus' technologie echt zoveel beter dan deze van de Arrandale platformen?

Want ik zie momenteel liever een Ati dan een Nvidi in mijn laptop. Want draai het of keer het, alleen ati ondersteunt dx11 momenteel en is op andere vlakken ook performanter dan Nvidia.
De Arrandale family ondersteunt dit inderdaad, maar op een andere manier:
http://www.fudzilla.com/content/view/13524/1/
Wat deze chip doet is in feite de mogelijkheid bieden om de integrated graphics chip van Intel uit te schakelen en een andere chip te gebruiken voor de grafische rekenmeuk (bijv. van ATi of nVidia).

Wat ik begrijp uit het verhaal hierboven is dat deze 'technologie' (Optimus) realtime kan wisselen tussen de igp en gpu, of zwaardere stukken door kan sturen naar de gpu.

Het lijkt me overigens niet zo dat de performance dan beter wordt als een discrete gpu, of dat ie net zolang met de batterij kan doen... Maar we zullen zien ;)

En ATi ondersteunt weliswaar DX11, maar de levertijden zijn voor veel van deze modellen onbekend...
Ben benieuwd wat de echte accuduur hierdoor wordt. Even reviews afwachten :)
Verder zou ik het ook wel mooi vinden als dit soort 'switchable' graphics naar de desktop komt, zodat ook die zuiniger kunnnen worden, want ook ATI's nieuwe 5xxx serie gebruikt idle nog altijd meer dan de IGP.
Dat bestaat toch al in de vorm van ATI Hybrid Graphics? Of zie ik het verkeerd?
Ik vind het systeem met een dock...
http://asia.cnet.com/blog...63016855&scid=rvhm_ms
...eigenlijk nog altijd interessanter; dan kan je immers altijd nog dingen als de grafische performance omhoogschroeven.

Bij dit systeem kan je dan wel mooi transparent switchen tussen een mobiele GPU en de IGP, maar je blijft toch vast zitten aan die mobiele GPU.

Of misschien allebei.. hmm...

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013