Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 91 reacties

Vlak voor de start van de CES-beurs in Las Vegas heeft nVidia details vrijgegeven over de hybride sli-techniek waaraan het bedrijf werkt. Onderdeel van de plannen is om alle nieuwe chipsets uit te rusten met ge´ntegreerde graphics.

Traditioneel zijn moederborden met een ge´ntegreerde videocore alleen interessant voor mensen die geen belang hechten aan 3d-prestaties, maar met hybride sli gaat dit veranderen. Wanneer de videokaart niet zwaar belast wordt kan deze uitgezet worden en neemt de chipset het volledig over. Aangezien een snelle videokaart ook in idle-modus nog veel energie verbruikt kan dit resulteren in een aanzienlijke besparing op de elektriciteitsrekening.

nVidia logo (60 pix) Omdat de videokaart volledig uitgezet wordt wanneer de belasting laag is, moet de monitor aangesloten worden op het moederbord. Wanneer er werk aan de winkel is wordt de videokaart ingeschakeld en worden de beelden die weergegeven moeten worden via de pci express-bus naar het systeemgeheugen gekopieerd. Het moederbord zorgt er vervolgens voor dat dit bij het beeldscherm terechtkomt. Naast het besparen van energie kan de onboard gpu ook ingezet worden om de prestaties van een budgetvideokaart te versnellen.

Nvidia is van plan om de eerste producten die gebruik kunnen maken van de techniek in het eerste kwartaal van 2008 te introduceren. Alle toekomstige producten moeten hybride sli ook gaan ondersteunen, hetgeen betekent dat alle moederborden over ge´ntegreerde graphics moeten beschikken. De techniek maakt gebruik van enkele features van Windows Vista SP1 en zal initieel niet ondersteund worden door andere besturingssystemen.

AMD werkt overigens aan een gelijksoortige techniek die ook nog aan het begin van dit jaar het daglicht moet zien.

Screenshot alpha-versie Hybrid SLI-software
Screenshot van een alpha-versie van de hybride sli-software
Moderatie-faq Wijzig weergave

Reacties (91)

Jammer weer hoor. Waarom moet er nou weer windows bij komen? Hardware is toch ook software? Of zijn die benodigde Windows features zo geniaal dat ze dat bij Nvidia zelf niet zoiets kunnen maken?
Hou er rekening mee dat hoewel nVidia na Intel de meeste non-Windows driver support doet, het een marginale activiteit is voor een marginaal setje users. Dit is een fors groot concept dat zowel hardware als software tot het uiterste pusht. Ze willen het eerst onder een bepaald platform goed werkend krijgen, en dan ligt het voor de hand om het platform te kiezen dat het meest in gebruik zal zijn bij mensen die deze chipsets en kaarten kopen op moment dat ze op de markt gaan komen. Dan is Vista SP1 een zeer begrijpelijke keuze...

Er is ook een ander punt: dit is een oefening in power management. Bij Linux support ben je ook afhankelijk van moederbordfabrikant als het op ACPI aankomt. Dat is vaak uiterst brak geregeld (denk aan Asus moederborden die zich niet goed aan ACPI standaard houden, waardoor Linux enkel zonder ACPI support kan booten met volle features, of het Asrock geval waar ik nu op werk dat na een Windows boot twee keer moet rebooten voordat ACPI in een toestand is waar Linux vanaf door kan booten). nVidia wil niet een nieuwe geile feature door schuld van derden als 'buggy' beschreven laten worden. Pas als er goede kans is op end-to-end functionaliteit verwacht ik support voor Linux. En dat kan helaas even duren :'(
zit er tegenwoordig een glazenbol-plugin bij Compiz dat je dat zo zeker weet?
Ik gebruik nu 2 jaar linux, maar ik zie me vrienden niet zo druk overstappen als ze geen Counter-strike meer kunnen spelen
Dat is helemaal niet zo vreemd dat niet elk besturingssysteem werkt. Als het besturingssysteem er niet mee kan omgaan dat runtime een videokaart aan of uitgezet wordt, dan houdt het simpelweg op.

Waarschijnlijk kan het in theorie wel op Linux werken, maar ik denk niet dat bijv. Windows XP ondersteuning technisch mogelijk is.
denk eigenlijk wel dat windows xp ondersteuning mogelijk is, heb hier een oude ibm serverkast draaien waar nu toevallig nog even xp op draait en deze heeft hotplug ondersteuning op alle pci sloten, ik kan dan ook vanuit het veilig hardware verwijderen schermpje van windows kiezen om bv mijn netwerkkaart uit te schakelen
Natuurlijk zal ik hier waarschijnlijk voor worden gebashed maar Windows is altijd nog het dominante platform voor games, en daarom aantrekkelijker voor het gebruik van deze techniek. Echter heb je wel gelijk, het is onnodig dat dit alleen met Windows zou moeten kunnen werken, of hier nou speciale features voor Windows in zitten of niet, zˇ speciaal kan het toch nooit zijn? :S
De techniek maakt gebruik van enkele features van Windows Vista SP1 en zal initieel niet ondersteund worden door andere besturingssystemen.
Dat is best wel jammer.
Lijkt me namelijk wel een erg interessante oplossing voor het grote publiek, en in mijn ogen gebruiken de meeste mensen nog steeds XP?

Denk dat de mensen nu eerst gaan overwegen of ze dit wel gaan kopen, want je bent verplicht om Vista te nemen...
Hoewel ik een gezonde afkeer van Vista heb is het in specifiek dit geval wel zinnig. Vista heeft een extra hardware abstraction layer tussen videokaart en kernel tov XP. Dat is (mede) waarom game performance bij Vista een stuk slechter is dan XP. Maar de keerzijde is dat het toestaat dat drivers rare toeren uithalen achter die layer. Een spel dat draait hoeft niets te weten over wat de videokaarten allemaal aan het doen zijn, het draait vrolijk verder. Onder XP zie ik dat niet zo snel of naadloos gebeuren.
Geh, het hele idee van het nieuwe drivermodel van Vista was juist minder abstractie (daarom is D3D10 ook zo strict in z'n featureset) en een dunnere laag tussen applicatie en GPU, om performance te verbeteren. Dit heeft in de praktijk nog niet erg goed uitgepakt, maar heeft maar weinig te maken met het nieuwe drivermodel, alswel door allerlei andere factoren zoals DRM (of "distrusted computing"). Overigens waren de Vista graphics drivers in het begin ook nog niet echt optimaal dus die waren daar ook nog eens debet aan.

[Reactie gewijzigd door .oisyn op 7 januari 2008 20:52]

jouw stelling over performance in vista gaat toch niet voor alle spellen op hoor, zeker de nieuwere generatie games maken optimaal gebruik van de technologische vooruitgang die vista onder de motorkap te bieden heeft.
en in mijn ogen gebruiken de meeste mensen nog steeds XP?
En deze mensen hebben wel moederborden en videokaarten die dit ondersteunen?
Heel veel mensen die ik ken die Vista op hun nieuwe pc hadden staan hebben gewoon weer XP er op staan nu omdat ze Vista toch maar niets vonden. dus ja die mensen kunnen zeker wel zon moederbord/videokaart hebben. Ik draai ook geen Vista op mijn systeem omdat het 0% meerwaarde bied voor mij ondanks dat mijn systeem met gemak Vista kan draaien. En mijn volgende systeem komt een Nvidia bord met AM2+ socket en een Phenom X9600 BE en daar komt ook geen Vista op.

[Reactie gewijzigd door DarkBlaze op 7 januari 2008 19:49]

Dat jij er voor kiest een "oud" besturingssyteem te behouden heeft zijn consequenties. Als je vindt dat Vista geen meerwaarde biedt vind je dit concept blijkbaar ook geen meerwaarde.

@Sky Lynx
Met "oud" bedoel ik "niet nieuw". Verder is het populair om te denken dat Vista nooit een succes zal worden. Is iedereen vergeten hoeveel ophef er was over problemen bij Windows 95 en Windows XP? Toch zijn er weinig (inderdaad, niet geen) mensen die die twee versies hebben overgeslagen. Door nu te zeggen "ik ga het nooit gebruiken" neem je jezelf in de maling. Daarbij, waar komt de arogantie vandaan om te denken (en dat lees ik tussen de regels door): Ik wil niet overstappen op een nieuwe versie van Windows omdat de nieuwe Features me niet bevallen. De features die me wel bevallen moeten maar beschikbaar gemaakt worden in oudere versies.

Ter relativatie:
1) XP is inderdaad niet erg oud, dus het zou niet vreemd zijn als een producent nieuwe producten ondersteuning voor XP meegeeft. Daar staat tegenover dat ik liever heb dat ze hun energie steken in ondersteuning van Linux. Als ik dan de nieuwste kernel en de meest recente versie van X.org moet draaien hoor je mij niet klagen.
2) Het kan natuurlijk dat Vista net zo inpopulair wordt als ME. ME was echter bij verschijnen al een doodlopende weeg (laatste DOS gebasseerde versie), Vista is dat (voorzover ik weet) niet.

[Reactie gewijzigd door 84hannes op 8 januari 2008 00:22]

Klassiek voorbeeld van een "daarna, dus daardoor"-redenering. Je slaat volledig de plank mis: dat DarkBlaze Vista geen meerwaarde vindt hebben, betekent niet automatisch dat NVIDIA's hybride sli-techniek ook geen meerwaarde voor hem heeft. Beide produkten staan los in zijn meerwaarde-mening.

Verder mag XP met een marktaandeel van 79% (versus 7,3% voor Vista) bij lange na niet "oud" genoemd worden. Integendeel, de feiten wijzen erop dat het mogelijk maken van hybride sli voor bv. XP zeker niet gek zou zijn. Natuurlijk neemt het marktaandeel van Vista toe met de tijd, maar wanneer NVIDIA wilt dat hun hybride sli-tecniek breed aanslaat en veel afzet genereert in het begin, dan zullen ze toch echt ook ondersteuning voor XP moeten bieden. Overigens, de mensen die nu op XP zitten zullen ooit in de toekomst de overstap naar Vista gaan maken (vooral wanneer de ondersteuning voor XP straks zal vervallen). Daar hoeft NVIDIA zich dus geen zorgen over te maken.
net jij slaat de plank mis, nVidia z'n nieuwe idee is net mogelijk OMDAT VIsta nieuwe mogelijkheden biedt, en dus heeft Vista WEL een meerwaarde

je kan niet verwachten dat een nieuw OS vanaf dag 1 al z'n mogelijkheden gebruikt, een OS is uiteindelijk maar een platform, waar vooral anderen van gebruik maken
En wie zegt dat iedereen dat zal doen? Er zijn zelfs nu nog mensen die Windows 2000 blijven draaien (ik ken er zelfs die Wine gebruiken om toch de nieuwste games te kunne draaien).

Ik heb ÚÚn week Vista geprobeerd en ik weet 100% zeker dat ik het nooit meer opnieuw gebruik. Tegen dat Vista even goed wordt als XP, heeft Microsoft allang Windows 7 klaar, en kan ik lekker daar op overstappen. Dan eens zien hoeveel mensen het nog grappig vinden als bv. DirectX 11 ook Windows 7-only zou worden...
Dat is mijn punt niet, er werd gesteld dat er geen mensen zouden zijn die XP draaien met dit soort hardware en ik stel alleen maar dat het wel degelijk zo is. Veel mensen uit mijn omgeving en dan niet alleen school/werk maar ook familie en kennisen/vrienden moeten niets van Vista hebben en willen het liefst gewoon weer XP terug daar ging het om.

Verder kies ik er niet voor om XP te behouden alleen omdat ik Vista niets vind, het geeft ook te veel problemen met sommige software die ik gebruik voor werk en school en zo zijn er nog wel meer mensen die met dit soort problemen zitten dus ik vraag me af of dit wel zon groot verkoop punt gaat worden.
Het is wel allemaal sugestieve meningen he!

Ik was het eerste jaar absoluut niet voor Vista, maar heb een maand of twee geleden het er eens opgezet en ik wil niet meer terug. Daarnaast is mijn PC helemaal niet zo nieuw. Sterker nog in mei word hij na jaren eindelijk vervangen.

Maar nogsteeds draait hij soepel. A64 3200+, 1GB, ATI Xpress 200

Ja, de zelfde spec. pc draait langzamer op Vista dan op XP. Maar dat had je ook met eerdere nieuwe besturingssystemen.

Ja, de drivers en software zijn na een jaar van veel fabrikanten nogsteeds knudde. Sterker nog, als ik alle software van ATI installeer kan mijn Vista installatie niks meer dan vastlopen. Dus ik hou het alleen in dat geval bij de driver.

Ja, alles zit op een andere plek, zoals als je in het configuratiescherm moet zijn. Maar kan iemand zich nog de overstap van NT 4 naar W2K herinneren?

Ja, de map structuur in Vista is anders. Mijn documenten bestaat niet meer het heet gewoon documenten. Daarnaast zijn de paden ook anders. Zoals "c:\users" inplaats van "c:\documents and settings". Maar je bent een knappe gast als je daar een nadeel in ziet. Het is wel wennen, maar zodra je er aan gewent bent wil je niet meer terug.

Ja, het gebruikt veel meer geheugen. Maar XP liegt als hij barst qua hoeveel geheugen beschikbaar is. Vista is eerlijker op dat punt en wat hij extra gebruikt maakt hij ook goed gebruik van, en is ook weer beschikbaar mocht je iets anders gaan doen dat hij verwachte. Wel met een kleine tijdelijke snelheids vermindering maar goed, mijn pc is niet meer de nieuwste.

Dus eind conclussie, het is wennen, het is anders. Maar de opvolger zal echt niet zo gek veel verschillen dus aan jou de keus. Wil je nu gaan wennen? Of op het laatst?

Daarnaast veel Vista installaties die slecht lopen komen door OEM's die er allemaal spul op gooien zonder te testen. Of de "experts" die voor vrienden/familie het er op zetten maar ook niks goed testen of de tijd nemen fouten op te zoeken en dan liever Vista de schuld geven dan zelfs toegeven dat ze het een en ander nog moeten leren.

Is Vista geschikt voor gamers? Nee, ik zou nog een jaartje wachten tot eind 2008, begin 2009. Maar dan heb je het ook over een hele specifieke doelgroep. Maar wie rond die tijd niet gaat overstappen zie ik niet veel hoop in. Tenzij het technisch gewoon niet kan en dus het "snelheidsverlies" net even te groot is of het geheugen te weinig.

Ik gebruik het voor programmeren, standaard kantoor zaken, conquer online, website ontwerpen incl graphisch en dat soort zaken. Dat wil heerlijk en zonder problemen bij mij. Met al die 15+ schermen open is Flip3D een uitkomst.

Nou als dit niet de meest eerlijke opsomming van Vista is weet ik het ook niet.

[Reactie gewijzigd door Psychatic op 8 januari 2008 00:30]

de spijker op z'n kop Psychatic. Jammer van je pc, ook games gaan tegenwoordig prima ;) Tegen de tijd dat deze bordjes mainstream worden is XP Úcht wel "onder-ondersteund".

[Reactie gewijzigd door AugmentoR op 8 januari 2008 00:50]

Offtopic:
nou ik probeer het ondertussen enkele maanden
Ik programmeer erop en voor de rest gewoon computergebruik. Ik vind het ronduit pover. De wireless snelheid op een 54mbps is amper 1MB/s. XP doet het in zelfde omstandigheden (ja ik heb er dualboot opstaan - refer to my opinion on the stupid os) 3 keer zo snel, bekabeld haalt ie 6MB/s op een 100mbps vs 11 voor XP, het systeem crasht gewoon bij de stomste taken, meestal network related stuff, xp NIET in ZELFDE omstandigheden, het sloomt als geen ander op een systeem dat ruimschoots aan de eisen voldoet, de fileweergave is niet alleen anders, ze is ronduit stom. Ik bewaar niet 100% van mn documenten in de map met mn naam en ik kan het niet eens meer zo makkelijk (kan ik het zelfs?) tweaken naar een view die me beter ligt. De 3D desktop is niets meer dan een paradepaardje dat superveel stroom zuipt en echt klotig is om af te leggen, zo ook veel andere features. Het defragmenteren op deze laptop kan hij maar niet tot een goed einde brengen - het proces schijnt nooit te eindigen en als het eindelijk gedaan is, na een nachtje draaien, durft het nog te beweren dat de schijf dringend dient gefragmenteerd te worden. Ik kan zo nog een paar opmerkingen geven.
En als ik alles moet optellen dan merk ik dat ze niet eens de simpelste dingen hebben gedaan om sommige dingen beter te doen... ik noem maar iets : tijdens bestanden kopiŰren de overdracht kunnen pauzeren om een andere overracht voorrang te geven, of het automatisch invullen van eerder ingegeven ipadressen als hij op een ander gekend wireless of bedraad netwerk komt...heaven voor mensen zoals ik met 4-5 pcs, verschillende besturingssystemen en netwerken die ik dagelijks moet joinen. (btw ik weet dat je een alternatief ip kunt invullen, maar bij mij helpt dat niet, plus 1 is niet genoeg).
Het is goed mogelijk dat voor sommige problemen hier vermeld al een oplossing is gevonden, feit is; het zit niet bij Vista van in het begin, het wordt niet gepatched en dit vanuit clean installs. Dit besturingssysteem is zijn geld niet waard. En alle noobcommentaar rondom mij die beweert "dat het er toch schoon uitziet" begint me heel zwaar tegen te steken!
Er zijn dingen verbeterd...duuh het zou eens moeten zijn van niet, waarvoor betalen ze die mannen anders, maar het is simpelweg niet goed genoeg om de overstap te maken.

Ontopic:
Ik vind het een heel goeie poging. Ondersteuning in XP lijkt me hoogstnoodzakelijk en mensen die commentaar hebben dat het niet goed zal overklokken, het is NVIDIA, misschien maken die het mogelijk dat ding uit te schakelen in het BIOS, of brengen ze nog OC mobos uit, ze houden heus wel rekening met OC'ers.

[Reactie gewijzigd door The Pope931 op 8 januari 2008 01:44]

Daar heb ik hele andere ervaringen mee anders! Ik kon niet eens een spel dat ontwikkeld is in de tijd van windows 95 om het effect van latency te testen en later is doorontwikkeld als echt spel tegelijk met winamp aanzetten dan kreeg het spel last van lag!
Bij ons zijn onlangs een hele rits nieuwe systemen aangeschaft (Intel core 2 quads, 4GB mem, GF8800) met XP-64, nadat we twee Vista machines met veel problemen in gebruik hebben genomen. En dit zie ik binnen afzienbare tijd niet echt veranderen (nou ja, totdat de volgende Xbox Development Kit vereist dat je Vista installeert eigenlijk ;)). Dus om een antwoord te geven op je vraag: ja. En dat terwijl een feature als dit in een bedrijf als het onze heel veel stroom kan schelen.

[Reactie gewijzigd door .oisyn op 7 januari 2008 20:26]

Die mensen willen wellicht bij XP blijven bij hun nieuwe systeem. M'n broer heeft bij de aanschaf van z'n laptop vorige week 35 euro extra betaald om XP Pro NL erop te krijgen ipv Vista Home Premium.
Maar het woord wat je over het hoofd ziet is initiŰel. Support voor XP zal nog wel komen..

mooi idee, de lichte taken door de (zuinige) onboard chip laten uitvoeren en de lompe GFX kaart pas aanzetten als dat echt nodig is.
Vraag me wel af of ze het dan ook gaan implementeren voor dual (of meer) head opstellingen.

(en waaaaarom wordt hier de zoveelste "wie de neuk gebruikt er nou Vista man!"-discussie gevoerd.. damn.. zijn we het er nou nog niet over eens dat niemand Vista wil?)
Lijkt me logisch aangezien de meeste pc's toch met Vista worden verkocht.
Daarnaast is het dus niet verplicht om een apparte videokaart te installeren dus gaat de prijs voor goedkope pc's dadelijk ook weer omlaag.
Blaat. Het is geen koppelverkoop. Een paar uitzonderingen daargelaten heb je gewoon een keuze of je Vista erbij wil of niet. Wat niet wegneemt dat de meeste systemen idd met Vista worden verkocht. Niet door koppelverkoop, maar door keuze van de consument.
erm als grootste voorbeeld noem ik even dell: wil je daar een desktop of notebook kopen dan kan je (via de online menu's in ieder geval) niet kiezen om geen windows te nemen, en geloof mij als ik zeg dat dell niet de enige is die hun pc configurator zo heeft ingesteld!
Ik heb trouwens redelijk mijn best gedaan om mijn ongelijk (wbt dell) te kunnen bewijzen, dell verkoopt systemen met linux.....in amerika, als je als consument zoekt op de europese/nederlandse dell site naar linux vind je wel links naar iets over linux (wat weer voor de nederlandse dell een dode link geeft) en een aantal systemen, deze systemen kan je echter weer niet kopen met linux of zonder windows. Zou je dit willen dan zou je ws moeten bellen naar dell (als ze dit al doen) of toch met windows kopen en dan eula weigeren en restitutie eisen, iets wat de gemiddelde consument dus niet gaat doen.

Mischien is het geen koppelverkoop maar het wordt de gemiddelde consument wel flink moeilijk gemaakt om een pc zonder windows te kopen!
En als consument wordt je natuurlijk ook gedwongen je PC bij Dell te bestellen, niet? :). Dell is 1 van die uitzonderingen waar ik het over had. Idd, het is een grote, maar denk ook aan die duizenden lokale PC boertjes waar je gewoon een voorgebouwde PC kunt kopen en waar je wÚl de keuze hebt.
Wanneer er werk aan de winkel is wordt de videokaart ingeschakeld en worden de beelden die weergegeven moeten worden via de pci express-bus naar het systeemgeheugen gekopieerd.
Dat betekend dus dat er nog meer systeemgeheugen gebruikt wordt door de videokaart? Voor mij hoeft het al niet meer.
De techniek maakt gebruik van enkele features van Windows Vista SP1 en zal initieel niet ondersteund worden door andere besturingssystemen.
Nog erger, ik wil ook gewoon ubuntu kunnen draaien, en om elke keer die kabel te gaan zitten switchen tussen het mobo en de kaart is iets te veel gevraagd.
Tegenwoordig is het geheugen erg goedkoop en kan iedereen wel 128mb (bijvoorbeeld) missen. Je schakelt namelijk (als je een kaart hebt) automatisch over naar de kaart! Ik neem aan dat het gewoon gaat concurreren met de ingebouwde grafische chips!
Ik denk dat je het even niet snapt. Het is namelijk zo dat de onboard GPU altijd het beeld naar de monitor stuurt, ook als je extra GPU ingeschakeld wordt. Dan gaat het dus zo: je GPU berekent een frame, en in plaats van dat dit frame onmiddellijk door de beeldplug naar de monitor wordt geslingerd moet het eerst worden gekopieerd naar het systeem-RAM, zodat de onboard GPU dit beeld naar de monitor kan sturen.

Dat dit voor aanzienlijke nadelen zorgt lijkt me duidelijk om meerdere redenen:
  • De data gaat van RAM&CPU&HDD naar je GPU, die ze verwerkt tot een frame en die ze daarna nog eens terug moet sturen naar de RAM. Terwijl die frame door de PCI-Expr. wordt gestuurd naar de RAMs, kan je GPU dus ook geen nieuwe data ontvangen voor een nieuwe frame, terwijl die dat anders wel al kon (okÚ dit kan weggewerkt worden door een pipelining systeem, maar toch)
  • Je chipset heeft plots aanzienlijk meer werk, hij moet nu namelijk elk framepje nog eens kopiŰren naar de RAM's. Aan 50fps wordt dat toch al een serieuze load op die chipset.
  • Als je een GPU hebt met veel RAM's, dan moet dus dat volledig aantal ook van je systeem-RAM in beslag genomen worden. (bv. een 8800GT met 1Gb RAM zorgt dus voor 1Gb systeemRAM minder. Dit is toch wat meer dan die 128Mb die jij zegt)
  • Het systeemram is veeeeeeeeeeeeeel trager dan het GPU-RAM. Bij GPU's gebruiken ze nu al DDR4 geheugen dat op 2 - 2.5Ghz klokt met minimale latencies (en daarenboven nog geoptimaliseerd voor beeldverwerking => GDDR4), terwijl we met gewoon DDR3 systeemram nog niet eens de 2Ghz halen (mainstream dan toch)
Wat ik bv. interessanter vinden is als ze een adapter zouden meeleveren met pakweg 2 ingangen voor beeldsignaal en 1 uitgang die je dan op de monitor plugt, zodat in geval van lage load het beeld van de onboard GPU komt, en bij hoge load het beeldsignaal van de PCI-express GPU wordt gebruikt. Of is dit echt volledig onhaalbaar?

Hopelijk houdt mijn uitleg enigszins steek, maar zo zie ik het toch.
OkÚ, zat ik even mis :+
Feit blijft dat ik het een beetje een bizarre werkwijze vind. Het is toch een stap erbij binnen het systeem. En elke stap brengt vertragingen met zich mee denk ik...

[Reactie gewijzigd door darkjeric op 7 januari 2008 20:15]

Ik denk niet dat er evenveel systeemgeheugen gebruikt wordt als dat je grafisch geheugen heb. Het is alleen de berekende frame die doorgestuurd moet worden en niet een hele kopie van alle textures en weet ik veel wat allemaal zoals bij een standaard SLI opstelling.

Voor een beeld op te slaan heb je nu ook weer geen heel snel geheugen nodig lijkt me. PC6400 in dual channel zal daar al snel zat voor zijn.

Ik moet er wel bijzeggen dat ik de details van dit systeem ook niet ken maar ik kan me niet voorstellen dat alle gegevens uit het videoram domweg gekopiŰerd worden naar je systeemgeheugen.
Ik denk even dat jij het ook niet helemaal snapt.

1. Hoeveel werk de chipset moet doen is niet relevant: dat is immers niet de limiteerende factor.
2. Waarom zou je bij een 1GB videokaart 1GB systeemgeheugen moeten gebruiken? Je hoeft immers alleen de framebuffer te dupliceren.
3. GPU's gebruiken juist geen geheugen met minimale latencies: dat geheugen is geoptimaliseerd voor een maximale bandbreedte.
Er is net boven gestate dat 1 frame op een vrij hoge resolutie (2460x...)
1GB per seconde nodig heeft op 60FPS.

Je hebt dus uncompressed 16MB nodig van je werkgeheugen voor dit truukje. (kan elk frame overschreven worden natuurlijk).

Ik heb net 4GB DDR800 gekocht voor Ą85,- dus ik denk dat dit er wel vanaf kan :P
De data gaat van RAM&CPU&HDD naar je GPU
Data gaat vrijwel nooit van RAM en CPU (laat staan HDD) naar je GPU, want alle benodigde data staat in het geheugen van je videokaart. Alle textures en modellen worden tijdens het laden van een spel in videogeheugen gezet, juist om op de bandbreedte tussen CPU en GPU te besparen.
die ze verwerkt tot een frame en die ze daarna nog eens terug moet sturen naar de RAM.
Wie zegt dat het terug moet naar het RAM. Het zou best kunnen dat de IGP dit direct door kan streamen naar de monitor. Sterker nog, een dergelijke techniek lijkt me wel noodzakelijk om nog iets over te houden van je geheugenbandbreedte voor de CPU.
Terwijl die frame door de PCI-Expr. wordt gestuurd naar de RAMs, kan je GPU dus ook geen nieuwe data ontvangen voor een nieuwe frame, terwijl die dat anders wel al kon
PCI-E is full duplex, dus dit hoeft helemaal niet per se een probleem te zijn. Zelfs als het dat is blijft het een feit dat we het hier waarschijnlijk toch over PCI-E 2.0 chips hebben, en daarbij is bandbreedte echt niet het probleem.
Daarnaast is PCI-E bandbreedte meestal niet eens de bottleneck bij games.
Als je een GPU hebt met veel RAM's, dan moet dus dat volledig aantal ook van je systeem-RAM in beslag genomen worden.
Dit is misschien nodig bij ATI's Hybrid Crossfire techniek waar de IGP de discrete GPU onderstuent, maar uit de beschrijving maak ik niet op dat Hybrid-SLI de IGP werk gaat laten verrichten. Zoals ik het lees wordt er alleen data doorgegeven, dus dit kost geen extra geheugen.
Bij GPU's gebruiken ze nu al DDR4 geheugen dat op 2 - 2.5Ghz klokt met minimale latencies
GDDR met DDR zijn absoluut niet met elkaar te vergelijken.

EDIT:
Feit blijft dat ik het een beetje een bizarre werkwijze vind. Het is toch een stap erbij binnen het systeem. En elke stap brengt vertragingen met zich mee denk ik...
Oh ongetwijfeld zal het wel iets vertraging veroorzaken. Ik verwacht alleen niet dat het verschil echt merkbaar zal zijn. Misschien dat de echte tweaker het gaat merken in z'n 3D mark score ofzo, maar je hebt meer kans dat je het merkt in de energierekening.

[Reactie gewijzigd door Snoitkever op 7 januari 2008 20:51]

Zolang je niet gamed onder ubuntu geeft dat toch niks? Die geintegreerde gpu kan iig wel Beryl-acceleratie (is van naam veranderd geloof ik) doen aangezien het anders ook niet werkt met Aero.

En anders is het handig om een monitor met 2 ingangen te hebben. Dan kan je switchen als je in een OS wil gamen waar dit niet in werkt.
Ik hoop dat ze eraan hebben gedacht dat SLI support nog buggy as hell is in veel games, en dat er dus een optie blijft om NON-SLI stijl gewoon je primaire PCI-E VGA kaart te gebruiken zonder de "hulp" van je aanboord kaart :)
Ik vind dit een waanzinnig idee. Ik zal niet meer dan 1% van mn (computer) tijd aan (3d) spelletjes besteden, dus voor "mijn catagorie" computer users zal het veel kunnen besparen.
Als dit geen nadelige gevolgen heeft voor de prijs (en evenuteel een klein deel de prestaties) en als de ondersteuning goed is (zodat hij niet switcht naar de onboard chip wanneer dat neit nodig is, hoewel ik me dat niet echt oov rkan stellen) lijkt me dat dit alleen maar goed is toch?
Het is erg interessant, sinds ook de gamers onder ons vaak ook andere dingen doen naast gamen. :) Ik hoop alleen dat de koelers van de game kaarten uit gaan tijdens het gebruik maken van de geintegreerde chips!
Aangezien de 3dkaart uitgezet wordt lijkt me van wel, hij wordt zoiezo niet warm omdat ie niet aanstaat dus kan ie wel uit. Al kan het zijn dat je die miss niet meer op een stekker van het mobo kunt aansluiten (want die blijft natuurlijk wel stroom geven)
In mijn ogen echt een geweldig idee! Met zo'n chipset hoef je nooit meer je videokaart te underclocken via ATItool, etc. als je toch alleen maar aan het surfen bent of iets dergelijks. Ook bij de wat minder veeleisende games kan het energie besparen wat gewoon erg mooi is. Het is niet zozeer dat ik persoonlijk op de centen let of zo, maar ik vind het gewoon belachelijk dat m'n videokaart voor niks staat te ronken als je er weinig mee doet, net zoals de CPU (al heb je hier natuurlijk al energiebesparingstechnieken voor). Mooie uitvinding, ik hoop dat het ook lekker transparant zijn werk zal doen, dan is Jan-Modaal ook blij :)
Het idee is zeker geweldig en ik ben er ook helemaal voor.
Mijn 8600GT klokt standaard niet terug en zelfs als ik hem instel om dit te doen blijft hij vrolijk op dezelfde spanning als in 3D modus draaien :/

Een 2400Pro klokt dan weer wel terug maar wederom zonder spanningsverlaging.

Mijn oude 6600GT deed dit tenminste wel maar tegenwoordig zit deze feature blijkbaar niet meer in videokaarten :/
Goed idee, maar geen doorslaggevend verkoopargument op een desktop imo

Als ze ene soortgelijke techniek in een laptop steken daarentegen, ben ik meteen verkocht :) Ik hou van laptops met een dedicated chip, maar die dingen zuipen natuurlijk meer stroom. Als ze echt kunnen worden uitgezet als ze niet nodig zijn... :9

Zullen we in de toekomst laptops met 15uur batetrylife zien? wie weet :p Dit + SSD + led/oled displays + Penryn CPU's (net aangekondigd op CES2008) geeft iig een flinke boost :)
Ik las ook dat OEM's hier niet om zitten te springen, men zou telkes moeten rebooten om van ge´ntegreerd te veranderen naar videokaart en vice versa, dus niet on the fly. Daarbij kost het voor hen teveel. Ik ben wel voorstander, maar daarvoor wil ik geen vista installeren!!
Dat lijkt me onwaarschijnlijk, als het niet on-the-fly zou zijn dan is deze techniek totaal oninteressant. Dan kun je veel beter je videokaart gewoon underclocken...
Het switchen gaat on-the-fly, net als Intel Speedstep.
On a supported platform (capable GPU + capable motherboard, Windows only for now) an NVIDIA application will be active that controls the status of the HybridPower technology. When the computer is under a light load, the discrete GPU will be turned off entirely via the SMbus, and all rendering will be handled by the integrated GPU. If it needs more GPU power, the SMbus will wake up the discrete GPU and rendering will be taken over by it.
En de moederborden zullen ook niet meer kosten dan de huidige. Lijkt me dus een nuttige toevoeging.
NVIDIA is looking at this as a value-added feature of their nForce line and not something they want to be charging people for. What we are being told is that the new motherboards supporting this technology will not cost anything more than the motherboards they are replacing.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True