Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties, 24.023 views •

Intel heeft zijn nieuwste chipset, de Z68-chipset voor Sandy Bridge-processors, ge´ntroduceerd. Niet alleen kan worden geschakeld tussen de ge´ntegreerde gpu en een losse kaart, maar de chipset biedt ook ondersteuning voor ssd-caching.

Bij de introductie van de Sandy Bridge-processors in januari dit jaar stelde Intel twee chipset-families beschikbaar: de H67- en P67-series. De H67 kon beeld van de in de processors geïntegreerde gpu uitvoeren, maar was beperkt wat overklokken betreft; de baseclock en multipliers konden niet worden gewijzigd. Bij de P67-chipset was dit wel mogelijk, maar deze serie kon weer niet overweg met de gpu van de processors; een losse videokaart was verplicht.

De nieuwe Z68-chipset moet eigenschappen van de H67- en P67-chipsets combineren. Niet alleen kan de geïntegreerde gpu worden gebruikt, maar de cpu kan eveneens overgeklokt worden. Bovendien kan, wanneer een losse videokaart geïnstalleerd wordt, dankzij LucidLogix' Virtu-technologie geschakeld worden tussen de Sandy Bridge-gpu en de losse videokaart. Desgewenst kan de Sandy Bridge-gpu zelfs gebruikt worden om video's te transcoderen, terwijl tegelijk 3d-graphics van een spel worden uitgevoerd via de losse videokaart.

Een andere nieuwe feature is Intels Smart Response Technology. Met deze techniek kan een kleine solid state drive worden gebruikt als caching-tussenlaag tussen het besturingssysteem en een conventionele harde schijf. Veelgebruikte bestanden worden dan eerst naar de veel snellere ssd geschreven en daarvandaan gelezen, waarna de tragere interface naar de hdd gebruikt kan worden. Dat zou volgens Intel aanzienlijk betere prestaties moeten opleveren zonder de noodzaak om dure ssd's met grote capaciteit te kopen.

Intel Z68-chipset diagram

Reacties (74)

Reactiefilter:-174074+155+210+30
Verbruikt de losse videokaart dan enkel stroom wanneer ze ingeschakeld is? Of begrijp ik het verkeerd?
Ik denk wel dat die ten alle tijden aanstaat, tenzij je pc uitstaat. Een GPU moet, volgens mij, ook booten en dan heb je wel een fijne vertraging als hŔ hem wil gebruiken.

On topic:

Nu nog even wachten tot de X67? Of dan gewoon tot de nieuwe generatie nemen?
Hij staat wel aan, maar is zodanig underclocked dat het veel minder stroom gebruikt dan normaal, tot ie in actie moet komen.
Verbruik met videokaart: 85 watt
Verbruik zonder videokaart: 50 watt.

De testopstelling is verschillend, maar dit zal hooguit 5 of 10 watt uitmaken, geen 35.
Kortom: een videokaart extra betekent altijd extra verbruik. Virtu beperkt het stroomverbruik door bij grafische acties niet direct gebruik te maken van de losse videokaart.
Sorry maar wat een onzin; het testsysteem is totaal niet te vergelijken: het verschil in voeding en voltage alleen al kan zomaar 35W verschil opleveren in DC draw. Daarbij weet je niet wat het verschil in methodiek is. Deze twee resultaten zijn absoluut onvergelijkbaar. Dat blijkt ook al uit het feit dat die 6970 die gebruikt is in idle ~20W zou moeten verbruiken en dus nooit het verschil van 35W kan verklaren.
Zo'n ding kan gewoon in standby staan. De videobios is dan gewoon netjes geladen, dus zodra die nodig is kun je de videokaart uit de standby sleuren en hem gebruiken. Dat zal dan zo snel gaan dat je niet eens merkt dat het ding in standby stond.
Dan zal het wel niet lang duren voor fabrikanten van grafische kaarten komen aanlopen met een super coole naam voor een functie dat niets anders is dan je grafische kaart in stand-by te zetten :)
Eigenlijk bestaat dit al kijk maar naar Nvidia Optimus voor laptops, kan je ook wisselen tussen de IGP en de losse kaart. :Y)
Verder natuurlijk wel mooi dat computers steeds minder stroom gaan gebruiken.

[Reactie gewijzigd door Joey101 op 11 mei 2011 10:45]

Optimus is toch niet real time ? Daar moet je toch eerst je hele laptop voor restarten om op een andere kaart te werken ?
Nee hoor, dat hoeft helemaal niet. De GPU staat gewoon in standby, tot hij aangesproken wordt, daarvoor hoef je je notebook niet te restarten. Althns, niet met de nieuwe generatie. Ik heb toevallig vorige week een MSI CX640 getest met Nvidia Optimus, en daar kon ik gewoon van de GPU gebruik maken als ik wilde. Ik kon zelfs kiezen welke GPU de applicatie moest gebruiken, de GT520M, of de IGP.
Dit systeem heb ik ook van ATI, een Radeon 9600 naast de IGP van m'n Lenovo W500. Ik schakel feitelijk nooit, want het is teveel gedoe met een nieuwe schermopbouw en ach, laptop hangt toch 99% van de tijd aan de stroom :P
Optimus werkt een tikkeltje anders, deze probeert zelf te bepalen of er (on the fly) geschakeld dient te worden.

"Optimus dient net als Hybrid SLI het beste van twee werelden te combineren: enerzijds een lange accuduur met behulp van een zuinige ge´ntegreerde grafische chip, anderzijds uitstekende grafische prestaties dankzij een krachtigere discrete GPU. Hoewel Hybrid SLI ditzelfde probeerde te bereiken, bleek het in de praktijk weinig succesvol. Dit kwam onder meer doordat de gebruiker handmatig moest schakelen tussen de twee grafische chips en doordat het overzetten van het beeldsignaal van de ene chip naar de ander resulteerde in een zwart of knipperend scherm voor 5 Ó 10 seconden. Apple was een van de weinige fabrikanten die Hybrid SLI veelvuldig toepaste in haar MacBook Pro serie, maar daar bleek zelfs een herstart of opnieuw inloggen een vereiste om te schakelen tussen beide videochips.

Met Optimus is er veel veranderd, zowel software- als hardwarematig, en de technologie maakt dankbaar gebruik van het feit dat Windows 7 twee grafische chips van verschillende makelij tegelijkertijd kan aansturen. Optimus moet alle minpunten van Hybrid SLI oplossen. Zo gebeurt schakelen tussen twee videochips volledig automatisch, is er met 200 ms vrijwel geen sprake meer van een vertraging tijdens het schakelen en wordt het beeld gedurende deze periode bovendien niet zwart of knipperend."

http://nl.hardware.info/reviews/1658/nvidia-optimus-preview

[Reactie gewijzigd door sdk1985 op 11 mei 2011 12:11]

Ligt ook voor een deel aan je OS.
Met windows 7 Starter bijvoorbeeld kun je niet wisselen tussen de GPU's zonder opnieuw op te starten.
Met Windows 7 Home Premium kan je wel gewoon wisselen.

Bron: zie 2e alinea
Vergeet niet Hybrid Crossfire van AMD welke al enkele jaren werkt. Tweakers testte dit in april 2008. Nvidia Optimus is wel met een iets ander doel voor ogen uitgewerkt, meer om stroom te besparen, de versie van AMD is echter beter in staat om samen te werken, Crossfire ipv 1 van de 2 grafische kernen gebruiken.

Wat Intel nu probeert is natuurlijk erg fijn voor het stroomverbruik, hopelijk slaat het dan ook meer aan dan Optimus en Hybrid Crossfire en wordt het algemeen goed. AMD zal met Llano op de FM1 socket ook vergelijkbaars ondersteunen, zij het dat de APU van AMD behoorlijk wat meer grafische kracht zal hebben dan de ingebakken GPU van Intel. Ik ben dan ook benieuwd naar de eerste directe vergelijkingen tussen deze twee, en of AMD net als Intel in staat zal zijn willekeurige videokaarten samen te laten werken met de APU en niet alleen met de 2-3 kaarten die Hybrid Crossfire ondersteunen, maar ook b.v. een Nvidia kaart + AMD APU. Gelukkig is het bijna juni.
Momenteel zetten ze de GPU in een idle mode (bij de eerste beta versies schakelden niet alle GPUs correct over naar idle), maar het zit in hun planning om GPU volledig uit te schakelen.
ik denk dat dit een beetje hetzlefde idee is als van de macbook pro's ;)
Misschien een domme vraag, maar waar moet men dan eigenlijk de monitor op aansluiten? op de losse videokaart of op de onboard aansluiting?
Vermoedelijk loopt dit dan via de onboard GPU.
In het schema is dit ook afleesbaar.
De losse GPU wordt aangesloten op de CPU met de onboard GPU.
De aansturing zal gaan via de chipset, dus naar alle verwachting sluit je de monitor aan via de onboard GPU poort.

[Reactie gewijzigd door mayckelvz op 11 mei 2011 10:43]

Bij de Lucid technologie zijn er twee opties. De videokaart (die dan wel altijd aan moet staan en dus extra stroom verbruikt) of de IGP. Het tweede is dus zuiniger maar het eerste werkt met meer spellen samen.
Bij mijn laptop werkt de techniek als volgt.
de IGP is ingeschakeld, op het moment dat ik een game start dan worden de berekeningen uitgevoerd door de GPU en deze stuurt deze door naar de interface van de IGP welke het presenteerd op mijn scherm.
Dit is trouwens nvidia optimus technologie.

Hoe het gaat werken in desktops heb ik geen idee maar ik denk ongeveer hetzelfde.
Waarom bouwt Intel Thunderbolt niet in de chipset in? USB 3 zou natuurlijk ook leuk zijn, maar als Intel dan denkt dat Thunderbolt het antwoord op alles is en alle andere connectors moet vervangen, waarom pushen ze het dan niet wat meer?
Waarom bouwt Intel Thunderbolt niet in de chipset in?
Integratie van zowel Thunderbolt als USB 3.0 staat geplant voor de volgende chipset generatie (Ivy Bridge)

Intel Ivy Bridge Getting USB 3.0, Thunderbolt
Momenteel is de Thunderbolt controller nog een behoorlijk forse IC met aardig wat rekenkracht, terwijl een USB controller eigenlijk best simpel is en grotendeels op de CPU leunt. Ik denk dat het simpelweg te veel werk en tijd kost om de Thunderbolt controller in de chipset te integreren, en dat we dat in een volgende revisie pas gaan zien. Het is nog best behoorlijk nieuwe technologie.

Overigens interessant om te vermelden is nog dat deze chipset al in de laatste generatie iMacs zit, en dus eigenlijk al officieus 'geintroduceerd' is.
Momenteel is de Thunderbolt controller nog een behoorlijk forse IC
Dat heeft te maken met het feit dat de controller rechtstreeks aan de PCIe bus hangt en daarvoor zijn nogal wat pennetjes nodig.
De chip zelf is niet veel groter dan die van een dedicated ethernet controller.

[Reactie gewijzigd door Carbon op 11 mei 2011 11:52]

Het beste uit twee werelden! Althans dat zou je denken. Het is best wel tegenstrijdig, een moederboard dat goed overclockbaar is (hetgeen meer energie kost) en aan de andere kant kan schakelen tussen de IGP en de GPU (energie besparing).

De toegevoegde functionaliteit ISRT lijkt mij wel weer interessant, mits de prijzen van kleine SSD scherp zijn. Anders kan je net zo goed een deticated SSD aanschaffen voor het OS.

Wel ben ik benieuwd op welke video-out je de monitor aansluit. Onboard of op de GPU. In het laatste geval zal de GPU nog altijd gebruikt moeten worden voor het uitsturen van beeld en vraag ik mij af hoe zuinig het geheel dan wordt. In het eerste geval kunnen we overstappen naar GPU zonder uitgangen. ( ;) )

[Reactie gewijzigd door mcsluis op 11 mei 2011 10:40]

Zo tegenstrijdig is het niet hoor, een videokaart kan aardig wat slurpen, dat bespaart al behoorlijk wat, ook al heb je je CPU ook nog eens overclocked lopen. Het is sowieso een stuk zuiniger als je videokaart de hele tijd te laten lopen.
Daarbij kun je waarschijnlijk net als op de P67 het wel voor elkaar krijgen dat het systeem alsnog gewoon van EIST gebruik kan maken, maar enkel in de turbo naar flink hoge snelheden gaat.

Je sluit de monitor aan op de IGP (niet onboard, die hebben we niet), en de framebuffer wordt dan doorgestuurd van de videokaart naar de IGP om zo beeld te geven. Althans, dat is mijn vermoeden, het is dezelfde manier die Nvidia gebruikt met hun optimus technologie.

[Reactie gewijzigd door TERW_DAN op 11 mei 2011 10:49]

Er is geen technische reden waarom een dedicated video kaart meer energie zou moeten verbruiken dan een IGP op de CPU. Een dedicated GPU kan immers ook shaders uitschakelen en de hele chip terug klokken, voltage verlagen etc.

Met andere woorden, deze oplossing is een hack. Het schakelen tussen de twee video chips zal altijd een complete heropbouw van het beeld kosten (de opgebouwde state is immers niet aanwezig in de andere chip z'n geheugen) dus soepel zal dit nooit lopen. Dit is echter wel een signaal aan nVidia en AMD om het idle verbruik van hun grafische kaarten nu eens goed aan te pakken.

Dan over EIST ("SpeedStep"), dit is een technologie die feitelijk nutteloos is mits er fatsoenlijk gebruik gemaakt word van de C1E/C3 cpu states. Dit komt omdat als de CPU een taak moet uitvoeren, dit het best op volle snelheid kan gebeuren, zodat ie dan sneller weer in sleep mode kan gaan (C3). Op de lange termijn bespaart dit meer energie dan het dynamisch terug klokken van de CPU. Bovendien activeert TurboBoost alleen als alle cores op X na (afhankelijk van het model CPU) in C3 state staan.
Daarbij kun je waarschijnlijk net als op de P67 het wel voor elkaar krijgen dat het systeem alsnog gewoon van EIST gebruik kan maken, maar enkel in de turbo naar flink hoge snelheden gaat.
Precies. Mijn Asrock P67 Pro3 icm een 2500K(turbo op 42x100Mhz),2x2 GB geheugen en een GTX 560 Ti verbruikt in idle maar 0,058 kWh. Dat levert alweer een aanzienlijke besparing op tov het vorige systeem.

edit: Gezien de reacties hieronder toch maar even iets aangepast. Wil vooral haarbal bedanken voor zijn bijzonder constructieve bijdrage ;)

[Reactie gewijzigd door pcgek op 11 mei 2011 19:11]

watt per uur
:X
Wattuur per uur bedoel je? Simpel gezegd gebruikt je pc dus 58 Watt.
simpel gezegd ja, 1 KiloWatt/uur betekend eigenlijk dat dat apparaat een verbruik heeft van 1KiloWatt. als je hem dan 1 uur aanlaatstaan heeft hij 1 KW : 1 uur = 1KW/U. Dit komt overeen met 1000 W (1 Watt= 1 Joule per seconde) dus heb je, 1 uur is 3600 seconden, Met de formule Energie= vermogen ( 1KW/U) X tijd (3600 sec) dus heb je 3.6 miljoen Joule verstookt.

58 Watt zou dan 58x3600=208800 Joule zijn.

On-topic: zat er op te wachten, alleen weet nog niet echt de voordelen, ssd-caching en schakelen tussen onboard of andere GPU. leuk en aardig maar ze moeten zich voor mij nog bewijzen.
Een en ander over de verschillende manieren om je monitor aan te sluiten bij de combinatie van onboard en discrete GPU kun je vinden in het artikel van AnandTech.
Ik denk dat je net als een tv die stand-by staat een paar watt verbruikt.
in dat geval kan je een monster PC bouwen maar als je geen game aan het spelen bent verbruik je niet zoveel energie als je van GPU wisselt.

Ideaal!
Ik kan Intel op het moment niet echt vooruitdenkend noemen, waarom introduceren ze tegenwoordig nog een chipset zonder USB 3.0. Dat lijkt mij toch een vereiste.
Waarschijnlijk een beetje om Thunderbolt te promoten
Jammer genoeg zit dit ook nog niet in die chipset. Raar dat de nieuwste iMacs (die dezelfde chipset hebben) maar liefst twee kanalen daarcoor beschikbaar hebben. Je zou toch verwachten dat als Apple het kan het Intel zeker wel moet lukken?

Aan de andere kant hebben er nog maar weinig moederbord bakkers interesse getoont in TB, terwijl het best wel een goede techniek is.
Dat begrijp je verkeerd denk ik. De eerste reviews die ik al heb gezien, laten zien dat een Asrock extreme 4 moederbord met en zonder gpu een ander verbruik laten zien (verschil van 20 tot 30 watt). Ik heb het dan over idle verbruik.
De enige energiebesparing die je hier mee hebt is dat op het moment dat je eenvoudige 2d en 3d taken uitvoert niet gelijk de gpu ingeschakeld wordt, maar de ge´ntegreerde graphics van de cpu, die een stuk zuiniger is.
Ik ga er van uit dat deze dan in een soort slaapstand staat. Hij zal nog wel wat verbruiken, maar aanzienlijk minder. Denk aan een televisie die op standby nog steeds 1 to 3W verbruikt.
Extra laagje cache hmm ben eigenlijk wel benieuwd of het ook Úcht werkt en merkbaar is.

De discussie om SSD's al primaire schijf gebruiken, ja het is veel sneller maar zijn de kosten het ook waard is een perceptie in de ogen van de gebruiker, voor mij (nog) niet, maar naar mate de tijd voorschrijdt wordt het intressanter om een ssd als primaire schijf te gebruiken.

Deze hybride techniek om een ssd schijf als caching te gebruiken klinkt voor mensen zoals mij een godsgeschenk maar vraag me af of ze er op tijd mee zijn... en daarnaast of het ook echt een fatsoenlijke snelheidswinst met zich mee gaat brengen.
Waar ik benieuwd naar ben is, is het de investering waard of kan men beter 16GB RAM plaatsen en daar meer mee laten doen. Lijkt me ook veel sneller en nuttiger bij meer applicaties.

SSD caching is in deze vorm, volgens mij, niets meer als het plaatsen van Superfetch en wisselbestand inhoud op een apart diskje/dingetje/frutje.....
wat dus eigenlijk het gebruik van de hybrid drives van seagate opheft, aangezien intel met z'n chipset ongeveer hetzelfde verwezelijkt.
Hoewel de hybrid schijven nog steeds interessant blijven voor laptops ea. door het plaatsgebrek.
Ik vraag me af of het mogelijk is om de ssd caching aan te zetten indien het om een pci-x ssd gaat, aangezien dat me toch interessanter lijkt voor laptops. (vele laptops hebben nl maar 1 drivebay tenzij je de dvd/bluray combo eruit haalt.)
De caching zal waarschijnlijk via de controller geregeld worden, als je dan gebruik gaat maken van externe controllers, die je ook op een PCIe SSD hebt (PCI-X SSDs zijn er bij mijn weten niet, daarbij heb je geen PCI-X sloten op deze borden), dan zal dit niet zonder meer via de chipset aangestuurd kunnen worden. Dus of dat ook helemaal gaat werken heb ik zo m'n twijfels over.
Het zou wel leuk zijn als ik een externe controller ook kon gebruiken. SSD caching icm een leuke RAID6 array op een echte controller, dat klinkt best lekker :)

[Reactie gewijzigd door TERW_DAN op 11 mei 2011 12:40]

Waarschijnlijk bedoelt meneer het mini PCI-e slot waar veelal een wifikaart aanhangt.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True