Intel introduceert Z68-chipset

Intel heeft zijn nieuwste chipset, de Z68-chipset voor Sandy Bridge-processors, geïntroduceerd. Niet alleen kan worden geschakeld tussen de geïntegreerde gpu en een losse kaart, maar de chipset biedt ook ondersteuning voor ssd-caching.

Bij de introductie van de Sandy Bridge-processors in januari dit jaar stelde Intel twee chipset-families beschikbaar: de H67- en P67-series. De H67 kon beeld van de in de processors geïntegreerde gpu uitvoeren, maar was beperkt wat overklokken betreft; de baseclock en multipliers konden niet worden gewijzigd. Bij de P67-chipset was dit wel mogelijk, maar deze serie kon weer niet overweg met de gpu van de processors; een losse videokaart was verplicht.

De nieuwe Z68-chipset moet eigenschappen van de H67- en P67-chipsets combineren. Niet alleen kan de geïntegreerde gpu worden gebruikt, maar de cpu kan eveneens overgeklokt worden. Bovendien kan, wanneer een losse videokaart geïnstalleerd wordt, dankzij LucidLogix' Virtu-technologie geschakeld worden tussen de Sandy Bridge-gpu en de losse videokaart. Desgewenst kan de Sandy Bridge-gpu zelfs gebruikt worden om video's te transcoderen, terwijl tegelijk 3d-graphics van een spel worden uitgevoerd via de losse videokaart.

Een andere nieuwe feature is Intels Smart Response Technology. Met deze techniek kan een kleine solid state drive worden gebruikt als caching-tussenlaag tussen het besturingssysteem en een conventionele harde schijf. Veelgebruikte bestanden worden dan eerst naar de veel snellere ssd geschreven en daarvandaan gelezen, waarna de tragere interface naar de hdd gebruikt kan worden. Dat zou volgens Intel aanzienlijk betere prestaties moeten opleveren zonder de noodzaak om dure ssd's met grote capaciteit te kopen.

Intel Z68-chipset diagram

Door Willem de Moor

Redacteur

11-05-2011 • 10:30

74

Reacties (74)

74
74
55
10
0
7
Wijzig sortering
Wel jammer dat SSD caching nogal tegen lijkt te vallen volgens Anandtech:
http://www.anandtech.com/...nology-ssd-caching-review
Volgens mij valt dat tegenvallen wel mee, het geeft een behoorlijke prestatie boost zeker na verloop van tijd.
Het systeem moet ook leren, daarbij raad Anand wel minimaal 40GB aan ipv de 20GB disk en mooier nog, je kan iedere SSD gebruiken voor dit systeem tot 64GB aan cache kun je toevoegen aan je reguliere disk.
Dit is voor mij een reden te wachten met de aanschaf van een sandy bridge, nog even wat reviews lezen en wachten tot iemand de beste combinatie weet te vinden tussen mechanische disk en SSD.

hier overigens nog een review van hardware.info:
http://nl.hardware.info/r...smart-response-technology

[Reactie gewijzigd door TheTeek op 26 juli 2024 02:57]

Tot 64GB max, daarboven kan je de rest normaal gebruiken cq een partitie maken.
Als ik naar mezelf kijk, vind ik het vrij nutteloze feature; alles wat SSD speed kan gebruiken staat al op mijn 80GB SSD, media en games staan op de harddisk. Die ip principe, weinig tot geen voordeel hebben aan ssd-speeds.
Minimaal 64GB is voor iedereen wel te betalen voor een SSD. Zet daar gewoon je OS en apps op en gebruik de hdd voor massaopslag en games. Zou echt geen ruimte van de SSD willen inleveren voor "cache" van de harddisk. Een vollere SSD word nml. ook weer trager.
dan heb jij de review van Anand nog niet gezien, er is toch behoorlijk wat performance te halen uit een SSD bij het laden van games, zeker bij het switchen van levels, daar er veel data uit de cache (in het geval van de SRT) gehaald word die al eerder is geladen bij een vorig level.

Nog een voordeel van dit systeem is dat je niet hoeft na te denken over wat je op de fysieke disk zet en wat op de SSD, de technology zorgt daar zelf voor.
Maar in combinatie met een SSD voor alleen het OS en de smart response (cache+disk) heb je voor een redelijk binnen de perken gesteld budget een mega "responsive" systeem... :*)
Ik weet niet wat jij tegen vind vallen maar als ik even in 3 seconden over de benchmarks heen kijk zie ik al snel een halvering van de laad en boottijden.......

Anand schrijft :

These are pretty big improvements! Boot time and multitasking immediately after boot also benefit tremendously:


misch. nog eens lezen ?
DIt is ook het enige waar het wat voordeel geeft. Maar zelfs dit is imo niet genoeg om een SSD als cache drive in te zetten.
He? Heb je het artikel wel gelezen? Arnandtech zegt:
I believe there's a real future in SRT,
en
Application & Game Launch Performance: Virtually Indistinguishable from an SSD
Het grootste probleem in de test heeft te maken met de kleine SSD die gebruikt is, mensen die veel verschillende data door elkaar gebruiken krijgen te maken met het feit dat de SSD geregeld het programma wat men gebruikt uit de cache gooit. De oplossing is natuurlijk simpel: een grotere SSD.....

Blijft over het tweede "probleem" dat de installatie van software trager is dan op een SSD. Goh? Echt? Maar aangezien je op een bootdrive ook niet veel plaats hebt en dus applicaties op de HDD moet zetten is dit eigenlijk maar een klein punt. SSD caching is volgens ArnandTech dus overduidelijk wel interessant al kan het natuurlijk altijd beter en zou het ook op andere chipsets moeten kunnen werken. Misschien toch maar even terug naar de basisschool en opnieuw leren lezen?
Heb het artikel wel gelezen. Inderdaad is er een voordeel bij app & game launch, maar voor de rest komt het niet eens in de buurt van een gewone SSD (wat ook niet zo vreemd is).
Beetje mosterd na de maaltijd chipset.

De toegevoegde waarde voor SSD caching lijkt mij onaantrekkelijk voor vele gebruikers. De investering voor een complete (boot-)SSD is veel aantrekkelijker!
Doch is de investering in een kleine (goedkope) SSD misschien mooi meegenomen voor wie slechts zijn bestaande HDD wilt bijstaan.
Voor wie geinteresseerd is en geen Z68-chipset kan of wilt halen: leesvoer.

Of er volledig profijt uit het samensmelten van H- en P67 chipsets moet nog maar zichzelf bewijzen. De eigenschappen voor tunen vallen onder categorie high-end user wat eigenlijk overdreven is (bijna elk nieuw moederbord heeft een leuk toverknopje ingebouwd of software bijgeleverd waardoor het zo'n knopje ontstaat!)

Kiest men nu voor een energiezuinige all-in-one solution voor de geïntegreerde GPU of juist voor de prestaties en "het voor lief nemen van" een grafische kaart?

Naar mijn mening is dit een gat overbruggen waar je makkelijk overheen kan stappen en dus een publiek aanspreken wat doof of slechthorend is.
Uitfaseren van P67 chipset?

Een kleine review van Z68 chipset: hier.

Idee dat Tweakers.net zijn eigen ervaring hierin eens gaat uiten?

[Reactie gewijzigd door T.Rijkers op 26 juli 2024 02:57]

Waarom bouwt Intel Thunderbolt niet in de chipset in? USB 3 zou natuurlijk ook leuk zijn, maar als Intel dan denkt dat Thunderbolt het antwoord op alles is en alle andere connectors moet vervangen, waarom pushen ze het dan niet wat meer?
Momenteel is de Thunderbolt controller nog een behoorlijk forse IC met aardig wat rekenkracht, terwijl een USB controller eigenlijk best simpel is en grotendeels op de CPU leunt. Ik denk dat het simpelweg te veel werk en tijd kost om de Thunderbolt controller in de chipset te integreren, en dat we dat in een volgende revisie pas gaan zien. Het is nog best behoorlijk nieuwe technologie.

Overigens interessant om te vermelden is nog dat deze chipset al in de laatste generatie iMacs zit, en dus eigenlijk al officieus 'geintroduceerd' is.
Momenteel is de Thunderbolt controller nog een behoorlijk forse IC
Dat heeft te maken met het feit dat de controller rechtstreeks aan de PCIe bus hangt en daarvoor zijn nogal wat pennetjes nodig.
De chip zelf is niet veel groter dan die van een dedicated ethernet controller.

[Reactie gewijzigd door Carbon op 26 juli 2024 02:57]

Waarom bouwt Intel Thunderbolt niet in de chipset in?
Integratie van zowel Thunderbolt als USB 3.0 staat geplant voor de volgende chipset generatie (Ivy Bridge)

Intel Ivy Bridge Getting USB 3.0, Thunderbolt
Het beste uit twee werelden! Althans dat zou je denken. Het is best wel tegenstrijdig, een moederboard dat goed overclockbaar is (hetgeen meer energie kost) en aan de andere kant kan schakelen tussen de IGP en de GPU (energie besparing).

De toegevoegde functionaliteit ISRT lijkt mij wel weer interessant, mits de prijzen van kleine SSD scherp zijn. Anders kan je net zo goed een deticated SSD aanschaffen voor het OS.

Wel ben ik benieuwd op welke video-out je de monitor aansluit. Onboard of op de GPU. In het laatste geval zal de GPU nog altijd gebruikt moeten worden voor het uitsturen van beeld en vraag ik mij af hoe zuinig het geheel dan wordt. In het eerste geval kunnen we overstappen naar GPU zonder uitgangen. ( ;) )

[Reactie gewijzigd door mcsluis op 26 juli 2024 02:57]

Zo tegenstrijdig is het niet hoor, een videokaart kan aardig wat slurpen, dat bespaart al behoorlijk wat, ook al heb je je CPU ook nog eens overclocked lopen. Het is sowieso een stuk zuiniger als je videokaart de hele tijd te laten lopen.
Daarbij kun je waarschijnlijk net als op de P67 het wel voor elkaar krijgen dat het systeem alsnog gewoon van EIST gebruik kan maken, maar enkel in de turbo naar flink hoge snelheden gaat.

Je sluit de monitor aan op de IGP (niet onboard, die hebben we niet), en de framebuffer wordt dan doorgestuurd van de videokaart naar de IGP om zo beeld te geven. Althans, dat is mijn vermoeden, het is dezelfde manier die Nvidia gebruikt met hun optimus technologie.

[Reactie gewijzigd door TERW_DAN op 26 juli 2024 02:57]

Er is geen technische reden waarom een dedicated video kaart meer energie zou moeten verbruiken dan een IGP op de CPU. Een dedicated GPU kan immers ook shaders uitschakelen en de hele chip terug klokken, voltage verlagen etc.

Met andere woorden, deze oplossing is een hack. Het schakelen tussen de twee video chips zal altijd een complete heropbouw van het beeld kosten (de opgebouwde state is immers niet aanwezig in de andere chip z'n geheugen) dus soepel zal dit nooit lopen. Dit is echter wel een signaal aan nVidia en AMD om het idle verbruik van hun grafische kaarten nu eens goed aan te pakken.

Dan over EIST ("SpeedStep"), dit is een technologie die feitelijk nutteloos is mits er fatsoenlijk gebruik gemaakt word van de C1E/C3 cpu states. Dit komt omdat als de CPU een taak moet uitvoeren, dit het best op volle snelheid kan gebeuren, zodat ie dan sneller weer in sleep mode kan gaan (C3). Op de lange termijn bespaart dit meer energie dan het dynamisch terug klokken van de CPU. Bovendien activeert TurboBoost alleen als alle cores op X na (afhankelijk van het model CPU) in C3 state staan.
Daarbij kun je waarschijnlijk net als op de P67 het wel voor elkaar krijgen dat het systeem alsnog gewoon van EIST gebruik kan maken, maar enkel in de turbo naar flink hoge snelheden gaat.
Precies. Mijn Asrock P67 Pro3 icm een 2500K(turbo op 42x100Mhz),2x2 GB geheugen en een GTX 560 Ti verbruikt in idle maar 0,058 kWh. Dat levert alweer een aanzienlijke besparing op tov het vorige systeem.

edit: Gezien de reacties hieronder toch maar even iets aangepast. Wil vooral haarbal bedanken voor zijn bijzonder constructieve bijdrage ;)

[Reactie gewijzigd door pcgek op 26 juli 2024 02:57]

Wattuur per uur bedoel je? Simpel gezegd gebruikt je pc dus 58 Watt.
Anoniem: 392481 @mtsr11 mei 2011 18:29
simpel gezegd ja, 1 KiloWatt/uur betekend eigenlijk dat dat apparaat een verbruik heeft van 1KiloWatt. als je hem dan 1 uur aanlaatstaan heeft hij 1 KW : 1 uur = 1KW/U. Dit komt overeen met 1000 W (1 Watt= 1 Joule per seconde) dus heb je, 1 uur is 3600 seconden, Met de formule Energie= vermogen ( 1KW/U) X tijd (3600 sec) dus heb je 3.6 miljoen Joule verstookt.

58 Watt zou dan 58x3600=208800 Joule zijn.

On-topic: zat er op te wachten, alleen weet nog niet echt de voordelen, ssd-caching en schakelen tussen onboard of andere GPU. leuk en aardig maar ze moeten zich voor mij nog bewijzen.
Een en ander over de verschillende manieren om je monitor aan te sluiten bij de combinatie van onboard en discrete GPU kun je vinden in het artikel van AnandTech.
Anoniem: 272414 11 mei 2011 10:33
Verbruikt de losse videokaart dan enkel stroom wanneer ze ingeschakeld is? Of begrijp ik het verkeerd?
Ik denk wel dat die ten alle tijden aanstaat, tenzij je pc uitstaat. Een GPU moet, volgens mij, ook booten en dan heb je wel een fijne vertraging als hè hem wil gebruiken.

On topic:

Nu nog even wachten tot de X67? Of dan gewoon tot de nieuwe generatie nemen?
Hij staat wel aan, maar is zodanig underclocked dat het veel minder stroom gebruikt dan normaal, tot ie in actie moet komen.
Verbruik met videokaart: 85 watt
Verbruik zonder videokaart: 50 watt.

De testopstelling is verschillend, maar dit zal hooguit 5 of 10 watt uitmaken, geen 35.
Kortom: een videokaart extra betekent altijd extra verbruik. Virtu beperkt het stroomverbruik door bij grafische acties niet direct gebruik te maken van de losse videokaart.
Sorry maar wat een onzin; het testsysteem is totaal niet te vergelijken: het verschil in voeding en voltage alleen al kan zomaar 35W verschil opleveren in DC draw. Daarbij weet je niet wat het verschil in methodiek is. Deze twee resultaten zijn absoluut onvergelijkbaar. Dat blijkt ook al uit het feit dat die 6970 die gebruikt is in idle ~20W zou moeten verbruiken en dus nooit het verschil van 35W kan verklaren.
Dan zal het wel niet lang duren voor fabrikanten van grafische kaarten komen aanlopen met een super coole naam voor een functie dat niets anders is dan je grafische kaart in stand-by te zetten :)
Eigenlijk bestaat dit al kijk maar naar Nvidia Optimus voor laptops, kan je ook wisselen tussen de IGP en de losse kaart. :Y)
Verder natuurlijk wel mooi dat computers steeds minder stroom gaan gebruiken.

[Reactie gewijzigd door Joey101 op 26 juli 2024 02:57]

Vergeet niet Hybrid Crossfire van AMD welke al enkele jaren werkt. Tweakers testte dit in april 2008. Nvidia Optimus is wel met een iets ander doel voor ogen uitgewerkt, meer om stroom te besparen, de versie van AMD is echter beter in staat om samen te werken, Crossfire ipv 1 van de 2 grafische kernen gebruiken.

Wat Intel nu probeert is natuurlijk erg fijn voor het stroomverbruik, hopelijk slaat het dan ook meer aan dan Optimus en Hybrid Crossfire en wordt het algemeen goed. AMD zal met Llano op de FM1 socket ook vergelijkbaars ondersteunen, zij het dat de APU van AMD behoorlijk wat meer grafische kracht zal hebben dan de ingebakken GPU van Intel. Ik ben dan ook benieuwd naar de eerste directe vergelijkingen tussen deze twee, en of AMD net als Intel in staat zal zijn willekeurige videokaarten samen te laten werken met de APU en niet alleen met de 2-3 kaarten die Hybrid Crossfire ondersteunen, maar ook b.v. een Nvidia kaart + AMD APU. Gelukkig is het bijna juni.
Optimus is toch niet real time ? Daar moet je toch eerst je hele laptop voor restarten om op een andere kaart te werken ?
Dit systeem heb ik ook van ATI, een Radeon 9600 naast de IGP van m'n Lenovo W500. Ik schakel feitelijk nooit, want het is teveel gedoe met een nieuwe schermopbouw en ach, laptop hangt toch 99% van de tijd aan de stroom :P
Optimus werkt een tikkeltje anders, deze probeert zelf te bepalen of er (on the fly) geschakeld dient te worden.

"Optimus dient net als Hybrid SLI het beste van twee werelden te combineren: enerzijds een lange accuduur met behulp van een zuinige geïntegreerde grafische chip, anderzijds uitstekende grafische prestaties dankzij een krachtigere discrete GPU. Hoewel Hybrid SLI ditzelfde probeerde te bereiken, bleek het in de praktijk weinig succesvol. Dit kwam onder meer doordat de gebruiker handmatig moest schakelen tussen de twee grafische chips en doordat het overzetten van het beeldsignaal van de ene chip naar de ander resulteerde in een zwart of knipperend scherm voor 5 à 10 seconden. Apple was een van de weinige fabrikanten die Hybrid SLI veelvuldig toepaste in haar MacBook Pro serie, maar daar bleek zelfs een herstart of opnieuw inloggen een vereiste om te schakelen tussen beide videochips.

Met Optimus is er veel veranderd, zowel software- als hardwarematig, en de technologie maakt dankbaar gebruik van het feit dat Windows 7 twee grafische chips van verschillende makelij tegelijkertijd kan aansturen. Optimus moet alle minpunten van Hybrid SLI oplossen. Zo gebeurt schakelen tussen twee videochips volledig automatisch, is er met 200 ms vrijwel geen sprake meer van een vertraging tijdens het schakelen en wordt het beeld gedurende deze periode bovendien niet zwart of knipperend."

http://nl.hardware.info/reviews/1658/nvidia-optimus-preview

[Reactie gewijzigd door sdk1985 op 23 juli 2024 13:50]

Nee hoor, dat hoeft helemaal niet. De GPU staat gewoon in standby, tot hij aangesproken wordt, daarvoor hoef je je notebook niet te restarten. Althns, niet met de nieuwe generatie. Ik heb toevallig vorige week een MSI CX640 getest met Nvidia Optimus, en daar kon ik gewoon van de GPU gebruik maken als ik wilde. Ik kon zelfs kiezen welke GPU de applicatie moest gebruiken, de GT520M, of de IGP.
Ligt ook voor een deel aan je OS.
Met windows 7 Starter bijvoorbeeld kun je niet wisselen tussen de GPU's zonder opnieuw op te starten.
Met Windows 7 Home Premium kan je wel gewoon wisselen.

Bron: zie 2e alinea
Zo'n ding kan gewoon in standby staan. De videobios is dan gewoon netjes geladen, dus zodra die nodig is kun je de videokaart uit de standby sleuren en hem gebruiken. Dat zal dan zo snel gaan dat je niet eens merkt dat het ding in standby stond.
Momenteel zetten ze de GPU in een idle mode (bij de eerste beta versies schakelden niet alle GPUs correct over naar idle), maar het zit in hun planning om GPU volledig uit te schakelen.
ik denk dat dit een beetje hetzlefde idee is als van de macbook pro's ;)
Misschien een domme vraag, maar waar moet men dan eigenlijk de monitor op aansluiten? op de losse videokaart of op de onboard aansluiting?
Vermoedelijk loopt dit dan via de onboard GPU.
In het schema is dit ook afleesbaar.
De losse GPU wordt aangesloten op de CPU met de onboard GPU.
De aansturing zal gaan via de chipset, dus naar alle verwachting sluit je de monitor aan via de onboard GPU poort.

[Reactie gewijzigd door mayckelvz op 26 juli 2024 02:57]

Bij de Lucid technologie zijn er twee opties. De videokaart (die dan wel altijd aan moet staan en dus extra stroom verbruikt) of de IGP. Het tweede is dus zuiniger maar het eerste werkt met meer spellen samen.
Bij mijn laptop werkt de techniek als volgt.
de IGP is ingeschakeld, op het moment dat ik een game start dan worden de berekeningen uitgevoerd door de GPU en deze stuurt deze door naar de interface van de IGP welke het presenteerd op mijn scherm.
Dit is trouwens nvidia optimus technologie.

Hoe het gaat werken in desktops heb ik geen idee maar ik denk ongeveer hetzelfde.
Extra laagje cache hmm ben eigenlijk wel benieuwd of het ook écht werkt en merkbaar is.

De discussie om SSD's al primaire schijf gebruiken, ja het is veel sneller maar zijn de kosten het ook waard is een perceptie in de ogen van de gebruiker, voor mij (nog) niet, maar naar mate de tijd voorschrijdt wordt het intressanter om een ssd als primaire schijf te gebruiken.

Deze hybride techniek om een ssd schijf als caching te gebruiken klinkt voor mensen zoals mij een godsgeschenk maar vraag me af of ze er op tijd mee zijn... en daarnaast of het ook echt een fatsoenlijke snelheidswinst met zich mee gaat brengen.
Waar ik benieuwd naar ben is, is het de investering waard of kan men beter 16GB RAM plaatsen en daar meer mee laten doen. Lijkt me ook veel sneller en nuttiger bij meer applicaties.

SSD caching is in deze vorm, volgens mij, niets meer als het plaatsen van Superfetch en wisselbestand inhoud op een apart diskje/dingetje/frutje.....
wat dus eigenlijk het gebruik van de hybrid drives van seagate opheft, aangezien intel met z'n chipset ongeveer hetzelfde verwezelijkt.
Hoewel de hybrid schijven nog steeds interessant blijven voor laptops ea. door het plaatsgebrek.
Ik vraag me af of het mogelijk is om de ssd caching aan te zetten indien het om een pci-x ssd gaat, aangezien dat me toch interessanter lijkt voor laptops. (vele laptops hebben nl maar 1 drivebay tenzij je de dvd/bluray combo eruit haalt.)
De caching zal waarschijnlijk via de controller geregeld worden, als je dan gebruik gaat maken van externe controllers, die je ook op een PCIe SSD hebt (PCI-X SSDs zijn er bij mijn weten niet, daarbij heb je geen PCI-X sloten op deze borden), dan zal dit niet zonder meer via de chipset aangestuurd kunnen worden. Dus of dat ook helemaal gaat werken heb ik zo m'n twijfels over.
Het zou wel leuk zijn als ik een externe controller ook kon gebruiken. SSD caching icm een leuke RAID6 array op een echte controller, dat klinkt best lekker :)

[Reactie gewijzigd door TERW_DAN op 26 juli 2024 02:57]

Waarschijnlijk bedoelt meneer het mini PCI-e slot waar veelal een wifikaart aanhangt.
Anoniem: 128823 11 mei 2011 10:45
Is dit geen oud nieuws? Deze chipset zit toch al een tijdje in de nieuwe iMacs? Dat is de reden dat ze garbage collection hebben (TRIM alternatief) voor SSD's en ze een pak beter presteren nu onder OSX.

@ RoyK; dat maakt toch niets uit? De chipset zit ook in de iMacs die geen SSD bezitten, en die zijn gewoon op voorraad en er werden al uitgeleverd. Het blijft idd wel vervelend dat je nooit zeker bent welke SSD's Apple gebruikt.

//Sorry, geen garbage collection, maar data caching

//Iemand moet me toch eens uitleggen hoe hier gemod wordt. Ik geeft dezelfde info als hieronder, een minuut vroeger, geef er nog uitleg bij, en wort gemod als off topic. Terwijl de andere reactie, met dezelfde info, als on-topic gemod wordt. Wordt eens tijd om dat hele systeem te herzien denk ik.

[Reactie gewijzigd door Anoniem: 128823 op 26 juli 2024 02:57]

Klopt, maar de BTO iMacs met SSD's zijn nog niet uitgeleverd. Sterker nog, men weet niet welke SSD's gebruikt worden. De levertijd is 4 tot 6 weken helaas. Ik moet zelf wachten tot 22 juni. Misschien dat de levertijden beter worden nu Intel officieel de chipset heeft gepresenteerd?
Ik had eigenlijk wel wat verwacht van het schakelen tussen igp en gpu, maar gezien deze review: http://nl.hardware.info/r...ew-prestaties-lucid-virtu valt dat dus vies tegen. Energieverbruik met igp t.o.v. normaal idle verbruik met de gpu is op zijn best een paar watt lager (maar soms dus ook hoger), terwijl de prestaties iets lager liggen. Het idee is mooi, maar de uitwerking is slecht.

[Reactie gewijzigd door Bastard op 26 juli 2024 02:57]

idd, hopelijk komen ati en nvidia met een implementatie die wel werkt.

Op dit item kan niet meer gereageerd worden.