Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 80 reacties

Nvidia's GT300-chip zal naar verluidt uit Multiple Instruction Multiple Data-clusters bestaan en de chip gaat DirectX 11 ondersteunen. De verwachting is dat de komende Geforce-gpu in het vierde kwartaal van dit jaar zal worden ge´ntroduceerd.

Terwijl Nvidia met zijn highend-kaarten nog niet zo lang geleden de overstap heeft gemaakt naar het 55nm-procedé, moet nog dit jaar de volgende generatie gpu’s arriveren die op een kleiner procede gebakken wordt. Nvidia voert ten opzichte van de huidige GT200-architectuur enkele belangrijke wijzigingen door bij de GT300. Deze staan in direct verband met vernieuwingen die DirectX 11 zal brengen, waaronder de tesselation-technologie, die in een aparte eenheid binnen de gpu wordt berekend. Voor de komst van de GT300 zal overigens nog de highend-GT212 worden geïntroduceerd in het tweede kwartaal van 2009, maar deze gpu zal slechts een 40nm-variant van de GT200 betreffen, waar de huidige GT200b een 55nm-versie van die gpu is.

Volgens Hardware-infos zal de architectuur van de op 40nm gebakken GT300-gpu bestaan uit mimd-clusters in plaats van simd-clusters, waardoor het aantal instructies en transistors per mm2 zal toenemen. Tevens claimt de site dat de clusters anders worden gerangschikt en met elkaar communiceren via een on-die crossbar, voor sneller dataverkeer. De GT300-chip zou daarnaast ondersteuning gaan bieden voor cuda 3.0 en DirectX 11. De gpu staat gepland voor een release in het vierde kwartaal van 2009 en wellicht valt dit samen met de introductie van het nieuwe Windows 7-besturingssysteem, dat tevens de komst van DirectX 11 markeert.

Moderatie-faq Wijzig weergave

Reacties (80)

ATI leunt sinds de R600 op hun 5x1 shader opstelling, als ik het goed heb dus ook gebaseerd op het MIMD principe. De RV770 heeft 160 van dergelijke eenheden aan boord die in een aantal gevallen de 240 ongeveer dubbel zo hoog geklokte 1x1 shaders van de G200 ver achter zich weten te laten met een verhoudingsgewijs veel kleiner die oppervlak.

Het verbaast me wat dat betreft niet dat nVidia nu ook in die richting neigt. Ten slotte wordt het verschil in grootte alleen maar duidelijker naarmate het aantal shaders toeneemt. Ben benieuwd of en in hoeverre ze nu de opzet van ATI gaan volgen, of dat ze met iets compleet anders op de proppen komen.
AMD heeft een ALU's die met VLIW instructies (die 5 breed zijn) werken. In principe is er slechts 1 instructiestream (van vliw instructies) dus is het een SIMD ALU.
MIMD impliceert meerdere instructiestromen (en dus meerdere program counters).
Staat me inderdaad iets van bij ja, er kan namelijk alleen gebruik worden gemaakt van een of meer extra units wanneer er vergelijkbaar of hetzelfde werk verricht moet worden. Een MIMD ontwerp zou wat dat betreft verder gaan.
Het programmeren van SIMD processors is al een lastige taak, dat heeft CUDA al wel bewezen.
Alhoewel ik de stap naar MIMD wel snap qua performance vraag ik me af of hier echt een goede compiler voor gaat komen en dat programmeurs hier goed gebruik van kunnen maken, want dit is zeker niet makkelijk.

achja, de toekomst zal het bewijzen
Denk personelijk dat die MIMD units los staan van de 'normale' (GP) processing units en dus zouden de program counters aan de andere kant van de cache van de MIMD units staan.
Zo kunnen verschillende processing units maximaal gerbuik maken van de aanwezige MIMD units.

Iemand hier die betere uitleg heeft?
Oeh, hardware tesselation, dat ondersteunde de Matrox Parhelia enkele jaren geleden al...

Verder goed nieuws, lijkt erop dat nVidia dan toch Dx10.1 overslaat en direct naar 11 gaat.
alle dx11 kaarten ondersteunen ook DX10.1 volledig, dus ze slaan niets over ;)
de meest belangrijke features van DX11 zitten al in dx10/10.1 hardware.

Ati 2xxx ondersteunt ook hardware tessellation jaren geleden, enige probleem was dat je er niets aan had in DirectX alleen in OpenGL kon je het gebruiken (hoe gek dat ook klinkt).

[Reactie gewijzigd door stewie op 19 januari 2009 17:32]

Niet zo gek.
Bij DirectX moet je je aan een standaard houden.
Maar bij OpenGL kun je als fabrikant naar hartelust eigen extensies bouwen, die dus alleen met jou hardware werken.

Erg jammer dat tesselation pas zo laat in een DX standaard komt, want het kan heel mooie resultaten opleveren.
Helaas was morrowind met een Radeon8500 het enige spel waarbij het ooit serieus te gebruiken was. Maar het resultaat was geweldig.
nee hoo je kan niet zomaar extensies schrijven, je moet ze documenteren en terug voeren naar OpenGL ;)
OpenGL bied iedereen veel meer mogelijkheden om dingen te verranderen, in OpenGL3.0 zitten op alle GPU's ook een paar extensies van Apple (na jaren lang in het ronde extensies schrijven)

is ook de reden waarom Apple OpenCL (niet GL) heeft gestart.

[Reactie gewijzigd door stewie op 22 januari 2009 05:57]

Ja, leuk dat Matrox dat ondersteunde. ATI heeft dat ook al tijden in zijn kaarten. Maar zolang het niet in DX ingebakken zit, krijg je developers niet zo ver, dat ze het algemeen gaan gebruiken. Zou namelijk betekenen dat het op NVidia kaarten absoluut niet zou draaien. En dat krijgt je niet eventjes voor elkaar met een ander rederpath, omdat de verschillen te groot zijn.


In DX11 zit trouwens "continuous tesselation", hetgeen een stuk geavanceerder is dan de tesselation die Matrox ooit ondersteund heeft. Het komt er op neer dat de mate van tesselation (extra polygonen toevoegen) afhankelijk is van afstand tot de viewer. Objecten dicht bij krijgen heel veel extra polygonen, objecten veraf weinig, of zelfs geen. ATI heeft daar al mee geschermd met hun Radeon's, maar het is nooit duidelijk geworden in hoeverre dat al volledig in hardware gedaan kon worden.
de ATI 9700PRo had dat ook al.
maar nu word het een officiŰle standaard.
Direct x10 wordt geloof ik nog geen eens optimaal benut, en dan willen ze nu opeens al met 11 komen. Als ze eerst er nu is uithalen wat er inzit.... Want de consument kan straks weer allemaal een dure nieuwe videokaart gaan kopen.

Maar ja dat heet marketing he 8)7
DX11 is een upgrade van DX10. DX11 spellen kan je waarschijnlijk gewoon spelen, alleen met sommige effecten disabled. Net als je dat DX 5/6/7/8/9 spellen redelijk kon spelen op oude hardware.

DX10 was toen een behoorlijke rewrite met een nieuwe API, dus die was niet echt backwards compatible. DX11 zal redelijk gelijk zijn aan DX10 met wat extra's.
Dus jij hebt liever dat ze wachten met verdere optimalisatie voor multicore processoren en GPGPU? Het is niet enkel mooie nieuwe dingetjes op je scherm, de achterliggende techniek word ook verbeterd en er komen voor developers veel interessante technieken.
Directx11 zal bijvoorbeeld GPGPU toestaan wat misschien weer erg interessant kan zijn voor HTPC's doordat de GPU nu makkelijker in te zetten is. Of betere ondersteuning voor multithreading, dat zal voor multicore processoren handig zijn want dan kan je steeds meer cores gebruiken wat je veel snelheid oplevert.
Leuk en aardig, maar GPGPU gebruik staat , lijkt mij , los van graphics.
Ik bedoel, waarom zou je backwards compatibiliteit voor graphics opgeven voor een feature die niets met grapics te maken heeft?

Ook multithreading is niet echt iets om over naar huis te schrijven in verband met graphics.
Sterker nog, het levert alleen maar overhead op.
Ik kan me namelijk niet voorstellen dat het heel handig is om een low-level graphics API te gaan multithreaden. Wordt intern een drama van afhankelijkheden en een beperkt voordeel van meerdere cores.
Zoiets wordt pas interresant als je 8+ cores hebt en die markt zal denk ik niet erg snel groeien.

Dus ik ben het wel eens met peugeot106xsi.
Graka's en DX zijn tegenwoordig erg nauw met elkaar verweven en een verandering aan DX betekent dus gewoon een nieuw kaartje kopen of niet meedoen.

De markt is nu dus ook zo: Of je koopt budget kaartjes Of je koopt HiEnd kaartjes, maar kopen zul je,,.
Waarom denk je dat het backwards incompatible is? Dat is simpelweg niet waar, alleen kun je bepaalde zaken niet en zal de software terugvallen op alternatieven.
Je hebt dan wel als voordeel dat zo'n DX11 kaart heel snel zal zijn in DX10 games.
Waar baseer je dat op? De DirectX versie bepaalt totaal niet hoe snel een videokaart is. Er zijn DX9 kaartjes die DX10 kaartjes inmaken op veel benchmarks.
Wil je performance vergelijken dan wel met exacte features in Dx9 en DX10 flavor.
Dit zie ik meer als DX10 voor optimalisatie gebruiken. Dev's melden dit ook.
Dus de DX9 Ún DX10 versie moeten hetzelfde doen.
DX9 vs DX10 houd bij meeste games in dat er ook features erbij komen. Het beeld niet alleen anders tot stand komt maar is ook anders.
Subtiele feature kan voor de GPU ook een hoop extra werk betekenen.
CoJ DX10 is een voorbeeld waar DX10 duidelijk meer brengt. Performance vergelijken heeft dan ook geen zin.

Crysis is wat vager. DX10 is meer subtiel anders.

Dus een DX10 kan sneller maar ook langzamer zijn dan Dx9. Hangt af hoe de dev's DX10 gebruiken.
"Het beeld niet alleen anders tot stand komt maar is ook anders."

Het hele renderpad (engine->DX->Driver->GPU) is dan ook compleet anders.

Het zijn dus 2 losstaande stukjes software (een DX9 pad en een DX10 pad) die het resultaat aan de kaart voeren.

Het enige dat je met een DX9 vs DX10 test meet is de uiteindelijke performance, maar dit vertelt je niets over de individuele stukjes van het pad.

Kan zijn dat de makers van het spel meer aandacht aan de DX10 versie hebben gegeven.
Maar kan net zo goed zijn dat de drivers beter geschreven zijn,.

Zo een test vertelt je dus niet persee of DX9 sneller/langzamer is dan DX10...

Buiten dat verwacht ik dat DX9 en DX10 zich anders gedragen onder veel omstandigheden.
Een directe vergelijking zou wel eens heel moeilijk kunnen zijn.
Onjuist, dit is in sommige gevallen van toepassing maar als je BV. een DX10 kaart heb en je bekijkt de performance van DX10 vs DX9 met FC2 dan zal je zien dat in DX10 er een betere performance is.
DX10 was dan ook herschreven met het oog op performance. Daarvoor was een DX9 videokaart toch heel wat sneller in DX8 games.
Doelde meer op het feit dat je in de benchmark van FC2 kan kiezen tussen DX 9 & 10.
En indien je een DX10 kaart draait dat je (vaak) een hogere fps heb dan waarneer je je DX10 kaart in DX9 draait :)
Gek he...

DX10 is geoptimaliseerd t.o.v. DX 9 en daarvoor, en dan de kaart op zich dus ook. Geen wonder dat die dan sneller in DX10 zal zijn dan in DX 9.

Met DX 11 zal het verschil t.o.v. DX 10 minder groot zijn, dus als een DX11 kaart in DX10 draait. Dit omdat de optimalisatie van DX 10 ook voor DX 11 geldt, en er alleen maar uitbreidingen in DX11 zitten.
Dat snap ik niet. Jij zegt dus min of meer dan een nvidia 8400gt sneller in DX9 is dan een 7800GX2. Een kaart die een nieuwe direct x versie aan boord heeft hoeft niet snel of sneller te zijn dan de oude.
Je moet wel realistisch blijven, en kaarten van een gelijk prijsniveau vergelijken.
Waarom? als je de directX versie dooslaggevend laat zijn voor de prestaies van een videokaart doe je dat ook niet. Ik vindt dat Simplysimpson heel goed duidelijk maakt dat er een vergelijk tussen dingen die niet met elkaar te vergelijken zijn getrokken wordt. Namelijk de ondersteunde DirectX versie. Daar komt nog bij dat je met verschillende besturingssystemen moet werken om de verschillende DirectX versies te hebben (XP heeft geen DX10 wat er ook gezegd wordt. De emulatie ervan is NOOIT geslaagd). Dit brengt ook weer de bugs van de betreffende besturingssytemen met zich mee die ook weer van invloed zijn op de performance van de hele machine.

Het is ook nog eens zo dat de features van DX versies verschillen. Met dezelfde framerate is het dus heel goed denkbaar dat er onder dx10 vele malen meer berekend wordt dan met dezelfde framerate bij dx9.
Kortom Appels en Peren vergelijken.
Dat komt vooral omdat DirectX 11 weer meerdere cores (beter) gaat ondersteunen. Shader Model 5.0 is ingebouwd. Maar (natuurlijk) werkt het alleen goed als het op Windows 7 wordt gedraaid. Het werkt wel op Vista, maar niet optimaal :P
Wat is dat nu weer voor onzin. DX11 is op Vista precies hetzelfde als op 7. Volgens mij ben je in de war met DX11 op DX10 hardware, in welk geval er inderdaad een deel van de functionaliteit wel gebruikt kan worden en andere niet.

DX11 gaat echter niet de DX10 tour op wat betreft OS support, en zal in beide OS-en precies even goed werken!
Eerder marktwerking, een beetje kunstmatig in het geval van software- en hardwareproducenten.
DirectX 11 zou compatibel worden met DirectX10, en zou zelfs volledig softwarematig geŰmuleerd kunnen worden. Geen nood dus om direct een nieuwe kaart te kopen.

Maar deze kaart zal het uiteraard beter kunnen verwerken dan je CPU ;-)
Directx wordt al optimaal benut. Er is alleen geen hond die het gebruikt omdat iedereen erbij zweerd dat directx 9 exact hetzelfde eruit ziet met meer FPS. Directx 10 bied betere HDR en soft shadows. Als je dat in de game instellingen gewoon uitzet heb je feitelijk Directx 9 graphics met een betere performance dan het te draaien onder Directx 9.
JUIST !

Game maar eens 2 maanden op DX10 en speel dan hetzelfde game eens op DX9
wereld van verschil !
je hebt DX10 niet eens nodig. Alles wat mt DX10 kan kan met DX9 ook. Ik vermoed dus dat wat je met DX11 kan ook met DX10 kan. Veel voegt t niet meer to volgens mij.

Anders zou ik wel ees een screenie van DX9 willen zien, daarnaast hetzefde maar dan met DX10 technologie en daarnaast eentje me DX11 gemaakt. En dan allemaal op de hoogst mogelijk reso.... Dus op zijn voordeligst...
DirectX 4 is ook een stille dood gestorven zonder ooit benut te worden.
Je wilt overstappen op Mac omdat je het DirectX gedoe van MS een probleem vindt? Er zijn volgens mij twee opties:
1) Je bent een gamer. Waarom in godsnaam overstappen op Mac? Ze hebben geen games.
2) Je bent geen gamer. Wat maakt het dan uit wat MS doet met DirectX?

Een combinatie van beide lijkt me niet echt mogelijk... :?
@ Dyn

Wat bedoel je nu eigenlijk?
Mac zit ondertussen al aan een hoger nummertje dan die 7 van windows hoor :p


en backwards compatibility met een mac is ook niet altijd hoe het zou moeten zijn.
Niets ten nadele van Apple. Ze maken mooie computers en hun OS is mogelijk het beste wat er is, maar..

Ook Apple komt met grote regelmaat met nieuwe versies van het OS uit hoor. Nog vaker zelfs dan Microsoft.

Daarbij heb je op de Mac geen probleem met DirectX support. Het is er gewoon niet. Wat je natuurlijk wel hebt is problemen met OpenGL support. Ook dat ontwikkelt zich na verloop van tijd, en ook daarbij geldt dat je hardware een nieuwe versie moet supporten.

Als dat je overweging een Mac te halen is, dan schiet je er echt helemaal geen drol mee op. :)
Windows 1t/m6, directx10, Windows 7, directx11. Epic fail. het houd niet op |:(

Ik ga over stappen op een mac. Ben helemaal klaar met die bullshit.
Helaas vind ik linux nog geen fijne GUI hebben en wordt ook niet alles ondersteunt wat ik wil doen met een pc.
Anders zou dat ook een prachtig alternatief zijn.
Een Mac ondersteunt wel alles wat je wil doen met een PC? Gamen kan je wel vergeten op een Mac.
Raar ik heb een 9800gt en ik draai directX 11, wat is het verschil in ondersteuning dan?
Je bedoelt dat je dus windows 7 beta draait ... stoer hoor :p

HEt verschil is dat DX11-calls bij jou volledig moeten vertaald worden naar DX10 calls, daar waar een 'echte' DX11 kaart die calls out of the box begrijpt. Zodra er dus een DX11-optimized spel/programma uitkomt zal jouw kaart een pak trager zijn dan een DX11 kaart, ook al heeft die kaart bv dezelfde kloksnelheid: die kan die calls namelijk direct verwerken, terwijl jouw kaart die eerst nog even moet omzetten.
Ik wouw dat ze in het 2e kwartaal eigenlijk al een DX11 kaart hadden. eigenlijk is het best wel bleu want het zal wel weer tot 2e kwartaal 2010 duren voordat een DX11 kaart een beetje een voordeel zal worden. Ja goed in het 4e kwartaal zullen er al wel kaarten uitkomen maar je weet die nieuw jaars prijzen zijn vaak niet al te zacht en dan komen ze vaak ook pas net in november december uit. eigenlijk nogal laat vind ik. Daarom is het nu gewoon verstandiger om gewoon meteen een kaart te kopen dan kun je teminste vooruit en gamen tot die tijd. :) Met een beetje geluk word de hardware tesselation die de radeon al since de R600 bevat in DX11 dan ook erg nuttig. gelukkig zijn videokaarten al niet meer zo ontzettend duur als toen met de 8800 GTX voor pakweg 500-800 euro |:(
dus een nieuwe kaart is na een jaar of 2 wel een makkelijke upgrade optie
Jij hebt alleen softwareondersteuning en geen hardware ondersteuning. Het verschil zit hem in dat je bij Crisis met je tank geen kleine boompjes kan omrijden :(.
Ik denk dat hij bedoelt dat je DX11 wel degelijk op oudere kaarten kan gebruiken. Don't shoot me if I'm wrong, maar ik dacht dat het verschil hem vooral zit in mindere hardware-ondersteuning voor deze nieuw toegevoegde instructies welke zou leiden tot tragere uitvoering van deze instructies en/of het moeten disablen van bepaalde effecten.
Ow? Mag je me vertellen waar je die gekocht heb, laatste keer dat ik keek had nVidia alleen maar DX10. ATI zit al op DX10.1 maar DX11? Nog niet gezien...
Hij bedoeld waarschijnlijk dat hij op Windows 7 zit waar DX11 geinstalleerd staat. Maar de kaart zelf is geen DX11 natuurlijk...
Dat Nvidia met een nieuwe core komt die DX11 aan kan en op 40nm gebakken wordt lijkt me wel dat is geen nieuws.

De rest zou best eens waar kunnen zijn maar het zou me niets verbazen als dit niet meer is dan een gerucht is en de echte oplossing van Nvidia er net even anders uit ziet. Het gebeurt het grafische chip vorspellings gilde toch wel erg vaak dat men er redelijk naast zit. Wel ongeveer goed maar toch ook zeker niet helemaal waar.
Ik ben net wat aan het kijken naar hoe CUDA werkt. Die videokaarten van nVidia zijn echt indrukwekkende rekenmonsters, en de ontwikkeling gaat keihard. Het huidige topmodel, de GTX 295, heeft al ruim 2,5x de rekenkracht van de 8800, het topmodel van vorig jaar. En volgens de nu beschikbare informatie is de komende GT212 GPU weer twee keer zo snel, en ze werken nu ook al aan de opvolger daarvan...

CUDA is helemaal niet zo moeilijk als je in C kunt programmeren, en voor toepassingen die veel rekenkracht nodig hebben en die te parallelliseren zijn kun je op de huidige GPU's wel tot 200x zo snel rekenen als op een Intel CPU. Zeer indrukwekkend.

De GPU zal in de toekomst meer en meer ingezet worden als supersnelle parallelle rekencoprocessor.

[Reactie gewijzigd door jj71 op 19 januari 2009 22:40]

CUDA is helemaal niet zo moeilijk als je in C kunt programmeren, en voor toepassingen die veel rekenkracht nodig hebben en die te parallelliseren zijn kun je op de huidige GPU's wel tot 200x zo snel rekenen als op een Intel CPU. Zeer indrukwekkend.
CUDA ontleent een deel van de C syntax, veel verder gaat de vergelijking niet op.
Het programmeer model voor CUDA is radicaal verschillend en veel moeilijker dan "sequentieel" programmeren.
Het huidige topmodel, de GTX 295, heeft al ruim 2,5x de rekenkracht van de 8800, het topmodel van vorig jaar.
Aangezien de GTX 295 een dual GPU kaart is, gebaseerd op 2 GT200b's (welke toch een stukkie nieuwer is dan de G92), vind ik die factor 2.5 nou niet echt heeeel indrukwekkend...
En volgens de nu beschikbare informatie is de komende GT212 GPU weer twee keer zo snel...
Zoals je het hier zegt vat ik dat op als: 2x sneller dan een GTX 295...?

De GT212 is in grote lijnen niks meer dan een 40nm-variant van de GT200b (55nm), waar de GTX 295 (zoals eerder gezegd) er 2 van heeft. Dus dat een op de GT212 gebaseerde kaart dan 2x zo snel zal zijn... dat zou ik nou wel indrukwekkend vinden! ;)
Het is allemaal nog maar speculatie over de GT212, maar volgens deze lijstjes op Wikipedia:

GeForce GTX 295 - 1788.48 GFLOPs
GT212 - 2930? GFLOPs
Whaha, dat lijstje op Wikipedia slaat echt helemaal nergens op. Een dergelijke chip is echt niet op zo'n korte termijn te maken. Misschien dat GT300, die jaren in de planning staat, die richting in kan gaan, maar zelfs dan is het nog echt overkill, met een veel te grote chip en voornamelijk idioot verbruik dat nooit onder het maximum van 300 watt zou kunnen blijven. Hoe ze dat alles ook nog eens in 1800 transistors willen proppen is helemaal een raadsel.
Hoe snel gaat het tegenwoordig met videokaarten? Morgen komt de GT400-gpu uit |:( . Het gaat echt veels te snel om het een beetje bij te kunnen houden.

De games worden tegenwoordig ook ontwikkeld op de nieuwste hardware. Zo is er ook geen lol meer aan om games te spelen op de PC.
Morgen? Minstens driekwartjaar hoor. Tegen die tijd ben je dit bericht al lang vergeten en snap je niet dat mensen ooit op gewoon HDD's werkte ipv SSD's (bij wijze van).

Driekwartjaar is een eeuw op deze site.
Hoe snel gaat het tegenwoordig met videokaarten? Morgen komt de GT400-gpu uit |:( . Het gaat echt veels te snel om het een beetje bij te kunnen houden.
Je hebt nog een heel jaar om te sparen voor een dx11 GPU. Da's best lang en traag.
denk dat ik dan de 8800gts eens ga updaten. lijkt me een mooi moment gezien de huidige en komende veranderingen
Weet iemand of er leuke toepassingen zijn dat gebruikt maakt van dat 'cuda' (en/de- codatie ofzo?) ??

Heb welleens gezocht, maar kwam niet verder dan de cuda SDK.

[Reactie gewijzigd door Mister_X op 19 januari 2009 20:05]

Badaboom is een goede converter. Jammer genoeg beperkt tot nVidia GPU's, maar wellicht dat dat nog eens verandert. In ieder geval is de software wel CUDA-based.
Adobe's CS4 producten (Photoshop, Premiere enz.) kunnen ook van de GPU gebruik maken van de GPU. (Ik weet niet of dat via CUDA gaat, maar in ieder geval kan die software gebruik maken van de rekenkracht van je GPU).
Voor slechts een handjevol filters. (wel 2 IIRC....). Pure marketing dus.
Dan zal ik in de toekomst toch maar op windows vista (windows 7?) over moeten stappen :(. Ik vond xp net zo lekker snel worden met snelle hardware. Ik bedoel... Vista of windows 7 die maar 100mb ram gebruiken bij fresh startup... Dat bestaat niet :'(

[Reactie gewijzigd door Bolis op 19 januari 2009 20:55]

maar ik zeg mijn vista start veel sneller dan XP.
ik heb 2GB (35,-)geheugen in pc zitten, bij start up is 900mb in gebruik maar dat zakt naar 400-500 na een paar minuten.
Ik heb dus nog 1gb om te werken, dus ik snap je beredenering dat geheugen gebruik 100 mb moet zijn om snel te starten.
ik zal maar gaan klagen over de IO die verzadigd raken door dat Vista veel van de hdd vraagt. dit heb je vooral 3-4 jaar oude hdd's.
Vista is klote. Vista SP1 is beter dan XP.
Ik had Windows Vista, maar dat was ongelooflijk traag. Windows 7 gaat stukken sneller, en gebruikt veel minder geheugen. Ik heb trouwens 1 GB in mijn PC zitten, wat ruim genoeg voor Windows 7, maar in Vista had ik ongeveer 75-80% gebruik van dat geheugen als ik nergens mee bezig was. In Windows 7 ligt het op ongeveer 50-55%. 128 MB van mijn geheugen is shared met de videokaart.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True