Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties
Bron: CNet, submitter: aliencowfarm

Chipfabrikant Intel heeft zijn langverwachte driverupdates voor zijn 965-chipset gereed. De updates moeten de prestaties van spellen flink verbeteren. Gebruikers met Vista zullen echter nog geduld moeten hebben.

G965-chipsetVeel pc’s worden geleverd met een grafische kaart die op het moederbord zit gebakken. Omdat deze aanpak te wensen overlaat bij het spelen van spellen, kiezen fanatieke gamers doorgaans voor een aparte grafische kaart. De 965-chipset is door Intel ontwikkeld om de grafische prestaties van dergelijke ge´ntegreerde chips naar een hoger niveau te tillen.

Intel slaagde er tot nu toe echter niet in de benodigde drivers te ontwikkelen waarmee een doorsnee computer met de 965-chipset in staat is de nieuwste 3d-games te spelen. Volgens de chipfabrikant komt hier verandering in nu de fabrikant de drivers voor Windows XP als download aanbiedt. Gebruikers die de 965-chipset in hun Vista-machine hebben, zullen nog even geduld moeten hebben.

Eind juli maakte Intel bekend deze maand ook met nieuwe drivers te komen voor zijn G965-, GM965- en G35-chipsets. Opvallendste vernieuwing aan deze drivers is ondersteuning voor Vertex Shader 3.0. Ook heeft Intel twee nieuwe drivers op stapel staan met support voor Windows Vista en Windows XP, respectievelijk versie 15.6 en versie 14.31. Deze nieuwe drivers zouden aanzienlijk stabieler moeten zijn en voegen ondersteuning voor Shader Model 4.0 toe. Moederbordfabrikanten hebben overigens geen hoge verwachtingen van deze updates.

Moderatie-faq Wijzig weergave

Reacties (40)

De kloof tussen de high-end en low-end chips wordt steeds groter, maar dat betekent niet dat deze onbruikbaar zijn voor moderne spellen. Je moet je gewoon tevreden stellen met een lagere resolutie, geen anti-aliasing, en lage detailinstellingen. Dat maakt de gameplay daarom nog niet minder leuk. En voor de budgetkopers is dat nog altijd beter dan helemaal niks kunnen doen. Dat betekent natuurlijk niet dat dit een interessante koop is voor een echte gamer met een iets ruimer budget. Zie het gewoon in context en dit zijn best interessante chips met redelijke prestaties voor de prijs.
Je moet je gewoon tevreden stellen met een lagere resolutie, geen anti-aliasing
Antialiasing is nou juist iets dat ze met hun tile-rendering architectuur redelijk efficient zouden kunnen oplossen.
Misschien is dat ook wel de niche... Lagere resolutie, maar betere antialiasing, zodat je toch hele goede beeldkwaliteit hebt.
De 'beste' onboard oplossing is nu toch nog steeds de 690 V die is gebaseerd op een X1250 en de intel variant moederborden met een X1250 onboard, zoals de Abit HD en de ASrock FullHD.
Nou, als ik deze benchmarks zie, dan trek ik toch andere conclusies:
http://www.techreport.com...2/intel-g965/index.x?pg=9

De 965 is veel beter qua pixelshaders, en heeft daarom een veel hogere 3dmark-score. Lijkt mij dus de beste oplossing voor (moderne) spellen.
De problemen met vertexshaders zouden nu opgelost moeten zijn, waardoor hij op alle punten het snelst zou moeten zijn.
En dit is dus pas de 965, de G35 zal nog wel beter zijn, maar ik vind daar geen benchmarks van.
Hij komt daar nog niet zo heel goed uit de kwaliteitstest van HQV, maar ook dat zullen ze in de driver wel oplossen, of opgelost hebben.
Ik denk dus dat Intel de beste chip in handen heeft, en dat ze met goede drivers ook de beste prestaties neerzetten.
Er staan onder de benchmarks ook game scores, en daar zie je dat de 690G de vloer aan veegt met de G965
Ja, maar dat zal voornamelijk komen vanwege de slechte vertexshader-prestaties, als het goed is, want de pixelshaders zijn een heel stuk sneller dan die van nVidia en ATi.
En de vertexshaders zijn nou juist datgene dat in deze drivers is toegevoegd (in de oude drivers werd het nog met software-emulatie gedaan, wat ten eerste trager is, en ten tweede ten koste gaat van de CPU-resources die het spel tot z'n beschikking heeft. Bij 3dmark zijn de framerates dermate laag dat de CPU geen beperking vormt, bij spellen liggen de verhoudingen anders).
Dus ik verwacht dat Intel met deze nieuwe drivers ook in games bovenaan komt te staan, want het lijkt mij dat de chip van Intel de beste is, alleen werkt dat niet als de drivers zo slecht zijn.

[Reactie gewijzigd door ddbruijn op 20 augustus 2007 17:20]

Je vergeet daarbij dat de G965 een unified architectuur is wat betekend dat in een pixelshader benchmark alle units gebruikt kunnen worden om pixelshaders te verwerken. Dit schepts een vertekend beeld tegenover de rest dat niet unified is.
Kan me niet voorstellen dat je nu opeens een high-end GPU in bezit krijgt, met deze drivers. Verwacht eerlijk gezegd dat je er nog steeds niks mee kan, ben benieuwd!!
Ik vond dit filmpje op Youtube.
Conclusie, Intel's G965 kan nu Battlefield2 en Farcry spelen op low, met een FPS van rond de 20.
OK, in Farcry heb je een 50% steiging van frames, en je kan BF2 nu wel spelen zonder arties. Maar om 2,5 - 3 jaar oude spellen te kunnen spelen op half vloeiende snelheden... Nee, geen baanbrekende ontwikkelingen.

Intel zou er veel meer voordeel hebben uit kunnen halen als ze 1,5-2 jaar eerder waren.
Hmm, ja daar zit natuurlijk wel een addertje onder het gras.

Ze gebruiken daar een van de snelste CPU's (C2E), met heel veel en snel geheugen.
Jep, dat komt er ook bij kijken... Dus al met al negeerbaar.

Ik hoop voor Intel dat ze Driver development onder de knie krijgen voordat Larrabee wordt gelanceerd.
Neem een vergelijking bij de ATi X1150 of Geforce 6100 integrated modellen denk ik. Ik denk dat deze kaarten uiteindelijk iets beter zullen presteren maar niet veel. Echter zul je wel de nieuwste spellen kunnen draaien, maar het level of detail en de snelheid is een andere vraag..
De Intel chips zijn nu al sneller in sommige gevallen (nog problemen met vertex shaders, maar dat zouden deze drivers moeten verhelpen): http://www.techreport.com...2/intel-g965/index.x?pg=9
En SM4.0 hebben die Radeon en GeForce ook niet.
Ik denk dat Intel hele goede zaken aan het doen is met hun onboard chips.
Ze zijn dan ook de enigen die echt specifieke GPU-ontwerpen voor onboard-gebruik hebben. Intel gebruikt tile-based rendering (bekend van PowerVR), om het bandbreedtegebruik te mininaliseren, waardoor je ook met gewoon systeemgeheugen heel efficient kunt renderen.
ATi en nVidia gebruiken eigenlijk gewoon 'aangelengde' standaard-GPUs, en die zijn pas snel als ze hun eigen videogeheugen hebben (wat je bv wel ziet in laptops, maar niet op standaard-moederborden).
Intel levert dus de beste prijs/prestatie in dit segment.
En als Intel straks SM4.0 heeft, betekent dat waarschijnlijk de eerste onboard DX10-oplossing (voor desktops)?
(Begrijp ik het trouwens goed dat dat ook voor de G965 geldt... en dat Intel dan dus eigenlijk als eerste DX10-hardware op de markt had? Alleen geen drivers om het aan te spreken?)
Edit:
Volgens Wikipedia geldt het wel voor de GM965, die krijgt SM4.0-support, de 'gewone' G965 niet.
Vreemd genoeg staat er niet bij dat de GM965 ook DX10-support krijgt, die je wel nodig hebt om SM4.0 te gebruiken:
http://en.wikipedia.org/wiki/Intel_GMA#GMA_X3500

Ik ben altijd al fan geweest van het idee van tile-based rendering (heb ook een PowerVR kaartje), en ik ben benieuwd hoe ver Intel deze technologie kan doorzetten.

[Reactie gewijzigd door ddbruijn op 21 augustus 2007 15:17]

Uit Wikipedia:
Intel uses a similar concept in their integrated graphics solutions. However, their method, coined Zone Rendering, does not perform full hidden surface removal (HSR) and deferred texturing, therefore wasting fillrate and texture bandwidth on pixels that are not visible in the final image.
Het komt erop neer dat het niet te vergelijken is met het concept van PowerVR en dat het niet zo efficient is.
Het komt erop neer dat het niet te vergelijken is met het concept van PowerVR en dat het niet zo efficient is.
Het is prima te vergelijken met PowerVR, ook al is het niet helemaal hetzelfde.
Het is nog steeds efficienter dan de oplossingen van ATi en NV, en daar gaat het om.
Verder snap ik niet hoe ze erbij komen dat ie geen HSR doet...
Iedere zone heeft z'n eigen z-buffer, en je hebt early Z, dus hoe zou dat geen full HSR doen zoals PowerVR?
Zie ook: http://www.intel.com/cd/i.../recent/334680.htm?page=4

Twee reacties van jou die onterecht de Intel-chip afzeiken.
Fanboy?

[Reactie gewijzigd door ddbruijn op 21 augustus 2007 08:10]

Het lijkt me eerder dat jij een fanboy bent.
Mijn twee reacties zijn louter gebaseerd op feiten en verder wil ik er niet op in gaan.
Ik heb wel betere zaken te doen dan als gratis-intel-verkoper te spelen.
Het lijkt me eerder dat jij een fanboy bent.
Mijn twee reacties zijn louter gebaseerd op feiten en verder wil ik er niet op in gaan.
Ik heb wel betere zaken te doen dan als gratis-intel-verkoper te spelen.
Niet bepaald, ik heb nog nooit van m'n leven een Intel graphics chip gehad. Ik ben ook niet van plan er een te kopen... behalve als ie toevallig op een hele snelle videokaart zou zitten. Nee, ik ben momenteel erg tevreden met m'n GeForce 8800GTS.

Jij baseert je niet echt op feiten. Wat voor feiten heb je genoemd dan?
Een wazige quote uit Wikipedia, die niet correct is...
En een onzinnige opmerking over hoe een unified architecture een 'vertekend' beeld geeft?
Het komt er meer op neer dat je aan het zoeken bent om de Intel-chips in diskrediet te brengen.
Ja, de oudere chipsets waren soms bedroevend slecht, en de drivers zijn nooit goed geweest, en zijn nog steeds niet waar ze zijn moeten, maar Intel is nu duidelijk op de goede weg, en met nog een paar driver-updates zou Intel best wel eens het beste product kunnen hebben in dit segment. De feiten wijzen in ieder geval in de richting dat hun hardware de beste is, en de drivers de prestaties nog in de weg zitten.
Give credit where credit is due.

[Reactie gewijzigd door ddbruijn op 21 augustus 2007 14:50]

Ik vind dit een beetje een raar artikel. Het gaat toch om de driver voor de videokaart die bij de G965-chipset geleverd wordt? Dus niet om de chipset zelf, en dus ook niet om de P965-chipset die zonder videokaart geleverd wordt.
De 965-chipset is door Intel ontwikkeld om de grafische prestaties van dergelijke ge´ntegreerde chips naar een hoger niveau te tillen.

Intel slaagde er tot nu toe echter niet in de benodigde drivers te ontwikkelen waarmee een doorsnee computer met de 965-chipset in staat is de nieuwste 3d-games te spelen.
als ik dan dit lees dan denk ik waar zit de schrijver met z'n hoofd?

Mijn moederbord heeft een 965-chipset dus ik kan geen nieuwe games spelen?
Lezen is ook een vak. Alhoewel de titel ook niet helemaal klopt, de drivers zijn niet alleen voor de G965, maar ook voor de GM965 en de G35!
Eind juli maakte Intel bekend deze maand ook met nieuwe drivers te komen voor zijn G965-, GM965- en G35-chipsets.
Er word trouwens geen videokaart met de chipset meegelevert. Het gaat om de videochip (eigenlijk grafische chip), die een geintegreert onderdeel is van de chipset. De P965 is dezelfde chipset als de G965, alleen heeft de ene een geintegreerde grafische chip, de andere niet.
Dus de drivers zijn voor de videochip die bij de G965 geleverd wordt en dat heeft dan toch weinig met de rest van de 965-chips te maken dus waarom staat er dan overal 965 als er G965 bedoelt wordt.

Het is niet dat ik niet kan lezen of het niet snap, maar het is gewoon niet duidelijk omschreven.
tja leuk maareu de nieuweste 3d spellen op een onboard chip ??? lijkt mij stoer...

tja hij zou het misschien wel kunnen draaien maar vind jij als gebruiker dat ook om te pruimen, volgens mij niet.

zou mooi worden, heb je net een mooie ati1950 xt cf vga kaart gekocht, zit je buurman ook unreal tournament 7392 te spelen op zijn onboard kaartje, dan vreet je ook je pet op.!

haha nee ik denk dat je het wel in het perspectief moet zien, je krijg naar waar je voor betaal.!


maar toch leuk dat ze het proberen.!
Tja bij Unreal Tournament 7392 is zo'n Ati X1950 XT al meer waard dan de PC zelf, want volgens mij is die kaart dan letterlijk antiek :+. Dan kun je ermee langs bij Kunst & Kitsch ;)
Volgens de meeste benchmarks maakt een dergelijke kaart nog gehakt van de meeste kaarten met 2600 en 8600 chippies. En dat voor veel minder geld (zeker de 1950pro is nu interessant) :)
Je kan ook nieuwe games spelen om low of medium.
Shader Model 4.0 ondersteuning geldt dan alleen voor de G35, die het hardware-matig ondersteund. Leuke feature, maar o.a. Crysis wil je gewoon niet spelen met zo'n on-board IGP. Kan iemand een toepassing verzinnen waarin het wel nut heeft? :?
Ik ken er nu niet veel van (van Shader Model 4.0 etc.) maar wat denk je van grafische tekenprogramma's zoals Photoshop?
Photoshop gebruikt helemaal NIET de videokaarrt (met uitzondering van CS3 Extended in 3D modus) dus dat is onzin. Echter zou het wel van nut kunnen zijn bij programma's zoals 3DS Max, maar daar heb je betere FireGL en Quadro kaarten voor denk ik zo..
Toch heb ik eerder deze week naar de system requirements gezien dat je 64mb nodig hebt...
# 64MB of video RAM
# 1GB of available hard-disk space (additional free space required during installation)
# 1,024x768 monitor resolution with 16-bit video card
(Bron)

16 bit videokaart met 1024x768 resolutie dus en waarschijnlijk is die 64MB videoram bedoeld voor CS3 Extended 3D functies. Verder elke grafische kaart heeft tegenwoordig wel 64MB RAM aanboord hangen, geshared of niet.

[Reactie gewijzigd door alex3305 op 20 augustus 2007 11:35]

photoshop of andere grafische applicaties die bedrijfsmatig worden gebruikt?

bedrijfscomputer hebben vaak geen videokaart behalve de computers die specifiek voor grafische applicaties worden aangeschaft.

edit: typo

[Reactie gewijzigd door TRitsma op 20 augustus 2007 11:22]

Bedrijfscomputers met geen videokaart :? Hoe kunnen ze in hemelsnaam dan beeld weergeven?! Ik denk dat je eerder bedoeld geen dedicated videokaart, dat klopt inderdaad, maar dat hebben ze ook niet nodig.

En zoals ik hierboven ook al een keer aangaf, Photoshop gebruikt GEEN grafische kaart ondersteuning (met uitzondering van 3D in Photoshop CS3 Extended)..
VideoKAART, hij zei geen videoCHIP maar kaart ;-)
ach, voor me laptoppie zou het wel leuk zijn assie ineens bf2142 zou kunnen draaien.
Je vergeet daarbij dat de G965 een unified architectuur is wat betekend dat in een pixelshader benchmark alle units gebruikt kunnen worden om pixelshaders te verwerken. Dit schepts een vertekend beeld tegenover de rest dat niet unified is.
Hoezo vertekend beeld? Het is toch gewoon een superieure architectuur?
Zelfs zonder werkende vertexshaders in de driver krijg je al een veel hogere 3dmark-score.
De 3DMark score wordt samengesteld uit de game en cpu tests. De rest van de tests, incl de pixel- en vertexshader tests, zijn informatief en kunnen je score niet verhogen.
De 3DMark score wordt samengesteld uit de game en cpu tests. De rest van de tests, incl de pixel- en vertexshader tests, zijn informatief en kunnen je score niet verhogen.
Ja, dat weet ik, en iedereen die de readme heeft gelezen ook, dus ik neem aan dat dat algemeen bekend is hier.
Dat is ook juist het hele punt.
Hij scoort blijkbaar ook in de game-tests heel goed (ondanks de magere vertexshader score), niet alleen in de pixelshader-test en bij single-texturing. Dus ook in 'real world' scenarios heb je goede performance, niet alleen in tests waar de unified shaders het beeld zouden kunnen vertekenen door een te eenzijdige workload.
En dat terwijl de vertexshaders bij die test dus nog niet goed werkten. Met deze (of een volgende) driverupdate lijkt me ook dat Intel zeer competitief kan gaan worden met de 690 van ATi. Als er iets is dat ik geleerd heb als Direct3D-ontwikkelaar, dan is het wel dat software T&L en hardware T&L een wereld van verschil maken. De overgang naar de GeForce2 heb ik persoonlijk wel als een cultuurschok ervaren.
Als ik zo de drie geteste spellen zie, lijkt me ook dat het vooral de polycount is die de G965 de das omdoet. Fear op laag detail doet ie wel goed. Met de nieuwe driver kan ie ineens Far Cry ook goed aan.

[Reactie gewijzigd door ddbruijn op 21 augustus 2007 14:55]

Kunnen ze met die chips geen hardwarematige H264 decodering draaien, zoals op Nvidia en ATI? Dat zou pas een zinvolle toevoeging zijn, wordt een nieuwe Mac Mini weer interessant als HTPC.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True