Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Bron: TG Daily

Intel hoopt mensen die af en toe een computerspel spelen te overtuigen om in plaats van een losse budget-videokaart, te kiezen voor de geďntegreerde videochip die onderdeel uitmaakt van de G965-chipset. Om te bewijzen dat deze chipset hiervoor geschikt is, liet het bedrijf enkele demo's zien.

In de demo's tijdens de Game Developers Conference in San Francisco, werden journalisten uitgedaagd om van twee naast elkaar draaiende demo's van computerspellen aan te wijzen welke gebruikmaakt van de G965-chipset en welke een losse videokaart voor de rendering gebruikt. Volgens de grootste chipfabrikant zijn de videoprestaties van de G965-chipsets geschikt voor populaire spellen. Een nieuwe bčta-driver die ondersteuning voor hardware vertex-shaders bevat, moet aantonen dat de geďntegreerde chipset gereed is voor computerspellen. Intel verwacht niet dat de geďntegreerde graphics de losse videokaarten overbodig zal maken: 'mensen die extra power willen, zullen nog steeds een losse videokaart moeten aanschaffen', aldus pr-manager Nick Knupffer. Maar veel incidentele gamers zullen aan de 'vier dollar'-videochip voldoende hebben, zo liet Knupffer weten. Intel doet zijn best om de videochip door middel van driverupdates snel genoeg te maken voor de huidige populaire spellen. De grafisch intensieve spellen zullen hierdoor niet per definitie worden ondersteund.

Intel G965 Call of Duty 2-screenshot

De nieuwe bčta-driver met vertex-shaders-ondersteuning zorgt ervoor dat spellen zoals Call of Duty 2 en Half-Life 2: Episode One gespeeld kunnen worden met framerates die varieren van 30 tot 60 fps. Niet alleen games profiteren van de nieuwe driver, ook het afspelen van video's gaat vloeiender. Dankzij verbeteringen in de ClearVideo de-interlacing-technologie moet de videokwaliteit verbeteren. In een vergelijking met de ATI Radeon X1600 bleek dat deze verbeteringen ervoor zorgen dat een HQV-demo op de G965 soepeler liep dan op de ATI-gpu. De nieuwe driver zal binnenkort op de website van Intel verschijnen.

Moderatie-faq Wijzig weergave

Reacties (86)

Hmmmmmm. Als die chip maar $4 kost, waarom zijn borden met een G965 chip dan zo onzettend duur?
tja inderdaad dit gaat natuurlijk ook een heleboel power schelen, Wat tegenwoordig nog wel eens vergeten word.
Ja omdat een chip van 4,- natuurlijk op een moederbord zit van 40,-... dat is dus 10% vd prijs... dat moederbord ligt ook gewoon voor 150,- in de winkel, kost ie je ook ineens 15,-.
G965 is geen 150 euro hoor ;) ~120
Inzichtvol???
Omdat dat 'hun' prijs is :P
Jij betaalt lekker 10x zoveel :+
Die chip kost 4 dollar meer dan een 965P. Die 4 dollar moet dus betaald worden door de moederbordfabrikant, die vervolgens een bak extra lijnen mag aanbrengen om de VGA poort met een beetje fatsoenlijke kwaliteit naarbuiten te brengen. Grote kans dat ze of het PCB er voor moeten herontwerpen, of dat het 965P bord ook al duur was omdat ie voorbereid is voor een grafische onboard chipset.

Al met al zie je een groot verloop in de verschillende borden. Ik zie eigenlijk alleen Foxconn met betaalbare G965 moederborden.
En hoe zit 't met Vista Aero etc. en deze chipset?
Als je cod2 redelijk kan draaien, kan je aero wel goed draaien hoor ;)
Guess again :D

CoD draaien op lage resolutie is voor de meeste geen zo'n groot probleem dan op de desktop 1024x786... op een 20" scherm.
Intel doet zijn best om de videochip door middel van driverupdates snel genoeg te maken voor de huidige populaire spellen
Middels driverupdates :?
Volgens mij kun je dat niet echt onbeperkt oprekken.
Lijkt mij dat als je 1x een goeie driver hebt je middels een driver update niet nog eens een 10-tal extra FPS uit kunt trekken in je favo game.
Dat is tenslotte ook niet zo met de Nvidia drivers.

Op een gegeven moment is de rek gewoon uit de chip (voor zover dat niet al het geval is bij het moment van release). Dan zul je om sneller te kunnen gaan toch een nieuwe chip moeten installeren.
Intel doet zijn best om de videochip door middel van driverupdates snel genoeg te maken voor de huidige populaire spellen
Ja, en door middel van die laatste driver update rijdt mijn Opel inmiddels ook 350 km/u :+
indien er een "driver" update zou zijn geweest
was de auto niet meer van jou :+
Ja door een driver upload kan dat ding echt sneller worden... Dit ligt waarschijnlijk vooral aan die flexibel in te zetten pipelines die ze nu dus schijnbaar goed geprogrammeerd hebben..

Heb al meerdere reviews van deze GMA X3000 gelezen, maar snap nu ook eindelijk waarom de eerste resultaten zo teleurstellend waren..
Ze kunnen dmv driverupdates de hardwareondersteunign versnellene, of, zolas nu, zelfs functionaliteit toevoegen.
Ook zouden ze de drivers verregaand kunnen optimaiseren voor bepaalde spellen.
In beide gevallen kan dat heel wat performance schelen, desnoods met een toegift naar beeldkwaliteit hier en daar.
Dat houd dus gewoon in dat ze al een jaar lang features die in een chip zitten niet gebruiken. En je gaat niet iets nu kopen omdat je over een jaar pas meer kan gebruiken.

Ik vind dit maar vaag.
Voor OEMs is dat niet interessant, die leveren gewoon een Intel systeem met "Dualcore" (hip), 320GB harddisk (ook hip), 1GB geheugen (schijnt ook hip te zijn) en een 256MB videokaart (ook hip volgens sommigen).
Dat er vervolgens een G965 in zit maakt die OEMs niet uit, het verkoopt toch wel.
En daarnaast, nvidia had een Geforce8800 DX10 kaart die perfect zou moeten zijn voor Vista, maar toen Vista uitkwam waren er geen stabiele drivers voor. Doet me tegenwoordig een beetje denken aan de goede oude S3 tijden: verkoop een kaart met Hardware T&L, doe er meer dan een jaar over om het in je drivers te implementeren en kijk vervolgens toe hoe je hardware T&L voorbijgelopen wordt door een K6/2-500 CPU :X
Bepaalde engines zijn best wel te spelen op Intel videokaarten maar.. tja.. een modern spel zal bij de melding "Intel" in het videogedeelte in het beste geval schakelen naar een lage versie Directx omdat..Intel gewoon altijd het MINIMUM vereiste geeft.

En waarom niet? Op de server/desktop markt..heb je vaak geen 3d power nodig. Dat ze tegenwoordige Dx9 kennen is alleen maar om Earo op te draaien!
30-60 fps op COD2, daar geloof ik geen jota van. Sure, in directx7 mode, met alle eye-candy af, en op 'n reso van 640x480 of lager. Meer zie ik dat ding echt niet doen, een 6600GT heeft al moeite om COD2 in dx9 mode te draaien...

Met 2 pipes kán je gewoon geen hoge ogen gooien in hedendaagse games. Je speelt er heus geen oblivion mee, hoe zwaar je je drivers ook tweakt.
Ik speel veel Call of Duty 2 en zie zo dat het beeld van dit fotootje DX9 beeld is dus en ook niet met de laagste settings.
Plus dat dit op een HD/HD-ready scherm afgespeeld word, dus als je nog een CRT scherm gebruikt met 1024 (zoals ik) kan je zelfs nog meer fps krijgen \0/
Hm. Mijn X1950pro heeft in sommige levels al moeite @ 1280x1024 4xAA. Deze kaart heeft 12 pipes, 36 pixelshaders en clocks die torenhoog zijn in vgl met die integrated chipset, en haalt géén gemiddelde van 57 fps op die settings. Het is simpelweg onmogelijk dat die integrated chipset, unified shaders of niet, m'n X1950 verslaat...
:+ Volgens mij hebben ze Cod2 gewoon helemaal de tering getweaked... tenminste zo komt hun product éxtra goed uit de hoek. Het erge is.. Ik zie ze er óók nog voor aan !

Nou ja... Onboard blijft altijd voor non-gamers. Ik heb moeite met onboard graphics... het valt niet up te graden. :+
Ja want een losse grafische kaart valt natuurlijk wel up te graden? Ow wacht even, ik kom geheugen tekort, laat ik daar even een 512MB module bij prikken. Stel dat ze straks een onboard grafische chip bakken die net zo goed presteert als een 8800GTX, ben je er dan ook tegen?
Dus jij wou serieus beweren dat onboard graphics niet aan flexibiliteit inboeten?
Die boeten idd niet aan flexibiliteit in. Je kunt gewoon meer geheugen bijprikken, en op het moment dat je onboard VGA toch niet voldoende is, prik je gewoon een PCI-e kaart in het 16x slot wat ervoor is bedoeld.
De G965 is gewoon een volwaardige 965P chipset met een geintegreerde graphics core. Als je hier een PCI-e kaart op aansluit schakelt ie die core uit en is het gewoon een 965P qua functionaliteit. Enige beperking die je dan hebt is een fabrikant die die chip over het algemeen op een uATX bord drukt.
Zeer mooie ontwikkeling voor de mid range!
Zeer mooie ontwikkeling voor de mid range!
Ik wacht persoonlijk op de eerste 12" ultracompact laptop met zo'n chip er in. Hij schijnt namelijk ook nog eens behoorlijk zuinig te zijn!

edit: de marketingpraat van intel: http://support.intel.com/...ets/gma3000/demo/demo.swf
Budget, bedole je ?!
Vergelijken met de ati x1600 is naar mijn idee toch echt vergelijken met mid-range, de x1800 /1900 is high end en de x1300 (of was het nou 1350) zijn meer budget...
de vergelijking met de x1600 ging over een vergelijking bij een hollywood quality video demo, en niet over games.
die onboard vid kaart komt echt niet eens in de buurt van een x1600.
(de winst van de 965 daar is ook best impressive hoor want tot nu toe stak ATI altijd ver boven de rest uit met video IQ tests en playback.)
Het afspelen van video gaat dan misschien soepeler op deze intel-chip, maar dat geldt dan nog niet voor de graphics in games...
@SRI

maar in het daglicht van de 8800GTX vind ik het aardig budget hoor :7 Klinkt mij als muziek in de oren.
Budget? De G965 is alles behalve goedkoop. Voor dezelfde prijs heb je een 945P bord met een losse videokaart. De 945G is wat ik noem budget. Ik ga echt geen upgrade voor 75 euro doen om van mijn 945G naar een G965 te gaan, dan schaf ik liever een losse videokaart aan.
De nieuwe bčta-driver met vertex-shaders-ondersteuning zorgt ervoor dat spellen zoals Call of Duty 2 en Half-Life 2: Episode One gespeeld kunnen worden met framerates die varieren van 30 tot 60 fps.
Is dat in 320 x 200 of 640 x 480? |:(

Volgens AMD 690G: Performance Review bakt de Intel G965 er niks van.
Ik begrijp het ook niet goed. Want toen mijn losse videokaart RMA was en ik het moest stellen met mijn onboard G965, heb ik persoonlijk ontdekt dat die G965 er niks van bakt. Regelmatig framedrops en soms zelfs artifacts. Toen had ik al de indruk dat de drivers van Intel niet veel voorstelden. Blijkbaar moet die nieuwe beta driver echt wel heel veel goed maken...
Een nieuwe bčta-driver die ondersteuning voor hardware vertex-shaders bevat, moet aantonen dat de geďntegreerde chipset gereed is voor computerspellen.
Toen de G965 op de markt kwam waren de drivers echt om te huilen, maar dat is dus nu opgelost door deze drivers. Door deze drivers gaat het nu niet meer software matig maar hardware matig. En dat scheeld heel veel, je cpu word minder belast en het worde sneller berekend door de gpu dan de cpu.

Je heb dus aan twee kanten winst.

Meer cpu tijd, en hardwareversnelling.(dit gaat veel sneller dan softwarematig.)
Waarom hebben ze dit dan niet eerder gedaan ? Ik vind dit maar een vaag verhaal. En die ATi chips halen op 1024x768 ook een max fps van 84 average zat op 18. De intel kwam niet eens daar in de buurt met de oude drivers. Deze screenshot kan dus best gemaakt zijn op het moment dat de fps ff hoog was. Mijn X1900 XTX kan wel 600 FPS op het beeld toveren in die settings ( Als niet meer ). Echter kan me CPU dat niet bijhouden.

Dus om te zeggen dat een IGP of Low en kaart goed is voor games vind ik heel erg ver gezocht. Maakt niet uit welke je hebt echt lekker loopt het niet. En het ziet er super lelijk uit. ( ken mensen die op een 9600 SE gamen dat is ongeveer net zo erg en dat ziet er verschrikkelijk uit en speelt voor geen meter )
Intel en IGP drivers. :z

En dit was al voor de launch bekent, dus komt niet uit de lucht vallen. ;)
@Astennu

En dus? Het gaat Intel er toch om dat ze speelbaar zijn op hun chipsets? De vergelijking met de X1600 Pro is alleen maar gelegd om het er een beetje fatsoenlijk uit te laten zien maar dit is gewoon een nieuwe generatie Grafische chips van Intel die onfortuinlijk genoeg nog wel steeds een generatie achter ligt op de gamesindustrie.
Hmm.
Intel heeft het spel waarschijnlijk zo hard aan moeten passen, dat ze de settings nog lager als "Low" kunnen zetten, want ik zie daar toch echt niet veel FPS staan. 1 t/m 4 fps, komop hey.
Als je naar de afgebeelde screen kijkt,
57 met graphics die nog VEEL omlaag kunnen.

CoD2 valt er dus gewoon goed op te spelen.

De 'incidentele' gamer zal heus niet zo'n graphicshoer zijn hoor.
Ehh, hoe kan jij bepalen aan de hand van het plaatje dat de graphics nog naar beneden kunnen ? Het plaatje is maar 425 bij 287. En het scherm vult niet eens het plaatje. De getoonde resolutie kan dus 720 bij 480 zijn zonder dat je het verschil ziet. Lager dan dat gaat CoD2 standaard niet in breedbeeld. Ook kan je AA niet op dit plaatje zien van wege de te lage resolutie dus die zou prima uit kunnen staan. Als dat zo is kan je helemaal NIETS lager gaan.
Perfect voor een HTPC dus?
Heeft intel dan ook zo'n soort PUREVIDEO addon waarmee je video hardwarematig kan afspelen? Mpeg4 ect..
ook het afspelen van video's gaat vloeiender. Dankzij verbeteringen in de ClearVideo de-interlacing-technologie moet de videokwaliteit verbeteren.

Ik zou zeggen dat dat toch wel een antwoord moet zijn op je vraag
software matige de-interlacing en hardware matige afspelen is toch niet echt het zelfde.
(ik vermoed iniedergeval dat het software matig gaat omdat het met de drivers is toegevoegt)
dit is echt wel een goed initiatief :)

een x1600 kost toch zo'n 70-90 euro. Als je dat kan besparen op een moederbord is dat echt wel een goed idee
De X1600 is wel slim gekozen, want dat is een nogal geflopt model. Vergelijking met goede midrange spullen, zoals X1650, zal wel tegenvallen.
Wat een onzin, de X1600 heeft 3× zo veel verkocht als zijn voorganger de X600. Dit is trouwens geen bedreiging voor de budgetklasse, alleen voor de Entry-klasse (7100GS, 6200TC, X300SE etc.). Deze chip kan overigens vergeleken worden met een 7300GS of een 6600LE (voor ATi X1300 of X550), gezien de resultaten die hij op papier haalt.
Tom vindt dat de 1600 pro even snel is als een 6600 gt en slechts 1 stapje hoger dan de 6600. Stapjes waarvan je er minstens 3 moet nemen om je upgrade te merken....
De X1600Pro is een hele lap sneller dan een 6600 (niet-LE). Heb beiden onlangs kunnen testen :)
Maar dat is toch altijd met dit soort vergelijkingen. Je zoekt iets wat er leuk uitziet maar net iets minder presteert en daar ga je mee vergelijken. Als ze dit gaan vergelijken met de betere kaarten dan worden ze meteen afgeschoten. Daarbij is dit ook niet bedoeld om te concurreren met de top kaarten daar deze toch niet bij te benen zijn met een onboard chipje.
Als je dat kan besparen op een moederbord is dat echt wel een goed idee
Als je alleen DVDs kijkt wel, er staat nergens dat die in games een X1600 kan bijhouden (wat die ook echt niet kan).
niet echt? echt niet. ;)
Maar veel incidentele gamers zullen aan de 'vier dollar'-videochip voldoende hebben, zo liet Knupffer weten.

Duty 2 en Half-Life 2: Episode One gespeeld kunnen worden met framerates die varieren van 30 tot 60 fps.
Dat zijn meer frames dan mijn XFX GeForce 6200 256MB DRR2 AGPX8 weergeeft, en dat voor ¤90,-- toendertijd. :'(
ook meer dan een Geforce 2 GTS van duizend gulden in der tijd :+

neemt niet weg dat ik dit een heel erg vernuft vind, ik vraag me af hoe het met de beeldkwaliteit zit, als die nu vergelijkbaar zou zijn zou dit voor een intergrated chip echt een beest zijn.

zou dit de voorbode zijn van Intel die zich opmaakt om zelf ook dedicated GPU's te gaan maken?
zou dit de voorbode zijn van Intel die zich opmaakt om zelf ook dedicated GPU's te gaan maken?
dat vroeg ik me ook al af. Zou wel een aardige ontwikkeling zijn. Want ik heb het idee dat Intel best een leuke aanvulling kan zijn in de strijd tussen ATI en Nvidia.

Hoewel Nvidia wel een probleem gaat krijgen dan.
AMD / ATI
Intel / Intel
en Nvidia staat er dan alleen voor.

Misschien moet Nvidia dan met VIA in zee gaan....?
Tja, dat noemen ze vooruitgang he ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True