Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 22 reacties
Bron: DailyTech

DailyTech heeft van Intel informatie ontvangen over de specificaties van de grafische cores die ge´ntegreerd zullen worden in de Q965 en Q965 Express-chipsets. In tegenstelling tot eerdere berichten zullen de chipsets niet uitgerust worden met dezelfde core. De Q965 wordt uitgerust met de GMA 3000-core en de Q965 Express krijgt de beschikking over de snellere GMA X3000-core. De GMA X3000 zal OpenGL 1.5, DirectX 9c en DirectX 10 ondersteunen terwijl de GMA 3000 alleen OpenGL 1.4 plus en DirectX 9c zal ondersteunen.

Intel-logo nieuwe stijlHet grootste hardwarematige verschil tussen de cores is te vinden bij shaders. De GMA X3000 zal hardwarematig model 4.0 vertex shaders kunnen verwerken en model 4.0 pixel shaders terwijl de GMA 3000 de vertex shaders softwarematig zal moeten verwerken. Pixelshaders worden wel hardwarematig versneld, maar in plaats van model 4.0 wordt model 2.0 ondersteund. De overige vrijgegeven specificaties zijn gelijk voor beide cores. Beide cores kunnen onder andere 32- en 16-bit floatingpoint-bewerkingen uitvoeren, uit de voeten met 128-bit floatingpoint-plaatjes en anisotropic filtering toepassen. Hoeveel pipelines de cores hebben is nog niet bekend gemaakt. Wel bekend is dat de GMA X3000 zijn werk zal doen op een kloksnelheid van 677MHz. De eerste moederborden gebaseerd op de Q965 worden deze maand nog verwacht en de Q965 Express zal begin september ge´ntroduceerd worden.

Moderatie-faq Wijzig weergave

Reacties (22)

dx10 == shader model 4.0 en niet 3.0

http://images.dailytech.c...1971_large_specs_g965.png

ze spreken zichzelf tegen
De X3000 heeft trouwens een unified pipeline architectuur, die geometry, pixel en vertex shading kunnen

//edit
voor alle duidelijkheid, de x3000 is een dx10 chip
Het was al bekend dat de DirectX10 ondersteuning in de GMA3000 series voornamelijk via software/driver gedaan zou worden. Er komt dus een extra tussenstap tussen, die de snelheid natuurlijk niet ten goede komt, maar die er wel voor zorgt dat Intel volledig Vista compatible is.

@.oisyn, ik ga uit van http://download.intel.com...ets/applnots/31334301.pdf waarin toch duidelijk over Vertex 3.0 (Hardware) wordt gesproken voor de X3000, terwijl de 3000 het met 2.0/3.0 (Software) moet doen. Dat in ogenschouw nemend, dan is 3.0/4.0 (Software) voor de X3000 natuurlijk een gemakkelijke uitbreiding. Hierbij wordt dus de lagere versie direct met hardware ondersteunt, en is er een microcode vertaalslag nodig voor de hogere versie. Het meeste Vertex 4.0 gebeuren is namelijk een uitbreiding van 3.0, dus ook al is de vertaalslag natuurlijk een vertraging, wat zich veelal vertaalt in kwaliteitsverlies om te compenseren, is het toch mogelijk, zonder al te veel CPU gebruik.

De Pixel shader is 3.0 in de X3000 en 2.0 in de 3000, dus daar is weinig aan te doen, echter daarom is het ook alleen maar de X3000 die DirectX10 ondersteunt, omdat dit een 2de factor is voor DirectX10.
Onzin, pixelshaders zijn niet fatsoenlijk met een CPU te af te vangen, tenzij je alles op de CPU doet en dan heb je al niets meer aan de hardware.

Als de GMA X3000 maximaal shadermodel 3 ondersteunt is het gewoonweg geen DX10 kaart, klaar. Maar dat is niet het geval, in het plaatje dat oeLangOetan laat zien blijkt de chip gewoon sm4.0 te ondersteunen. Het is dus verkeerd overgenomen.
Aangaande je edit

Vertexshaders zijn nogal anders dan pixelshaders. Ze transformeren de vertices waaruit de polygonen bestaan, en die zijn er natuurlijk in veel mindere mate aanwezig dan er pixels zijn om te renderen. De pixelshaders worden per pixel van de polygonen uitgevoerd en hier is gigantisch veel memory access voor nodig (texture fetches en de uiteindelijke reads en writes naar de framebuffer en zbuffer). Een GPU is hierin geoptimaliseerd met z'n korte pad naar het loeisnelle geheugen en allerlei caches - de reguliere CPU bijt het stof al sinds de voodoo 1 van 3dfx.

Dat uitbreidingen mogelijk zijn omdat er maar 1 versie verschil zit tussen 3.0 en 4.0 is een aanname die jij maakt en bovendien niet klopt. Een van de nieuwe features zijn bijvoorbeeld memory exports, dus de mogelijkheid om vanuit een shader willekeurige data te schrijven, anders dan de data die naar de frame- en zbuffer gaat uiteraard. Dit is op geen enkele manier te simuleren met de huidige pixelshaders, tenzij je ze volledig op de CPU laat draaien.

En de eisen zijn sinds Direct3D 10 veel en veel strenger dan ze momenteel zijn. Zo is het nu gebruikelijk dat heel veel features die de API ondersteunt optioneel zijn en als programmeur moet je opvragen welke features ondersteunt worden voordat je weet of ze gebruikt kunnen worden. Met Direct3D 10 gaat dat radicaal veranderen, er wordt gesteld dat alles wat je met de API kan ook door de hardware ondersteunt moet worden. Een DX10 implementatie met SM3.0 is dus niet mogelijk, het moet 4.0 zijn in alle opzichten. Een applicatie die DirectX 10 target hoeft dus ook geen moeite te doen om een SM3.0 (of lager) te implementeren, als je DX10 kunt initialiseren weet je zeker dat SM4.0 ook ondersteunt wordt.

Dat microcode gebruikt wordt en de SM assembly vertaald moet worden door de drivers is al tijden zo. Op de consoles (xbox, xbox360, ps3) kun je dat veel beter zien omdat je daar de mogelijkheid hebt direct met de microcode te werken. Microcode werd zelfs al gebruikt om de fixed function pipelines te implementeren voordat shaders bestonden. Bottom line is dat het wel mogelijk moet zijn een shader model te implementeren met de beschikbare microcode instructieset, anders ben je helemaal nergens, ook al laat de microcode instructieset iets meer toe dan het maximaal ondersteunde shader model.

't Is trouwens grappig dat je dat document aanhaalt, op pagina 13 kun je zien dat slechts DirectX 9.0c ondersteunt wordt voor de verschillende chipsets. Heel DirectX 10 wordt niet genoemd :). Reken er maar op dat als het mogelijk zou zijn sm 4.0 te implementeren ze dat zeker in dat document gezet hadden, daar maak je je product namelijk alleen maar populairder mee.
Staat toch al een aantal weken wat info hierover op de site van intel:
Specs (pdf)
pr filmpje
Dus alleen de duurste is Vista 'ready', apart :?

@oeLangOetan

Op die fiets, toch zou je verwachten dat nieuw spul zolangzamerhand dx10 compatible is.
sm2.0 is voldoende voor vista, beide zijn dus vista ready & kunnen een vista premium stickertje krijgen als ze voldoende snel zijn
umm er zijn nog geen retail kaarten dx10 compatible, dus elke pc die de gemiddelde tweaker zal bezitten kan niet dx10 compatible zijn, itt to dx9-, waar de hardware lang voor de software verscheen, is het nu haast andersom/gelijktijdig.
Is er al wat van de prestaties te zeggen ? Komt die een beetje in de buurt van zeg een Geforce 7600 GS ?
With the exception of hardware pixel shader model 2.0 support the GMA 3000 graphics core has similar specifications as the outgoing GMA 950 graphics core. Since Intel is catering Q965 Express chipsets towards business users as part of its vPro platform initiative it doesn’t exactly need gaming capable graphics power.
Deze nieuwe chip zal bij lange na niet het niveau van een 7600 GS halen.

GMA 950 Prestaties t.o.v. andere videokaarten
Well een crappy vergelijking.

De GMA950 had:

T/L support: Software based (no Hardware T&L Support)
Clock speed: 400 MHz
Pixel Pipelines: 4
Pixel Fillrate: 1600 MPixel/s
Vertex Shaders: 1 (v3.0)* (software)
Pixel Shaders: 4 (v2.0) (hardware)

De X3000 heeft:
Hardware vertex shader model 3.0
Hardware pixel shader model 3.0
Hardware T&L support.
Unified shaders: 8.
Clock Speed: 667 Mhz

Kwa specs komt dat in de buurt van een 9700/9800. Het enige minpunt is dat het weer afhankelijk is van de lage speed systeem ram wat de snelheid enorm nadelig kan beinvloeden.

Gewoon het feit dat T&L softwarematise gedaan was, is al een enorme drop in performance.
Naja, ik kwak er toch een 7950 GX2 op dus dan schakel ik deze toch uit. En ja, ik heb een SFF pc dus er komt een mATX mobo in die veelal met deze chipset geleverd worden. Heb natuurlijk wel als voordeel dat ik kan door blijven surfen als me grafische kaart ontploft :+
Precies, dat lijkt mij dan wel weer erg handig. Zo'n onboard geval lijkt soms klote als je alleen maar snel spul wil hebben, maar het is wel ow zo handig als je kaart kaduuk gaat of je wil hem verkopen en een nieuwe kopen en je moet hem een week missen iod, dat je dan gebruik kan maken van een onboard videokaart die zelfs alles technieken ondersteunt zodat je op zijn minst (in de toekomst) Vista kunt draaien in volle glorie. Lijkt mij wel erg fijn om als soort backup achter de hand te hebben.
Bingo. En het is een veel betere opvulling van het mobo IO shield dan seriŰle of paralelle poorten :)
Eindelijk wat specificaties! Weer een mooi chipje om op te kunnen internetten en om films te kijken.
Als ik me niet vergis kan je onder vista straks ook je onboard vga gebruiken naast je PCI-express kaart. Dat zou betekenen dat je de onboard video kan gebruiken voor een 2e monitor bijvoorbeeld.
Je kon altijd al de onboard + losse kaart tegelijk gebruiken, hoor. Zelfs onder Windows 98.
Is dit de grafische chipset van Intel die ook in laptops zal verschijnen als integrated solution?
Ik ben bang van wel :r
dit ding lijkt me heerlijk om een triple screen setup te draaien en toch alle visuele dingen te behouden en je hoeft geen extra videokaart te kopen.
Intel wordt er maar niet origineler op qua naamgeving voor hun nieuwe producten. Denk maar aan bijvoorbeeld hun Core Duo of Solo. Deze naam klinkt op de een of andere manier gewoon niet lekker en heel origineel is het ook niet, want het slaat gewoon op het aantal cores. Natuurlijk zijn die nieuwe cpu'tjes (Core 2 Duo) wel lief :P, maar noem ze gewoon Intel Conroe oid. Dat klinkt gewoon veel beter naar mijn mening.

Nu komen ze dus weer met de GMA X3000. Deze naam hebben ze volgens mij half gejat van ATi (Radeon X300) en er een nulletje achter geplakt. Bovendien wordt het er op die manier ook niet duidelijker op. Noem deze videochip gewoon de GMA 965. De GMA 3000 wordt dan bijvoorbeeld de GMA 965LE en de snellere variant geef je geen achtervoegsel. Ik vind dit persoonlijk veel eenvoudiger.

En tjsah... wat moet ik zeggen over de chip? Het lijkt me een leuk ding voor in laptops, zodat je veel games in ieder geval nog op kunt starten. Helaas zal deze nieuwe IGP gewoonweg te traag zijn om DX10 games op een aanvaardbare snelheid te laten lopen, laat staan de hedendaagse DX9 spellen (tenzij je het detail flink omlaag schroeft). Veel kun je namelijk niet verwachten van een IGP.

Nou ja, ik ben benieuwd wat voor prestaties dit chipje neer zal zetten :).
Dit doen ze expres, zo doet de naam X3000 suggereren dat hij een stuk beter is dan de X1800 bijv. hoewel dat misschien helemaal niet zo is. Goede zet dus.
Ik snap niet wat er mis is met Core Duo/Solo en Core 2 Duo. Je mag dan als tweaker wel gewend zijn geraakt aan codenaam Conroe, maar laten we wel wezen, Core 2 Duo/Solo is echt wel een stuk beter te begrijpen voor de normale mens. Ik vind het imho duidelijke type aanduidingen.

Daarnaast hoeft niemand te weten hoe deze intel GPU heet. Een enthousiast koopt zo'n ding niet. Ze worden vaak geintegreerd en nogmaals blijft het een simpele GPU voor de goedkope alles-in-1 oplossingen. Zo kan je een mooie Vista ready pc bouwen met alles geintegreerd. Heel praktisch en de persoon die zo'n machine gebruikt (werkvloer etc.) zal het echt een worst zijn wat voor videokaart het is. Deze kunnen allebij ongetwijveld prima Vista draaien. Een spel spelen is echter heel wat anders en daar geef ik je dan ook gelijk in. Het zijn gewoon zwakke kaartjes die wel alle technieken ondersteunen. Praktisch dus, maar niet iets voor de enthousiast.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True