Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

Intel heeft maandag op de Game Developers Conference in San Francisco zijn Graphics Performance Analyzers gepresenteerd. Deze gereedschapskist voor spelontwikkelaars moet helpen om games voor de igp's van Intel te optimaliseren.

De chipgigant stelt dat developers met de toolkit hun games beter kunnen optimaliseren voor de diverse igp's van Intel, zoals de GMA 4500-, X4500- en de X4500HD-chips. De Graphics Performance Analyzers-toolkit, die onderdeel uitmaakt van Intels Visual Adrenaline-programma, bestaat uit een system analyzer, een frame analyzer en een sdk. De system analyzer moet de ontwikkelaar inzicht geven in de belasting van het systeem, de frame analyzer verschaft informatie over de framerate in gamecode, en met behulp van de sdk kunnen ontwikkelaars de toolkit aan hun eigen wensen aanpassen.

Het Graphics Performance Analyzers-pakket is gratis voor deelnemers aan het Visual Adrenaline-programma; niet-leden betalen 299 dollar. Volgens ingewijden zou de release van de analysetools vooral bedoeld zijn als opmaat voor Intels Larrabee-platform. Tot nu toe staan de grafische chips van de chipgigant niet bepaald bekend als snelheidsmonsters, maar met de Larrabee-processor - die gebruik maakt van de x86-instructieset - wil Intel een inhaalslag ten opzichte van gpu-grootmachten Nvidia en ATI maken. Naar verwachting zullen de eerste op 32nm gebakken Larrabees in 2010 op de markt verschijnen.

Video (8757150decbd89b0f5442ca3db4d0e0e.flv)
Moderatie-faq Wijzig weergave

Reacties (45)

Ik snap Intel's keuzes in het verleden ook wel, ik ben zelf ook in bezit geweest van een Intel moederbord met hun eigen chipset (+vga). Het beestje was absoluut onmogelijk om over te clocken, maar ik heb nog nooit een bootfaillure gekregen, memdump of iets in die trend, ze gaan duidelijk voor stabiliteit en stilte boven performance. Je wil ook niet de hele dag teksten schrijven op kantoor als je een ATI ventilator onder je kont hebt. Het is goed dat ze zich richten op een andere markt, als ze maar niet hun primaire premisse uit het ook verliezen want uiteindelijk zijn de gamers de kleinere markt in het segment...

[Reactie gewijzigd door gizmostudios op 24 maart 2009 14:49]

Ja, maar waarom zouden ze dan wel een tool uitbrengen om prestaties in games te verbeteren als dat niet hun primaire doel is.

Het doel van Intel igp's is om beeld te geven, niets meer niets minder. Je kunt er op internetten en wat word documentjes typen en een potje packman wil ook nog wel op dat ding. Het is niet gemaakt om andere fratsen mee uit te halen, het moet beeld geven en dat doet hij.

Verder hebben ook AMD en NVIDIA igp oplossingen zonder een fan die gewoon prima werken en ook hetzelfde doel hebben als de Intel ipg's: Beeld geven zonder fratsen. Dat deze kaarten over te clocken zijn is omdat ze net zo gebouwd zijn als hun grotere broers waar tweakers software voor schrijven om die over te clocken en iets dat inmiddels door AMD gewoon ingebakken zit in de Catalyst drivers. Maar dat is meer omdat men gewoon hetzelfde stuk software kan gebruiken.

Daar zit echt geen verschil in hoor. Daarnaast kan een AMD of NVIDIA igp ook op kantoor voordeel geven in de vorm van hardwarematige videoversnelling, gebruik maken van lichte CUDA / ATI Stream optimalisaties of het gebruik voor lichte physics berekeningen in de toekomst
Daar heb je ook wel gelijk in dat AMD en NVIDIA lichtere videokaarten uitbrengen, maar dit is meestal een downgrade van het topmodel om de budgetconsumenten aan te spreken, of een oudere kaart in een nieuw efficiënter jasje gestoken die anders toch in de rommelbak belandt. Maar Intel heeft als ontwikkeldoel eerder een grafische kaart die leuke plaatjes genereert en geen ruk kost, waarbij ze wel in bepaalde mate mee gaan met innovaties als hardwarematige videoversnelling omdat dat ook in hun doelgroep past. AMD en NVIDIA hebben gewoon een andere perceptie in wat een topmodel inhoudt.
Ik heb het over igp's van AMD en NVIDIA. Die worden voor de budget markt gemaakt. Intel bediend alleen de budget markt, AMD en NVIDIA maken kaarten voor alle markten: Gamers, professionals en budget bakken.

Daarnaast zijn AMD oplossingen zoals de AMD 780G chipset gewoon een stuk beter als de Intel opties, bieden betere prestaties, meer features en betere video versnelling. Die zijn gewoon gebasseerd op de high-end modellen, alleen dan minder shaders en dergelijke om ze zo kleiner en goedkoper te maken. Ze zijn echter allemaal van hoge kwaliteit, alleen de performance verschilt!

AMD en NVIDIA hebben met hun igp dus ook als doel een goedkope igp te bouwen die leuke plaatjes genereerd, geen ruk kost, maar beter is als hun concurrent.
dus als is goed begrijp gaat intell strax ook de GPU markt in? Sltijd al appart gevonden waarom zij dit niet eerder hebben gedaan. Intell buys nvidia anyone?
Waar heb je het over? In het verleden heeft Intel wel andere videokaarten gehad. Ook kopen ze NVIDIA niet over, ze bouwen zelf een nieuwe videokaart. Googlen op "Larrabee" levert genoeg op.

reviews: Larrabee: op het kruispunt van gpu en cpu
Een interessant artikel van Wouter Tinus over de uitleg van de werking van Larrabee. Zeker het lezen waard voor mensen die Larrabee voor het eerst horen.
Intel heeft in het verleden wel meer wat gezegd. Larrabee kan een begin zijn maar we weten nog steeds niet wat voor andere onwtikkelingen ze van plan zijn. Toen ze destijds, ben de naam even kwijt, de supplier van Creative over hadden genomen is er een diepe stilte gevallen, was meen ik 4-5 jaar geleden.

Verder vind ik dat het x86 platform achterhaald is en we borduren nog steeds verder op bestaande formfactors helaas. Ook hier maakt Intel geen haast om met nieuwe ontwikkelingen te komen aangezien ze geen noodzaak hebben, de verkopen zijn nog steeds goed. Enerzijds begrijpelijk maar we hadden al een paar stappen verder kunnen zijn in ontwikkeling.

Met de Atom zetten ze wel een goeie stap in de richting, met name met de Atom330 maar de doorvoer en implentatie ervan is nog maar karig. Vraag blijft echter, hadden we niet al lang van die grote kasten af kunnen wezen en gewoon simpele small clients kunnen hebben die net zoveel kunnen als die big towers ?

Verder komt er steeds meer nieuws opduiken dat Nvidia ook met eigen CPU ontwikkelingen bezig is en AMD heeft ATi niet voor niets gekocht om zo ook een totaal chip/platform uit te kunnen brengen. Larrabee staat voor 2010 gepland, als ze dat al halen en dan is de vraag of AMD ze niet al voorbij gestreefd is. Met name AMD/ATi laat goeie prestatie's zien in ontwikkeling :) Verder vind ik deze Intel software niet zal bijdragen tot snellere/betere ontwikkeling voor games want weer zullen devvers dan rekening moeten houden met een apart platform en zal Linux ondersteuning mogelijk helemaal gaan verdwijnen voor games.
Dat is zo lastig te zeggen allemaal. De warmte moet ook worden afgevoerd en tsja, is onze x86 instructieset wel zo slecht? Intel ziet niet voor niets heil in de instructieset om deze voor andere dingen toe te gaan passen zoals Larrabee en de Atom's (lees nog zuinigere x86 processors voor je telefoon).

Eigenlijk kun je hem omdraaien. Zijn de andere isntructiesets zoals PPC en MIPS wel goed genoeg? Apple is overgestapt naar x86 en ook Intel en AMD hebben grootse plannen met de x86 instructieset.

x86 op zichzelf is wellicht niet geweldig, maar wat dacht je van alle aanvullingen zoals SSE?

Echter, het belangrijkste is de ondersteuning. Een nieuwe CPU bak je niet zomaar. Nu is men met een dik team al jaren bezig om een bestaande CPU te maken. Laat staan wat men nodig heeft om een compleet nieuwe instructieset uit de grond te stampen.

Dan hebben we het alleen nog maar over de CPU op zichzelf. Een chipje is leuk, maar doet niets zonder code. Een complete PC valt of staat dan ook met de ondersteuning. Een nieuwe Windows moet er komen in dat geval, tenzij Linux opeens een heel groot marktaandeel krijgt, maar dat zie ik ook niet gebeuren...

Intel heeft het in het verleden wel geprobeerd met de i960, maar dat is hem dus ook nie tgeworden. Hetzelfde voor Itanium, dat zou de 64-bits processor worden als ik me niet vergis, maar we zijn bij x86 gebleven.

Ik denk dat compability en ondersteuning belangrijk is. De techniek groeit ook door en x86 ook. Ik denk dat Intel echt wel overwogen heeft om weer een nieuw avontuur te starten, maar ik denk dat men bij Larrabee en Atom is uitgekomen na een lang onderzoek. Zeker Larrabee is een vreemde eend in de bijt, waarom zou men een x86 videokaart bouwen terwijl dat strict genomen niet noodzakelijk is en zij de kennis al hebben met hun igp's van huidige videokaarten.

Nee, ik denk dat x86, hoe prut het soms ook mag zijn, toch ook zijn voordelen heeft tegenover alternatieven. Er is wel degelijk heel wat mee mogelijk en het voldoet nog steeds. Een dik workstation in een kleine bak krijgen we nog niet. Maar de EeePC is wel een leuk voorbeeld. Daarnaast staat op het moment van schrijven een passief gekoeld embedded systeem met 1,66GHz Core 2 Duo T5600 naast me en die zal worden gebruikt voor professionele aansturingen. het draait ook Windows Embedded en het is wel lekker makkelijk dat ik op mn workstation het spul kan testen omdat het beide x86 is.

We zullen zien wat in de toekomst komt, Intel Larrabee vs AMD Stream en NVIDIA Cuda. Intel heeft een voorsprong met de x86 instructieset overigens. Maar wel is deze gebasseerd op de oude Pentium core. Dat heeft wel zijn voordelen, maar ik vraag me af of deze ook alle nieuwe features als SSE zal ondersteunen.

edit:
thx to .oisyn, SIMD (SSE) instructies zitten er in en zijn verbeterd om zo juist meer rauwe flops voor videobewerkingen te geven. Daarnaast mist de Larrabee wel out-of-order mogelijkheden. Maar Larrabee en Nehalem gaan naar elkaar toegroeien: nieuws: Instructiesets Larrabee en Core groeien naar elkaar toe

.



Ik denk verder dat Larrabee gewoon middels DirectX API calls kan worden aangestuurd voor games. Appart games voor Larrabee moeten schrijven lijkt me ook niet aan de orde en zo zal ook voor Linux wel OpenGL ondersteuning komen.

Ik denk niet dat er veel veranderd, eerder zou men juist van DirectX afstappen. Mac OS X kan daar ook niet native mee overweg en dat OS zit wel duidelijk in de lift in tegenstelling tot Linux. Verder krijgen we ook browser games zoals Quake Live! Nee, ik denk niet dat Larrabee daar een impact op zal hebben, eerder de keuze van de consument voor een ander OS als Windows.

[Reactie gewijzigd door GENETX op 24 maart 2009 15:19]

Dat heeft wel zijn voordelen, maar ik vraag me af of deze ook alle nieuwe features als SSE zal ondersteunen.
Natuurlijk, anders heb je helemaal niets aan Larrabee. Het mag dan gebaseerd zijn op een oude Pentium, dat wil niet zeggen dat het ook vergelijkbaar is. Het SIMD concept wordt in Larrabee behoordlijk uitgebreid - de SIMD registers worden 512 bits breed, zodat er dus 16 floats in passen, itt SSE die maar 128 bits breed zijn. Daarnaast ondersteunt het arbitrary swizzling om de componenten te verwisselen, vergelijkbaar met de swizzling die beschikbaar is in shader code, en kun je componenten uitmaskeren zodat relatief dure conditional branches niet meer nodig zijn. Daarnaast heb je gather- and scatter mogelijkheden, waarmee je registers kunt vullen / opslaan waarbij de componenten niet lineair achter elkaar in het geheugen hoeven staan. Al met al wordt Larrabee's instructieset een stuk bruikbaarder voor wiskundige doeleinden dan dat SSE nu is.

Misschien moet je de door jezelf aangehaalde preview van Larrabee op t.net zelf ook eens doorlezen? ;)

[Reactie gewijzigd door .oisyn op 24 maart 2009 15:03]

Had die al eens doorgelezen, maar ben de helft kwijt. Wat jij aangeeft is inderdaad een belangrijk voordeel.

Ik ben vooral benieuwd naar de plannen met Larrabee in de toekomst. Het baseren op de x86 instructieset, met aanvullingen die het gebruik als videokaart doen verbeteren heeft Intel natuurlijk een sterke concurrent voor AMD's Fusion. Waar AMD eigenlijk 2 apparte chips in 1 chip zal bouwen (CPU en een GPU) kan Intel beide bewerkingen doen met 1 Larrabee chip. Daarnaast ben ik benieuwd wat dit beestje gaat doen als hij als CPU wordt ingezet nu de chip ook ver terug gaat naar de basis van de x86 CPU en met name de pipeline een stuk korter is. Aan de andere kant mist de Larrabee weer features uit de hedendaagse processors zoals het out-of-order werken.

Intel zal ze wel dichter naar elkaar toe laten komen:
nieuws: Instructiesets Larrabee en Core groeien naar elkaar toe

Ik ben erg benieuwd. Misschien wel eens goed dat ik me echt in Larrabee ga verdiepen. Het is een prachtig concept waar ik nog te weinig van weet.
Aan de andere kant mist de Larrabee weer features uit de hedendaagse processors zoals het out-of-order werken.
Good riddance! Kijk voor de gein eens naar een die-shot van een moderne CPU waar de functionele eenheden staan ingetekend. OOO is een leuk idee, maar als je kijkt hoeveel transistoren tegenwoordig bezig zijn met niks anders dan OOO-gegoochel dan vraag je je af of dat geen verspilling is. Bij de Cell-architectuur is die vraag beantwoord met een duidelijk "ja" en dat gaat dus ook voor Larrabee gelden.
Overigens, als je over de Larrabee leest dat ie gebaseerd is op de eerste Pentium dan wordt er (voor zover ik kan zien) vooral bedoeld dat ie geen OOO gebruikt. De Pentium Pro was namelijk de eerste Intel CPU (en de eerste chip in het algemeen als ik me goed herinner) die OOO gebruikt.

Achteraf gezien zou het fijn zijn geweest als de Pentium indertijd 586 gedoopt was en de Pentium Pro (en verder) een mooi naampje ("Hexium"? :p) had gekregen. De verschillen tussen 486 en Pentium zijn namelijk relatief klein, terwijl de verschillen tussen de Pentium en de Pentium Pro enorm zijn, terwijl de naamgeving iets totaal anders suggereert.
Intel schijnt zelfs zo ver te willen gaan dat ze hun GPU/CPU absoluut in een console willen bouwen, er gaan zelfs geruchten dat ze daarin geslaagd zijn en NVidia uit de PS4 gewipt zouden hebben...

Iets meer info, maar met de nodige kritische blik te lezen:

[Reactie gewijzigd door Ryaka op 24 maart 2009 14:27]

hier nog een leuk stuk van tomshardware over larrabee. het werkt heel anders dan een gpu dus in feite is het een nieuwe ontwikkeling die de aansturing van het beeld verzorgd.
Ze leveren al jaren integrated GPU's bij hun moederborden, al eigenlijk vanaf de Pentium 2 tijd. Is een ideaale set voor op gebruik kantoor. Immers hoef je alleen maar 2D beeld te hebben en zijn 3D functies niet zo belangrijk bij het tikken van een brief of voor het surfen op het net....

Maar ....:
Deze gereedschapskist voor spelontwikkelaars moet helpen om games voor de igp's van Intel te optimaliseren.
Ik ben van mening dat het schrijven van een nieuwe rendermethode eigenlijk niet zoveel gaat uitmaken. Intel ligt al jaren achter wat betreft prestaties op IGP-gebied en het optimaliseren van de code gaat in feite toch niet zoveel uitmaken, omdat simpelweg de hardware niet snel genoeg is. Je blijft altijd de langzame factor houden van shared geheugen, ook al is dat tot op 1192MB groot, de verbinding samen met de rekenkracht van de IGP zelf is gewoon niet voldoende. Ook is het immens gebruik van gedeeld geheugen ook een verkoperstruucje/hoax. Geen enkel spel wat dat geheugen kan benutten en er nog een acceptabele framerate uit kan persen.
Een prestatie winst van een paar procent kan al voldoende zijn.

mensen die alleen games als WoW spelen hebben niets aan een highend kaart. of iets verouderde games. CoD2 wordt ook nog voldoende gespeeld.

Aantal jaar geeden had je voor die games een high end kaart nodig. Tegenwoordig kan een IPG al genoeg zijn. waardoor deze mensen wel een nieuwe machine kopen omdat de PC aan vervanging toe zijn, maar niet nog eens 500¤ neer hoeven te tellen voor een GPU.
Je kan ook overdrijven he tuurlijk heb je GPU's voor 500 euro maar voor 100 euro heb je al een ati 4850 die echt al 100x sneller is als onboard dus ja voor je zwaar overdreven vergelijking gaat die vlieger wel op, maar in real life toch echt niet want je betaald niet zo veel meer voor een goede kaart (nee niet de beste)...
Intel zit al heel lang in de GPU wereld. Ze hebben zelf insteekkaarten gemaakt zoals de Intel Express 3D AGP i740 (link) maar zijn, zoals ShaiNe al zegt ook een ontzettend grote speler, de grootste zelfs, op het gebied van Integrated Graphics Processors, IGP's dus.

IGP's worden vaak over het hoofd gezien als GPU's, maar het zijn dus echt GPU's. Alleen dan geintregreerd.

Maar om eerlijk te zijn heeft Intel nooit wat voorgesteld in het performance segment. Ze hebben altijd budget oplossingen gemaakt voor office toepassingen. Met Larrabee komt daar verandering in en gaan ze een high-end kaart lanceren met meerdere cores, en zoals het artikel zegt, x86 compatibel. Dit laatste geeft ze een enorm voordeel qua programmeerbaarheid.
Ja, en die kaart was ook zeker niet slecht voor die tijd, maar niet opgewassen tegen Rage 128 series of Nvidia TNT chips.
Intel is de grootste GPU-fabrikant ter wereld. Google het maar eens.

edit: Intel heeft zelfs een groter marktaandeel dan AMD en Nvidia samen! bron

[Reactie gewijzigd door ShaiNe op 24 maart 2009 14:04]

Ik denk dat het wel een beetje een vertekend beeld geeft ;
Dit gaat puur over de verkoop cijfers. De meeste moederborden hebben een intel graka on-board, die je niet kan verwijderen, ook al ben je niet van plan 'm te gebruiken ; je bent dus in veel gevallen "verplicht" een intel graka te kopen bij je moederbord, terwijl je er ook nog een ATi / nVidia (of twee :9 ) inprikt.

Helaas zijn deze cijfers niet te splitsen ; je kunt nagenoeg niet narekenen wie van de moederbord-met-on-board-intel-graka-eigenaren ook een ATi / nVidia kaart heeft. Noch wie van de ATi / nVidia eigenaren een (ongebruikte) intel graka on-board heeft.

Persoonlijk denk ik dat de cijfers meer richting de 40-30-30 ( resp. intel-ATi-nVidia ) zal gaan.
Andersom is het ook zo dat ik een onboard ATI/AMD igp heb en een nvidia kaart gebruik. Dus dat probleem heb je in het hele scala aan mogenlijkheden.
groot zijn is niet belangrijk ergens in goed zijn is belangrijk. En intel is zeker niet goed in GPU.
Vind je het erg als de rest van de wereld het niet met je eens is ? :P

intel is zoals gezegd zéér groot in IGP's, en er is geen enkele aanwijzing dat daar in de nabije toekomst verandering in gaat komen. Hun verkopen zorgen voor inkomen en dat vinden zowel de werknemers, aandeelhouders čn afnemers van intel errug belangrijk.

En intel is inderdaad niet gespecialiseerd in high-end GPU's -- Dit is nog altijd een niche-markt vergeleken met alle zakelijke desktops / laptops / servers / internet pctjes thuis. AMD / ATi is dat wel, en kijk hoe het hen vergaat.

Begrijp me niet verkeerd, ik wens intel / ATi / nVidia allen het beste, maak er maar een mooie concurrentiestrijd van ! :9
Intel is al jaren actief in de GPU markt. Maar niet echt in het high-end deel ervan.
Ze produceren vooral "onboard" gpu's voor gebruik met hun chipsets:
http://en.wikipedia.org/wiki/List_of_Intel_chipsets

[Reactie gewijzigd door SandStar op 24 maart 2009 14:04]

Als Intel nou gewoon snellere IGP's maakt zoals Nvidia en ATI en betere drivers.

Dan zijn dit soort ingrepen helemaal niet nodig.

Het frappante is nog wel dat mensen specifiek in de winkel op zoek gaan naar Pentium en core2duo terwijl als ze per ongeluk iets "verkeers" kopen en een ATI of Nvidia GPU in hun systeem zouden krijgen ze betere hardware zouden hebben.

En ja ik weet dat de meeste huis tuin en keuken gebruikers geen 3d games spelen maar die stelling is achterhaald aangezien je met Vista en Windows 7 gewoon een degelijke IGP nodig hebt.

En voor het afspelen van HD content is ATI of Nvidia nog steeds vele malen beter dan een Intel.
En ja ik weet dat de meeste huis tuin en keuken gebruikers geen 3d games spelen maar die stelling is achterhaald aangezien je met Vista en Windows 7 gewoon een degelijke IGP nodig hebt.
Aero is niet zwaar, Aero is niet zwaar, Aero is niet zwaar.

Waarom komt dat nog altijd terug... Aero heeft alleen 128MB nodig voor de data en DX9 shaders voor het vormen van alle effecten.. Het is echt niet zo dat je een dikke HD 4870X2 in je PC moet hebben om Aero een beetje normaal te draaien. Het is alleen zo opgezet dat er wat minimale eisen worden gesteld aan het geheugen en shaders om het te laten werken.

Een oude Intel GMA950 kan dan ook prima Aero draaien. Mijn NVIDIA 8400M G is ook maar een trage kaart en draait ook Aero met 2 vingers in de neus.
Het is alleen een beetje debiel dat je 128MB vram op laat vreten omdat je transparante borders en headers wilt aan je vensters....uiteindelijk is het een gimmick, en voegt het niets toe aan de gebruikerservaring van Vista.

Ontwikkelaars worden in mijn ogen lui, omdat geheugen goedkoper wordt en systemen standaard 2GB geheugen behuizen en Videokaarten standaard 512MB zien ze geen rede om hun software te comprimeren. Ik heb de Betá van Windows 7 onlangs geďnstalleerd, om er achter te komen dat deze idle ~1GB aan RAM opeet....nou sorry hoor mensen, maar dit hoeft gewoon écht niet. Als je nagaat dat Windows 2000 Pro enkel 100mb nodig heeft, dan is een factor x10 achterlijk te noemen. Ik snap het hele concept van Vista gewoon niet, je stapt niet over naar een wereld van Innovatie en gebruikersgemak, je stapt over naar....transparante headers en borders.
Dat is een heel ander verhaal ;)

128MB vram kan ergens nog voor alle windows die open staan en dergelijke. Daarnaast is dat niet zo'n rare eis aangezien alle DX9 videokaarten dat wel hebben, dus als je toch al DX9 nodig hebt voor bepaalde effecten, waarom dan ook niet gelijk misbruik maken van het geheugen.

Geheugenverbruik is ook absurd en ook de tijd die ik moet wachten voor ik in Vista echt kan computeren. En dan heb ik nog wel een sloot van 8GB aan geheugen.

* GENETX vind Linux nu dan ook een verademing vergeleken met Vista.
Natuurlijk kun je gebruik maken van de standaarden van vandaag als ontwikkelaar, maar Microsoft heeft het hele verhaal omgedraaid met computers als "Vista Ready" en "Vista Certified" te labelen die bad-ass genoeg waren om het knap te kunnen draaien. Microsoft eiste de consument om over te stappen naar zwaardere (en natuurlijk duurdere) hardware om hun nieuwste kindje te kunnen draaien. En dat ze globaal alle hardware leveranciers gehypnotiseerd hebben met groene briefjes om hun apparatuur Vista Exclusive te maken doet me al helemaal kotsen. Je kunt geen Asus laptop meer kopen zonder Vista, en ook niet XP op installeren omdat ze daar geen drivers voor uitbrengen. Sorry, maar ik ben het gewoon echt niet eens met de keuzes die M$ de laatste jaren heeft gemaakt.

Ik kan me een leuke website van een paar jaar geleden nog herinneren, waar het het doel was om zo klein mogelijke games te schrijven qua Kb's (ja niet GB's zoals de nieuwe Fallout 3 met zijn 2 DL DVD's) en toch een leuk plaatje te genereren. http://www.theprodukkt.com/. Zoals je dus ziet, het kan en naar mijn mening kan dit tot grotere innovatie leiden dan constant de consument naar zwaardere hardware dwingen.

Ik vind daarom Intel's aanpak ook super dat het ontzettend schaalbaar is, en ook veel ruimte voor innovatie houdt vanwege zijn vele software instructies. De tijd zal het ons leren waar we heen gaan, maar geoptimaliseerde software begint eindelijk weer zijn kop op te steken, en ik juich het toe!
Die IGP's die ze noemen zijn nou niet bepaald grafische monsters, ik vraag me af waarom ze dan zo'n kit uitbrengen?

Ik kan me herinneren dat Nvidia ook zo'n tool had waar je zelfs in game allerlei dingen kon zien, wat het meeste geheugen gebruikte etc.

Linkje: http://developer.nvidia.com/object/nvperfhud_home.html
Die IGP's die ze noemen zijn nou niet bepaald grafische monsters, ik vraag me af waarom ze dan zo'n kit uitbrengen?
Om juist de games beter te laten draaien op die IGP's. Optimalisatie voor Intel's IGP programma, net zoals de meeste game engines gewoon tweaks hebben voor nVidia of ATi videokaarten.

Nu moet ik daar overigens bijzetten dat ik wel klachten gehoord heb over Intel's OpenGL implementatie, dus het is ook zeer goed mogelijk dat Intel zich gewoon niet aan de standaarden houdt met hun oude generatie IGP's.
Wij komen in ons werk ook veel intel IGP's tegen die problemen hebben om grafische applicaties te draaien. We hebben daar eveneens een programma voor om de prestaties op te krikken: "Koop een Radeon HD4850." :Y) Voor die 125 euro die die kaartjes nu kosten ga je toch niet moeilijk doen met een Intel IGP als je 3D prestaties wil. Die IGP's zijn imho toch echt kantoorchips en eventueel voor AERO support, maar zeker niet geschikt voor 3D prestaties zoals intel dat met het in het artikel genoemde programma probeert te verwezelijken.

[Reactie gewijzigd door d3vlin op 24 maart 2009 15:32]

Het is maar wat je voor "3D prestaties" wilt natuurlijk. Wat ik van deze site gewend ben is dat ze het dan meestal over recente games hebben. Ik typ dit vanaf een laptop met Intel IGP en compiz en warcraft 3 draaien er prima op. Who cares of Far Cry 2 of UT3 er ook op draait, ik heb dit ding niet om op te gamen. Een hoop gamers vergeten vaak dat ze zelf een niche-markt zijn, en dat een hoop mensen niet gamen, of niet op hun pc (consoles zijn nou eenmaal makkelijker, je moet aardig verstand hebben van computers om hedendaagse games speelbaar te kunnen draaien). Voor het grootste deel van de computergebruikers voldoet een Intel IGP prima.
Veel programma's gaan uit van losse videokaarten. Geintergreerde GPUs zijn minder krachtig, maar een groot voordeel wat ze hebben (ook een nadeel vanwege beperkte bandbreedte) is dat het systeemgeheugen hetzelfde is als het videogeheugen. Als je hier slim gebruik van maakt (okee een bepaald deel van het ram-geheugen is videogeheugen) dan hoef je geen textures te uploaden zoals je dat bij normale videokaarten hebt. Als programma's hier rekening mee houden dan kunnen ze sneller werken.
Volgens mij maak je hier een denkfoutje.. Textures worden bij normale videokaarten niet vanuit het RAM maar vanaf bijvoorbeeld je HDD gelezen... Het is dus niet zo dat de textures al in je RAM staan.

@johnbetonschaar:
Ik zie niet waar ik er naast zit. Anders moet je me even vertellen wat er niet klopt?

[Reactie gewijzigd door MaZeS op 24 maart 2009 17:14]

Jullie zitten er allebei naast.

1) De textures worden naar het RAM geladen van disk, en daarna geupload naar het geheugen van de GPU. Is er geen video RAM meer over dan kunnen textures van en naar het systeem RAM geswapped worden, of de GPU kan desgewenst direct vanuit het systeemgeheugen texturen (dit is sinds de introductie van de AGP bus mogelijk).

2) Het is zeker geen voordeel als de GPU geen dedicated RAM heeft maar unified is met met het systeem RAM. Ten eerste kost het systeem RAM (bij moderne spellen al snel over een halve gigabyte heen) en dat kan beter gebruikt worden. Ten tweede is het videogeheugen op videokaarten veel sneller, door een bredere bus en een layout die gunstig is voor de access patronen die vrij typisch zijn voor een GPU. Waarschijnlijk vervalt er ook een stuk overhead omdat videogeheugen niet gecached is zoals systeemgeheugen, maar dat weet ik niet zeker.

Het liefst heb je dus een videokaart met dusdanig veel dedicated geheugen dat alle textures er in 1x in passen en er dus maar 1x texture data naar je GPU hoeft te worden geupload.
Veel drivers bufferen textures eerst in het systeemgeheugen en sturen ze dan via dma naar de gpu. Bij het laden van een spel worden veel textures en andere zaken al in het ram geladen.

Regelmatig moet je de 'bus' (pci-express) oversteken om bijvoorbeeld data terug te lezen (voor framebufer -> systeemgeheugen leesacties die toch nog vaak nodig zijn). Hier zijn dergelijke operaties ondanks de beperkte bandbreedte veel sneller.
de frame analyzer verschaft informatie over de framerate in gamecode
Da's wel een heel erg karige omschrijving. Als dat alles is wat het deed dan had je het niet nodig, want de framerate kun je zelf ook wel uitrekenen :). Het zal eerder een uitvoerig verslag leveren van alle rendering calls die er die frame gedaan zijn, inclusief de complete state per call (dus de ingestelde textures en shaders e.d.), en hoe lang het duurde om die opdracht uit te voeren. Wat dat betreft heeft het veel weg van Microsoft's (gratis) PIX for Windows, en ik vraag me af wat de meerwaarde is van deze tool, hoewel ze waarschijnlijk wel gedetailleerdere hardware info kunnen geven dan PIX zelf.

[Reactie gewijzigd door .oisyn op 24 maart 2009 14:26]

Intel loopt heel erg achter, pas vanaf de GMA X3000 serie (2007) hebben ze hardware transform, clipping & lighting (T&L) ondersteuning.
Iets wat al vanaf de DirectX 7-spec generatie videokaarten (2000) een standaard is geworden.

Met de X4500HD zijn ze alweer wat dichterbij gekomen dankzij de unified shader architectuur die volledig Shader Model 4.0 (DirectX 10) compatibel is.
Maar hier mist de X4500HD weer heel wat rekenkracht vanwege het geringe aantal stream processors
Om mee te gaan met de geďntegreerde grafische processors van de concurrenten moeten ze dat aantal toch minstens vervijfvoudigen.
Daarnaast zouden ze een on-die low latency buffer/cache van ~10MiB á la ATI Xenos (Xbox360) moeten hebben omdat de nadelige prestaties van shared memory te compenseren.

Hopelijk kunnen ze met hun licentie op de PowerVR-technologie de prestaties van toekomstige IGP's opkrikken naar een redelijk niveau.

[Reactie gewijzigd door Pyronick op 24 maart 2009 14:32]

laat ze anders eerst n igp maken met meer dan 1 shader.. ;)
Ik gok dat dit soort spellen nooit al te bijzonder zullen worden.
IGP's zijn nooit krachtig met wat de huidige consoles en game pc's hebben.
Die kunnen veel meer aan dan IGP's, mede door hun betere grafische chip.
Spreekt voor zich.
Doet me denken aan GMA booster, daarmee kon ik altijd vloeiend WoW spelen op mijn GMA950 :)
Zien jullie ook die apple logo sticker op de rechter laptop?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True