Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties

In de aanloop naar de Siggraph 2008, een conferentie voor computergegenereerde grafische effecten, heeft Intel details vrijgegeven over zijn Larrabee-chip. De eerste producten op basis van de chip zullen high-end-videokaarten zijn.

Hoewel de huidige videokaarten van AMD en Nvidia tot op zekere hoogte programmeerbaar zijn via shaders, introduceert Intel met zijn Larrabee een geheel nieuw gpu-ontwerp. Larrabee is volgens een artikel op Extremetech opgebouwd uit een niet nader genoemde hoeveelheid x86-cores, gebaseerd op een variant van de originele Pentium-architectuur, die twee instructies per klokcyclus in vaste volgorde kunnen verwerken. Het L1-cache van de kernen is uitgesplitst in een 32KB instructie-cache en een even grote data-cache, terwijl het L2-cache 256KB groot is. Elke x86-core wordt bijgestaan door een vectoreenheid die 16 32bit-instructies kan verwerken.

Niet al het grafische werk wordt door general purpose-chips gedaan: uit praktische overwegingen heeft Intel besloten om de textuureenheden een vaste functie mee te geven. Deze eenheden vormen geen onderdeel van het belangrijkste deel van de grafische pijplijn, maar zijn er wel mee verbonden via een 512bit-tweewegs-ringbus waar ook de geheugencontroller op zit. De textuureenheden kunnen wel de caches benaderen van de x86-kernen.

Volgens Intel heeft de bijzondere, flexibele architectuur van de Larrabee als voordeel dat de chip goed presteert bij games met zeer veel polygonen of die veel grafische rekenkracht vergen van de shaderunits. Ook kan de architectuur volgens Intel lineair schalen met het aantal rekeneenheden, waardoor Intel verschillende segmenten in de grafische markt kan bedienen.

De Larrabee-architectuur grijpt vreemd genoeg terug op 'tile-rendering', dat in de beginjaren van de 3D-videokaarten vooral gebruikt is door Powervr, alleen noemt Intel het bin-rendering. Elke frame wordt opgedeeld in honderden kleine vierkantjes, in de 256KB L2-cache is 128 bij 128 pixels waarschijnlijk de meest optimale opdeling, die worden gevoerd aan de chipkernen. Die bepalen eerst de zichtbare pixels van een tile en slaan die op in een speciale buffer, die Intel 'Bin Set' noemt. Vandaar dat Intel ook spreekt van bin-rendering.

Intel claimt dat de Larrabee, ondanks de afwijkende architectuur, volledig compatibel is met Directx en Opengl, maar de vraag is hoe goed Intel de drivers werkend weet te krijgen met huidige en toekomstige games. Intel heeft namelijk geen beste staat van dienst wat betreft driver-ondersteuning voor de igp's van zijn chipsets. Ontwikkelaars kunnen ook direct de Larrabee-hardware benaderen via C- of C++-code.

Intel Larrabee-architectuur

Moderatie-faq Wijzig weergave

Reacties (47)

ook al valt larrabee tegen het heeft in elk geval zn werking op de concurrentie al gehad: amd die zich verslikt heeft in ati.

edit: ik bedoel dat amd sinds de overname van ati zon 75% minder waard geworden is en dat het einde nog niet in zicht is terwijl intel sindsdien 20% meer waard is geworden.

zie hier: http://finance.google.com...ASDAQ:INTC&q=NYSE:AMD&

[Reactie gewijzigd door BreezahBoy op 4 augustus 2008 12:34]

Hoezo valt de Larrabee tegen? Er is nog vrijwel niets over de Larrabee bekend, dan valt nog helemaal niet te zeggen of het wel of geen succes gaat worden.

Verder denk ik niet dat ATi zoveel minder waard is geworden door de Larrabee (Regeneration legt vrij goed uit waarom). De waardestijging van Intel lijkt me er al helemaal niets mee te maken te hebben. Intel heeft tot op heden vrij weinig vrijgegeven over de Larrabee waardoor er nog niets te zeggen valt over de prestaties ervan. De meeste aandeelhouders weten net zo weinig als wij en ook zij kunnnen dus nog niks zeggen over wat de toekomst brengen zal.

Het zal ook niet zo zijn dat AMD ATi heeft overgenomen zodat zij ook aan een GPGPU kunnen gaan werken uit angst voor de GPGPU van Intel, want AMD kocht ATi halverwege 2006 terwijl Intel de Larrabee eind 2006 pas aankondigde.
Ik denk eigenlijk niet dat Ati door larrabee flink gezakt was in waarde. Het is eerder te wijten aan de combinatie van andere factoren. Ze waren met de Radeon HD2xxx Serie veel later dan nVidia's serie: de GeForce 8xxx. Zo had nVidia even vrij spel. Daarna was het nog toen de HD 2xxx uitkwam dat de prestaties van de kaarten minder waren dan verwacht en als je dan ook later ben kwam dat aan als een harde klap. Toen kwam de HD 3xxx serie waar het weer wat beter ging, ze waren beter op tijd en de prijs/prestatie verhouding was aardig. Alleen hadden ze eigenlijk niet echt iets in de High-end markt. Met de HD 4xxx gaat het weer beter en is de concurrentie weer "normaal" te noemen als ik het zo even mag zeggen. Ati en nVidia hebben op het moment concurrerende kaarten. Dat Ati dus flink in waarde was gezakt is volgens mij eerder te wijten aan hunzelf en de concurentie met nVidia en niet aan larrabee.

[Reactie gewijzigd door Regeneration op 4 augustus 2008 13:25]

Goodwill afschrijvingen. ;)

Was er toch wel afgegaan wat de concurrent ook had gedaan, ATI was sowieso minder waard vanaf de start toen AMD het overnam.
Wat bedoel je met deze opmerking het gaat sinds de 3XXX serie toch hardstikke goed met AMD, snelle GPU's met de beste bang for buck.
maar zijn er wel mee verbonden via een 512bit-tweewegs-ringbus
En voor de duidelijkheid: 512 heen en 512 terug. Op andere websites wordt gesproken over een 1024bits bus, wat zo is als je de heen en terug bij elkaar opteld :P

Wat ik alleen niet begrijp van een andere website:
"A key characteristic of this vector processor is a property we call being vector complete...You can run 16 pixels in parallel, 16 vertices in parallel, or 16 more general program indications in parallel," Seiler said.
bron: http://news.cnet.com/8301...bj=news&tag=2547-1_3-0-20

16 pixel/vertex shaders. Vergeleken met de huidige videokaarten is dat toch niet veel? Of mis ik hier ergens iets?

edit:
Larrabee is volgens een artikel op Extremetech opgebouwd uit een niet nader genoemde hoeveelheid x86-cores
Volgens de eerdere genoemde bron waren er slides te zien van Intel waar 8 tot 48 cores op genoemd werden. Maar ik heb ook gelezen dat in de toekomst er zelfs 'honderden cores' gebruikt konden worden. De eerste versie zou dus 8 tot 48 cores hebben.

[Reactie gewijzigd door beany op 4 augustus 2008 11:44]

Elke x86-kern heeft een vector-eenheid die 16 dingen tegelijk kan berekenen. Het hangt er maar vanaf hoeveel cores Intel in de Larrabee verwerkt. Ook is het appels (streamprocessors) met peren (x86-core + vectoreenheid) vergelijken.
vergeet ook de kloksnelheid niet, de mini cores zijn extreem geoptimaliseerd en klein, het zou mij dus niet verwonderen dat we dus over 2 GHz of meer gaan spreken, waar de cores van Ati en nVidia nog altijd dik onder de 1 GHz zitten
dat lijkt me dan per processor core,
omdat er nog niet genoemd is hoeveel core's zich in de GPU zal bevinden, noemen ze de specs van 1 enkele core


edit: blackTIE was me voor :)

[Reactie gewijzigd door un1ty op 4 augustus 2008 11:55]

Volgens een artikel op Anandtech zou het aantal cores in het begin ook goed richting de 64 kunnen gaan voor de high end modellen omdat bij dat aantal cores de die even groot is als van de Nvidia GT200. Ik heb ooit ergens gelezen (sorry, geen bron) dat Intel daarop mikt, maar aangezien ik geen bron heb en ik niet weet hoe betrouwbaar deze was weet ik het niet zeker.
Als iemand hier een bron van heeft zou ik het graag horen.
Volgensmij zal deze kaart nog geeneens zozeer het verschil maken in games, maar eerder in renderapplicaties als 3dsmax waar eigenlijk voor sneller renderen elke (x86) core welkom is.
of voor raytracing.
aangezien je nu C++ daar uit kan laten voeren ipv op de cpu.
dus raytracen wat altjd op de cpu gaat kan nu op larrabee...
nice :D
Raytracing gebeurt niet meer alleen op de CPU er wordt volop onderzoek naar GPU assisted raytracing gedaan.
Dan moet je de posts hier van JBikker maar eens lezen.(Auteur van real-time raytracer Arauna dat in "Let there be light" wordt gebruikt.)

Dit schrijft hij over raytracing op GPU's:
GPUs zijn niet heel geschikt voor ray tracing. Verschillende researchers hebben ray tracers geimplementeerd op de GPU, maar die halen de performance van een dualcore al nauwelijks, terwijl de GPU veel meer FLOPS heeft, dus dat is niet erg efficient. In theorie had 't mooi kunnen zijn: De helft van de tijd in een CPU ray tracer gaat zitten in 'shading', dus het doorrekenen van textures, normal maps, belichting (ambient, emissive, diffuse, specular) enzovorots, en dat kan een GPU gewoon veel beter. Je zou op een GPU ook moeten kunnen mixen, dus sommige polygonen ray tracen en andere niet. In de praktijk maakt dit een engine echter nog weer eens veel complexer, en tot nu toe is er niet eens iets fatsoenlijks geproduceerd door researchers. En geloof me, NVidia en ATi proberen dat echt wel.
Blijft weliswaar feit dat dit eenvoudiger wordt wanneer de GPU ook (deels) x86 is ;)
En waarom doen ze dit niet op de itanium architectuur. Is ontwikkeld omdat x86 oud aan het worden is. Dit is een goed moment om Itanium goed op de kaart te zetten.
omdat je geen kleine itanium core kunt maken, teminste niet zo klein als deze.
deze is ook gebazeerd op de penium 1. en dat is echt al heel wat jaren terug.

[Reactie gewijzigd door Countess op 4 augustus 2008 12:19]

De Larrabee-architectuur grijpt vreemd genoeg terug op 'tile-rendering', dat in de beginjaren van de 3D-videokaarten vooral gebruikt is door Powervr, alleen noemt Intel het bin-rendering.
Hoezo vreemd genoeg? TBR is een hele slimme techniek, die zeer geschikt is voor de opzet van Larrabee. Daarnaast kan ATi's Crossfire ook Tile Based Rendering doen, en gebruiken PowerVR's huidige oplossingen ook nog steeds TBR.
Oh jeetje. Dit klinkt een beetje als een GPU die op papier hartstikke handig en mooi en snel KAN zijn, maar uiteindelijk het graf naast de Parhelia en de Rendition zal gaan bewonen. Beide konden het op zich wel, maar werden te vroeg overspoelt met chips van de concurrentie die 3x zo snel waren.

Intel heeft weliswaar meer dan voldoende resources om iets goed neer te zetten, maar ze moeten dan wel met ijzersterke marketing, ontwikkeltools, en stabiele drivers komen (en dat laatste hebben ze met GMA950 nog steeds niet voor elkaar).
Ook Intel zal nu toch wel doorhebben, dat het succes van deze GPU staat of valt met goede drivers?
De drivers die voor deze kaarten gemaakt gaan worden zullen waarschijnlijk veel beter gaan werken dan de drivers voor de huidige videokaarten... Je zou het kunnen vergelijken met de PS3 en Xdoos360... waar daarbij de drivers tot 100% rendament kunnen werken omdat de programmeurs geen rekening hoeven houden met andere onderdelen, zal dat bij deze kaarten gedeeltelijk zo zijn (maar dan net een tikkie anders)

Zoals eerder gezegd: Ontwikkelaars kunnen ook direct de Larrabee-hardware benaderen via C- of C++-code. waardoor het programmeren veel makkelijker gaat en de programmeurs de code volledig over de kaart kunnen gebruiken en alleen nog maar rekening hoeven te houden met een cpu/mobo

En als er dan een nieuwe generatie van dit soort kaart uitkomt doen ze dat gewoon weer overnieuw omdat het schrijven van de code nu veel sneller/makkelijker zal gaan...
Zoals eerder gezegd: Ontwikkelaars kunnen ook direct de Larrabee-hardware benaderen via C- of C++-code. waardoor het programmeren veel makkelijker gaat en de programmeurs de code volledig over de kaart kunnen gebruiken en alleen nog maar rekening hoeven te houden met een cpu/mobo
Waarom is dat goed? Straks krijgen we Larrabee-only applicaties, bijvoorbeeld. DirectX en OpenGL waren er nou juist om dit soort dingen te standaardiseren...
doet me denken aan de 3DFX-Glide tijd (A).. maarja, die versloeg Direct3D altijd (A), zovel kwa beeldkwaliteit als snelheid..

mss is het helemaal niet zo verkeerd om af en toe een nieuwe weg in te slaan ipv altijd die backwards-compatible troep
Inderdaad. Intel heeft nu zeer goede drivers voor Linux en *BSD, namelijk xf86-video-intel, die goed ondersteund wordt en ondersteuning heeft voor de nieuwste chips voordat ze uberhaupt uit zijn. Ik hoop echt dat Intel deze Larrabee-kaarten ook goed ondersteund met die driver of met een andere.
Ontwikkelaars kunnen ook direct de Larrabee-hardware benaderen via C- of C++-code.

Zo wordt het toch bereikbaarder voor een grote groep programmeurs.. Hier is toch een API voor beschikbaar (in de nabije toekomst)? .. Hopelijk..
Ik heb iets gelezen ovel OpenCL oid van Apple.. is dat niet best wel hetzelfde maar dan voor alle bestaande GPU's? :X
Dacht dat OpenCL meer de tegenhanger van Cuda en HSML is.
nVidia heet een eigen shit dinges, en ATI heeft zich aangesloten bij OpenCL van Apple.

Ben benieuwd wat Intel gaat bereiken op de GPU markt, stiekum hoop ik wel dat ATI ten alle tijden de meerdere blijft van Intel op dat gebied, aangezien dat zo ongeveer het enige winstgevende onderdeel van AMD is, hoewel het niet groot genoeg is om het gehele bedrijf winstgevende te laten zijn.
Ati de meerdere van Intel op GPU vlak? Intel is al sinds jaar en dag marktleider in het GPU wereldje. Daar kan Ati niet aan tippen. Zelfs Nvidia niet. Ofschoon Ati natuurlijk wel krachtiger GPU's fabriceert dan Intel, maar dat staat hier los van, Intel is (en waarschijnlijk blijft) nou eenmaal de meerdere van AMD/Ati, zowel op CPU als op GPU vlak. Het zou echter wel goed zijn als AMD/Ati eens een wat groter stukje uit Intel haar aandeel zou wegsnoepen.
Nou dat marktaandeel is al jaren krimpende.
Ati scoort goed met hun nieuwe IGP chipsets, en ook nvidia heeft dat een tijdje gedaan, hoewel dat nu minder gaat.

Intel wil nu ook dehigh-end markt op, dus iets meer dan alleen beeld geven, daar komen dan ook direct allerlij driver problemen en ondersteunigs trouble tevoorschijn.
Als ik me niet vergis had Intel lang geleden een licentie genomen op de "tile" techniek van Videologic. Het is dus niet echt verwonderend dat ze dit in de Larrabee hebben ingevoerd.

Ik ben nu reuze benieuwd hoe deze "tiler" het afbrengt tegen de "brute force" van Nvidia en AMD/ATI.
Uit mijn ervaring met andere architecturen heeft tile based rendering het voordeel van een kleinere bandbreedte te eisen. Dit is goed voor Larrabee wat gezien het feit dat de core met nog andere berekeningen bezig is en dus niet altijd verzekert is van de volle bandbreedte (vb wanneer ALLE units hun textures laden) en ook niet vaak de bandbreedte nodig heeft.

Het nadeel van tiles is dat, hoe kleiner ze worden, hoe vaker je werk gaat dupliceren. De aanliggende tile moet hetzelfde object immers inladen en clippen. Het gevolg is dat Larrabee misschien wel efficiŽnt kan schalen en aanpassen aan het type werk, maar het geleverde werk minder efficient heeft geproduceerd. Dat is ten slotte altijd de kost van generalisatie tov specialisatie.

@SergioG829: niet helemaal: bij tile rendering heb je maar een beperkte set polys maar die moet je wel eerst uitzoeken. Met fullscreen rendering moet je de diepte bepalen om de polygonen te elimeren. Dit gebeurt zo vroeg mogelijk zodat de rest van de pipeline efficienter kan werken. Beide technieken zijn in HW geinplementeerd. Het is ongeveer de zelfde oplossing voor hetzelfde probleem dus waarschijnlijk maakt dit voor performance niet echt uit.

[Reactie gewijzigd door Punkie op 4 augustus 2008 13:58]

Ik kan me vergissen, maar "tile rendering" is juist efficienter omdat polygonen die toch niet zichtbaar zijn op het scherm ook niet gerenderd worden. Dit uitfilteren van rekenwerk bespaart en hoop bandbreedte.

Met de traditionele methode wordt alles gerenderd, ook al is het object niet zichtbaar (bijv. een stoel dat zich achter een huis bevindt).
huidige GPU's hebben een Z-filter waarmee ze het renderen van onnodige dingen ook achterwegen laten.
welke efficiŽnter is weet ik niet maar zo veel verschil zal er niet zitten in de hoeveelheid onnodig werd dat word gedaan bij beide.
"Z-Filter", oftewel occlusion- en Z-culling, gebeurt bij de immediate mode rendering pas op een veel latere plek als bij Deferred Rendering, daarnaast kan Deferred Rendering over het algemeen meer wegstrepen als dat met Immediate mode mogelijk is.

Over het algemeen zal Deferred Rendering een stuk efficienter zijn.
Toch zou je soms n dat het voor de eer en marketing niet nodig zou dienen te zijn om alles een Intel-specifieke naam te geven.

Succesvol marketeerbaar, maar een beetje verwarrend.. (Dat AMD64 EMT64 werd is nog wel te begrijpen, HTT en QPI, en nu ook tile naar bin.. Je zal er maar voo rhet eerste mee te maken krijgen.)
En hoe zit het met (ondersteuning door) OpenCL? Het zou mooi zijn als we deze apparatuur ook via OpenCL kunnen gaan aanspreken.

[Reactie gewijzigd door Tjeerd op 4 augustus 2008 11:45]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True