Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties

Hardwarefabrikant Intel heeft tijdens het Intel Developer Forum enkele details uit de doeken gedaan over het functioneren van zijn aankomende discrete videokaarten, die vooralsnog alleen onder de codenaam Larrabee bekend staan.

Intel-topman Sean Maloney liet tijdens zijn keynote Bill Mark, senior research scientist bij Intel, aan het woord. Mark gaf het aanwezige IDF-publiek uitleg hoe Larrabee functioneert. Hij richtte zich vooral op software-ontwikkelaars die voor Intels in 2010 uit te brengen Larrabee-videokaarten gaan programmeren. Aan de hand van een testsysteem met daarin de Larrabee-gpu en een Gulftown-cpu demonstreerde Mark wat Intels discrete videokaart kan.

Dankzij een in C++ programmeerbare rendering pipeline kunnen programmeurs niet alleen van DirectX- en OpenGL-api's gebruikmaken, maar ook hun eigen implementaties realiseren. Zo kunnen ontwikkelaars onder meer gebruikmaken van customized rasterization en voxel-rendering.

Ook kunnen ontwikkelaars realtime rendering gebruiken. Dat laatste werd aan de hand van content uit Enemy Territory: Quake Wars gedemonstreerd: textures en polygonen daaruit werden geray-traced, waarbij onder meer schaduwen en reflecties realistisch werden gerenderd. Dankzij een techniek die Intel task parallelism heeft genoemd, kunnen ray-tracing en reguliere rendering van onder meer bewegende beelden eenvoudig gecombineerd worden.

Moderatie-faq Wijzig weergave

Reacties (53)

Hoorde ik nou iets over ray tracing?

Volgens mij wordt dat hier anders gedaan dan normaal, of zit ik er nou naast? Hier gaan ze volgens mij namelijk uit van de lichtbron als ray source en niet vanuit een camera viewpoint.
Dat is forward ray-tracing. Dat kost nog veel meer moeite dan 'gewone' backward ray-tracing omdat je lichtstraal overal terecht kan komen. Het gevolg is wel nog een heel stuk realistischer omdat licht wat van muren afkaatst bijvoorbeeld weer indirect invloed heeft op het zichtbare beeld. Bij de backward variant gaat men alleen kijken naar de lichtbronnen waar het licht vandaan komt, vanuit de camera gezien, en dus zie je die invloed niet.

btw hoi @ gelimbo :D
Ik vind het concept erg goed van deze GPU's. Je bent op deze manier niet meer afhankelijk van een hardware implementatie van bijvoorbeeld een bepaalde DirectX versie. Echter, in ben uiteindelijk benieuwd wat dit betekent voor de prestaties van de kaart. Specialistische hardware is over het algemeen sneller dat General Purpose devices. Er zijn echter genoeg toepassingen waarbij deze kaart super is, maar ik ben vooral benieuwd naar de grafische kracht in spellen. Met andere woorden: gaat dit soort architectuur de toekomst worden bij spellen en andere 3D toepassingen of niet? Voordeel is natuurlijk wel dat spellenmakers allerlei andere berekeningen op de GPU kunnen doen zonder dat er specialistische hardware support nodig is. Ik wacht met smart af wat het gaat brengen.

Ik dacht trouwens dat Larabee een GPCPU zou worden? Dus een soort x86 processor met GPU trekjes? Maar dat klopt blijkbaar niet.

[Reactie gewijzigd door Luuk1983 op 23 september 2009 12:10]

Alle CPU's zijn general purpose :)

Het is een GP stream processor. Vervolgens kunnen ze een GPU softwarematig implementeren. De performance van Larrabee voor standaard GPU applicaties haalt het niet bij de echte GPU's, maar dat zal in de toekomst misschien niet meer het geval zijn. Het grote voordeel is dat Larrabee zoveel meer kan. Raytracing is hiervan het meest voor de hand liggende voorbeeld.

Wat ik vooral leuk vind aan Larrabee is dat je kaart geschikt gemaakt kan worden voor een volgende DirectX versie dmv een driver update in plaats van nieuwe hardware te kopen.

[Reactie gewijzigd door hjkhlukgoug op 23 september 2009 12:24]

De performance van Larrabee voor standaard GPU applicaties haalt het niet bij de echte GPU's, maar dat zal in de toekomst misschien niet meer het geval zijn.
Ik zou niet weten waarom niet... LRB is gewoon een multicore (C)PU met een brede SIMD eenheid er op en een flinke memoryunit met veel bandbreedte, net als NVIDIA en AMD's nieuwste GPU's. Wat maakt LRB zoveel anders volgens jou?
http://www.anandtech.com/...intel/showdoc.aspx?i=3367

Het is ingewikkelder dan je denkt. Vergeet niet dat hoewel GPU's steeds programmeerbaarder zijn, het blijft fixed-function hardware.

[Reactie gewijzigd door Tomminightmare op 23 september 2009 14:34]

- Waarom zou Intel die driver updaten (verdienen ze niks meer aan)
- Meestal is een nieuwe DX versie op bestaande hardware heel traag als de nieuwigheden in software moeten.

Ook met Larrabee zal er nog wel een tijdje een race zijn naar meer en meer core's
Met Larravee moet alles in software, niet alleen toekomstige DirectX 12 features maar ook al de DX9 features. Het revolutionaire is nu net dat deze chip gemaakt is om software implementaties snel te maken. Dat heeft waarde voor DX9 en DX12. Natuurlijk, nieuwere versies met hogere frequenties en meer cores zullen die software implementaties sneller laten lopen, maar dat zal een lineaire winst zijn: 2x meer cores = 2x meer fps
Met Larravee moet alles in software, niet alleen toekomstige DirectX 12 features maar ook al de DX9 features. Het revolutionaire is nu net dat deze chip gemaakt is om software implementaties snel te maken.
Laat je niet de kop gek maken door marketingpraat. Ja, Larrabee is iets flexibeller dan G200 en (in mindere mate) RV870. Vergeet niet dat tegen de tijd dat Larrabee op de markt is, er ook al weer nieuwere NVIDIA en AMD GPU's zullen zijn die ook steeds flexibellere werden. Larrabee is echter niet volledig programmeerbaar, het is geen FPGA ofzo. Het is gewoon een multicore GPU met een flinke SIMD unit en geen render back-end. De SIMD unit is nog steeds net zo "inflexibel" als die van NVIDIA en AMD, de geheugencontroller zelfde verhaal, net als de texture units. Er zijn maar 2 grote verschillen met RV870, en dat is 1) het feit dat Larrabee x86 code kan uitvoeren (waar je voor DX11 en DX1X geen bal aan hebt, alleen bij GPGPU) en 2) het feit dat Larrabee geen texture units heeft en dus het uitspugen van pixels in software doet. Dit maakt Larrabee inderdaad flexibeller dan RV870, maar het wil niet zeggen dat DX12 support dus altijd mogelijk is. Daarvoor zit er veel te veel fixed function hardware in LRB

[Reactie gewijzigd door Snoitkever op 24 september 2009 10:47]

Wat ik vooral leuk vind aan Larrabee is dat je kaart geschikt gemaakt kan worden voor een volgende DirectX versie dmv een driver update in plaats van nieuwe hardware te kopen
Het kan wel, maar is heel onwaarschijnlijk dat het ook echt gaat gebeuren, Intel wil vast ook wel steeds nieuwere kaarten verkopen, en niet dat de consument even update en ze kaart kan hergebruiken
et andere woorden: gaat dit soort architectuur de toekomst worden bij spellen en andere 3D toepassingen of niet?
Ja dit gaat de toekomst worden, AMD en Nvidia hebben al voorzichtig aan gegeven dat hun huidige rasterization methode niet het eeuwige leven zal hebben omdat ray-tracing nu een maal vele male betere beelden op levert alleen de processor kracht die hier voor nodig is altijd het grote probleem geweest.

Intel heeft de een tijdje erg agressief geroepen dat rasterization dood was en dat het tijd is voor iets anders, hierna hebben ze een stapje terug genomen en roepen ze dat de twee technieken te verenigen zijn gedurende een transitie periode waarna de ray-tracing techniek het geheel overneemt.

Larrabee lijkt die waar te willen maken een GPU die volledig te programmeren is en waar men zelfs ray-tracing kan doen op bewegende beelden. Nou ja bewegende beelden, erg weinig beweging en erg veel statisch, een schip dat niet beweegt bomen zonder wind, heel traag bewegend water en wat helikopters die door het beeld bewegen niet echt actie zo als je dat in een moderne game hoeft te verwachten.

Wat Intel wel laat zien is de enorme kracht van de Larrabee processor en de mogelijkheden die het ding zullen bieden maar of het ook maar in de buurt komt van de huidige AMD en Nvidia kaarten wat betreft prestaties met DX9 en DX11 games is een heel ander verhaal natuurlijk. De rekenkracht lijkt er wel degelijk te zijn maar of ze dat ook kunnen gebruiken zal denk ik voor een heel groot deel afhangen van de drivers en misschien zelfs de game studio's en Microsoft die misschien ook wat aanpassingen zullen moeten maken om optimaal gebruik te kunnen maken van deze nieuwe manier van werken met de GPU.
Als het Intel niet lukt de gamers over de streep te trekken zal de Larrabee waarschijnlijk niet het succes worden waar Intel op hoopt gewoon omdat zij toch echt de drijvende kracht zijn achter de altijd maar sneller wordende GPU's. En elke tweaker en gamer weet dat alleen benchmarks de echte doorslag kunnen geven in de keuze voor een nieuwe video kaart. Zo lang het binnen het budget past is de enige andere overweging voor erg veel gamers wat is de snelste kaart, sommige zullen er aan toevoegen die niet een kleine kolencentrale nodig heeft om van voldoende energie voorzien te worden maar de meeste zetten gewoon de kachel een graadje lager en de AA naar 8x.

Ik ga er van uit dat Intel weet wat ze doen en dat ze heus wel aan het werk zijn aan een driver die de kaart zo goed mogelijk door de benchmarks heen loost zonder dat er aanpassingen aan DX of benchmark/game nodig zijn maar of ze het geweld van de nieuwe AMD en waarschijnlijk binnen kort ook de nieuwe Nvidia kaarten bij kunnen houden als Larrabee eindelijk uitkomt...
Trouwens heeft iemand enig idee of Nvidia nog van plan is met nieuwe kaarten te komen dit jaar, ze zijn al erg lang akelig stil over hun toekomst plannen. Anders dan de wens een eigen x86 processor te maken.
Trouwens heeft iemand enig idee of Nvidia nog van plan is met nieuwe kaarten te komen dit jaar, ze zijn al erg lang akelig stil over hun toekomst plannen. Anders dan de wens een eigen x86 processor te maken.
Er komen wel nieuwe kaarten maar dat zijn low-end DX10.1 kaartjes, voor de rest zijn het allemaal rebrands. De nieuwe snelle DX11 chip GT300 die moet gaan concurreren met ATi's 5000 serie komt pas op z'n vroegst begin volgend jaar.
Ik dacht trouwens dat Larabee een GPCPU zou worden? Dus een soort x86 processor met GPU trekjes? Maar dat klopt blijkbaar niet.
Nu nog niet maar in de toekomst wel. Daarnaast kan Intel natuurlijk altijd nog kiezen voor een losse unit naast de CPU (fysiek). Voordeel is (o.a.) dat deze dan kan meeprofiteren van de goede koelingsmogelijkheden van een CPU.
Wat is een 'discrete' videokaart?
Een videokaart die als additieve/losse hardware word toegevoegd. Denk aan ATI of nVidia PCI Express videokaarten.

I.e. geen geintegreerde oplossingen.

[Reactie gewijzigd door Pyronick op 23 september 2009 12:14]

Ah, duidelijk. Dank.

Maar zijn niet alle videokaarten 'discreet'? Van een GPU is dat niet te zeggen, maar een kaart lijkt mij per definitie los...

Aparte term in ieder geval. Bij nieuws over ATI / Nvidea kaarten heb ik het nog nooit zien langskomen.
Het is inderdaad een pleonasme. Je kan dan wel weer spreken van een discrete GPU, omdat de GPU een chip is en dus ook op het mobo geintegreerd kan zijn, maar inderdaad niet van een discrete videokaart.
erger nog een gpu kan ook in de chipset zitten, dan is de GPU ge´ntegreerd. Losse GPU's op het moederbord komen zelden tot nooit voor
Een videokaart die niet roddelt over de affaire die de geluidkaart heeft gehad met de netwerk adapter. ;)

--

Het is een losse videokaart in je systeem.
Bij mij is gisteren de chipset vreemdgegaan met de geluidskaart, vond de netwerk adapter niet leuk die belde de sata controller op om er een eind aan te maken, die was druk bezig met de BIOS. uiteindelijk had ik geen internet meer :) :D
BIOS? Die fossiel was toch bijna aan de kant gezet voor EFI ten tijde van Longhorn? Gelukkig heeft ie nu nog een goede relatie met Win7. :+
As the DWORD turns? Goede Timings Slechte Timings? EastEndian? :)
tijd voor een echte geek zeep :D
Een videokaart die niet geintegreerd is.

[Reactie gewijzigd door grizzlybeer op 23 september 2009 13:22]

Ik ben benieuwd hoe de uiteindelijke prestaties gaan worden van het ding. De oude Intel kaartjes (de i740s bijvoorbeeld) waren prima voor desktop gebruik maar niets voor 3D.

Wat ik me dan ook afvraag, stel dat deze dingen zich kunnen meten met de Geforces en Radeons, wat gaat er dan gebeuren met de ondersteuning van Crossfire en SLI op de Intel chipsets? Aan de ene kant is het natuurlijk stom van Intel om dit eruit te gooien, want dan zullen mensen eerder een AMD kopen, aan de andere kant is het natuurlijk wel zo dat als het eruit ligt, dat ze dan hun eigen kaarten sneller zullen verkopen als die zich kunnen meten met SLI en Crossfiresetups.

Maar vooralsnog wacht ik erst even de benchmarkjes af :D
Ik heb een 4500MHD onboard en die doet inmiddels goed 3d in oudere spellen. I.c.m. een E8400 doet ie het veel beter dan mijn dual Socket A met 6600GT in Civ4 op de huge worldmap. Ook in Command & Conquer: Generals.
Nou, de 4500HD is leuk, maar kan niet zeggen dat ik kapot was van de prestaties van het ding (ik heb zelf een G45 bordje gehad met dit ding).
Maar als je kijkt naar de huidige IGPs kunnen ze er best mee door. Maar een 6600GT zal op een soortgelijk systeem (met E8400) het wel beter doen lijkt me.
Ik las op wikipedia dat de huidige IGP's door een compleet ander team worden ontwikkeld. Zal wel niet vergelijkbaar zijn dus..
Laten we het niet hopen zeg. Driver support is iets wat ze bij Intel zullen moeten gaan leren willen ze een concurrent worden van ATI en Nvidia.
zijn de drivers van intel over het algemeen slecht dan? ik vind van niet. Plus het feit dat ze betere, opensource, drivers hebben voor linux. Ik vind dus niet je ze kan aanvallen op slechte drivers.
de drivers van de i740 waren bedroevend. Ook voor de huisdige ge´ntegreerde oplossingen waren veel problemen met ondersteuning van sommige functies. dat ze idd het opensource redelijk tot goed voor elkaar hebben is waar.
Ik neem aan dat SLi en Crossfire ondersteuning gewoon blijft en zelfs verder word ontwikkelt.
Waarschijnlijk komt PCI Express 3.0 met een standaard voor onderlinge communicatie met hoge bandbreedte en lage latency.
SLI en CF is geen hardware matige toepassing die intel moet ondersteunen. Het kan perfect softwarematig ondersteund worden
Wat een flauwe 3D demo, lekker statisch. Dat voorspelt niet veel goeds wat mij betreft.
Intel's claims m.b.t. grafische versnelling zijn, zoals over het algemeen in het verleden al is gebleken, ook redelijk compleet niet waar.
Het gaat hier om realtime ray tracing.... dat is ff andere koek. Vergelijk het dus niet met 3DMark of iets dergelijks of games.
dan nog had op zijn minst de camera kunnen bewegen. als beetje showmensen weet intel echt wel dat ze voor een spectaculairdere demo wel op zijn minst een beetje meer beweging in had gemoeten.
dat ze dat niet hebben gedaan vind ik toch wel iets zeggend eigenlijk.
Die demo zegt inderdaad niet zoveel en de kwaliteit is nou ook niet bepaald hoog. Verder is de framerate ook nog erg laag. Ik denk zelf dat de eerste Larrabee versies meer een proof of concept zijn en dat eventueel later echt snelheid wordt behaald.
Tja ze lopen al een tijdje met de Larrabee te zeuren en dat men nu nog steeds aan 'proof of concepts' werkt die de "nog" niet eruit halen wat er in zit, zegt ook weer genoeg.
Ik ben benieuwd of Intel uiteindelijk aan de verwachtingen (die ze zelf gewekt hebben) gaat voldoen met deze videochip.

Bij de aankondiging van de larrabee GPU heeft Intel gezegd (zie ook nieuws: 'Prestaties Intels Larrabee vergelijkbaar met Geforce GTX285') dat de larrabee bij introductie 'markt-dominating' moet zijn, en minstens vergelijkbaar is met een GTX 285.
Met GTX285 performance gaan ze halverwege 2010 beslist niet markt dominating zijn. De GTX285 wordt vandaag al voorbij gestreeft door de nieuwe Ati HD5870 gpu. Over een maand komt daar een X2 versie van...
De markt wordt gedomineerd door de best presterende mainstream kaart, niet door high-end kaarten.
de general-purpose opbouw van larrabee heeft veel meer transistors nodig als de dedicatie hardware in een huidige GPU. dus ik verwacht niet dat larrebee op graphics/game performance can concurreren op prijs/prestatie met de dan huidige GPU's
wat ze wel mee hebben is dat de mhz hoger ligt (zou komen in ieder geval) met 2.2ghz maar ATI zit al op 1ghz voor de hele gpu, en nvidia op iets van 1.6ghz voor de shaders.

op GPGPU gebied zal het er voor larrabee wel een stuk beter uit zien verwacht ik.

[Reactie gewijzigd door Countess op 23 september 2009 13:42]

Wij ontwikkelen software (voor de keuken detaillist) welke gebruik maakt van een ray tracing renderer om zo mooie plaatjes te krijgen. Het zou bijzonder interessant zijn om via deze weg dus ook realtime gerenderd door zo'n 3d tekening heen te "wandelen." Lijkt me echt prachtig en een grote toegevoegde waarden voor onze klanten, maar ook de mensen die een keuken gaan kopen. Zij krijgen op deze manier nog een veel betere indruk van wat ze gaan krijgen.
Dat soort 'serious gaming' toepassingen bestaan al, kijk eens op www.virtuelemaquette.com

Ontopic: Verder erg goed om al iets van de Larrabee te zien. Ik ben erg benieuwd naar hoe ze dit uiteindelijk in de markt gaan zetten. Het verbaast me enigszins dat het nu over een discrete videokaart gaat. Ik ging er eerder vanuit dat het een omslag zou gaan betekenen van een GPU+GPU framework naar een heel nieuw soort platform.

Overigens is realtime raytracing iets wat in DirectX/OpenGL ook prima te implementeren is (zie bijvoorbeeld 'Implementing Ray-Tracing on the GPU by Martin Christen' uit ShaderX4). Je bent alleen sterk afhankelijk van de hoeveelheid grafische horsepower voor de uiteindelijke snelheid. Die is momenteel nog erg matig voor complexe scenes. Collega heeft wel eens een realtime raytraced diamant gemaakt (in DirectX), inclusief caustics.

[Reactie gewijzigd door d3vlin op 23 september 2009 12:59]

Het is waarschijnlijk nog te vroeg om te zeggen, maar wordt het mogelijk om twee of meer Larrabees naast elkaar te zetten?
Misschien met LucidLogic's Hydra technologie, overigens een bedrijf waar Intel zelf flink in heeft geinvesteerd. Ik verwacht zelf dat Intel's driver team het al druk genoeg heeft met 1 chip en zich nog lang niet bezig houdt met meerdere chips tegelijk.
Wat ik ervan begreep toen ik hierover op anandtech las, was dat Intel toch niet heel veel ruchtbaarheid gaf aan Larrabee op IDF. Verder was de demo volgens anandtech voornamelijk een proof of concept en werd er weinig tot niets over performance gezegd.

Persoonlijk moet ik nog zien of Intel in de buurt van nVidia's toekomstige GT300 en de vandaag gereleaste Ati HD5870 op kan (of de HD5870x2 die we binnenkort ook zullen zien). Vaak wordt geroepen: Intel kan er altijd meer cores bij doen voor extra performance. Maar als je dan eindigt met een chip van 600mm^2, dan is dat ook niet meer een optie.

Ik ben erg benieuwd dus... Als het enigzins redelijk presteert voor een aantrekkelijke prijs (zeg HD4890 of HD5850 performance die betaalbaar is), dan schaf ik er waarschijnlijk wel eentje aan, al is het alleen maar om er leuke dingen voor te programmeren.
Het is toch al lang gezegd dat Intel niet meekan met de nieuwe generatie, ze mikken bij launch om mee te geraken met de top van de GT2xx/4xxx generatie. Tijdens die uitspraak had je de gtx280 en HD4870 als top bij de concurrentie.
bij het maken van een spel wordt er veel tijd gestoken in optimaliseren van het spel, heb wel eens gehoord dat dat 50% van de totale ontwikkeltijd is soms.

Intel beweerd met larrabee dat de "trucs" die zijn gemaakt om lighting (zoals in raytracing) na te bootsen niet meer nodig zijn en daarmee ontwikkeltijd drastisch wordt verlaagd. Toch geloof ik niet dat dat helemaal waar is. ontwikkelaars van games zullen altijd pushen om de grensen van de hardware op te zoeken om een net iets mooier uitziende game te maken dan de concurrent

Zou mij niks verbazen als larrabee straks in onze game consoles zit

[Reactie gewijzigd door VB op 23 september 2009 13:42]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True