Door Wouter Tinus

Larrabee: op het kruispunt van gpu en cpu

14-08-2008 • 11:40

62

Singlepage-opmaak

Conclusie

Larrabee is zonder twijfel een van de interessantste chips die Intel ooit ontwikkeld heeft. Het is een antwoord op Niagara, de Cell en de (gp)gpu in één en dat allemaal zonder af te wijken van de oude vertrouwde x86-standaard.

Maar hoe gaat Larrabee er in de praktijk uitzien? Geruchten spreken over een videokaart met 24 cores, met een kloksnelheid van 2GHz en een tdp van 150W. Zo'n beest zou op papier 1,5 teraflops aan rekenkracht hebben, 25 tot 50 procent meer dan de huidige top-gpu's. Hoewel het bijzonder lastig is om flops te vertalen naar bijvoorbeeld frames per seconde - zeker met wild verschillende architecturen - moet wel worden opgemerkt dat alle benchmarks die er nu goed uitzien natuurlijk al lang en breed gedegradeerd zijn tot de middenmoot tegen de tijd dat de Larrabee in 2010 in de schappen ligt. Bovendien blijft de kwaliteit van drivers een zorgenkindje. Intels geïntegreerde producten zijn wat dat betreft nooit super geweest, terwijl echte gamers erg veeleisend zijn.

Het zou echter verkeerd zijn om Larrabee puur te beoordelen op zijn kansen als high-end videokaart. De architectuur zal niet alleen gebruikt worden voor pci-insteekkaarten, maar ook beschikbaar gemaakt worden als losse processor die direct in het socket van een servermoederbord gestoken kan worden. Sta ook niet verbaasd te kijken als Intel binnen een paar jaar zijn eerste heterogene ontwerpen aankondigt, waar bijvoorbeeld vier Sandy Bridge-cores en zestien Larrabee-cores op één 32nm-chip terechtkomen.

Larrabee systeem

Samenvattend lost Larrabee een van de pijnlijkste tekortkomingen van x86-chips op: het tekort aan grote hoeveelheden rauwe flops. Of een Direct3d/Opengl-renderer de geweldigste toepassing is voor de nieuwe architectuur valt nog te bezien, maar zo niet dan weet men er ongetwijfeld wel raad mee voor andere taken die men nu naar een chip als Cell of gpu probeert om te zetten. De vraag blijft echter of Larrabee nog op tijd is om de uittocht te stoppen, maar dat is iets wat Nvidia, AMD en Intel de komende jaren onderling mogen uitvechten.

Reacties (62)

62
58
31
13
0
1
Wijzig sortering
Er kunnen dus flink wat cores op. Mag ook wel. Misschien worden in de toekomst zelfs systemen met meerdere larrabee's gemaakt, hoewel, als je met 64 cores op één chip uit de voeten kan, en die ook nog krachtig kan maken, is dat nog geen eens nodig. Zeg maar sterk overbodig.
Maar zo'n grote hoeveelheid cores mag ook wel hoor. Tegenwoordig (ik reken nu de geluidskaart en mogelijk aanwezige PPU niet mee, want dat is hier niet van belang) heeft elk systeem twee processorcores (1x CPU + 1x GPU, hoewel dit ook onboard kan zijn, maar dat laatste is dan nog steeds een processor). Een zichzelf respecterend systeem heeft er wel 3 (2CPU cores + 1 GPU). Dan heb je ook nog de echte gebruiker die er 3 tot 6 heeft (2-4 krachtige CPU cores + 2 krachtige GPU cores). En de echte die-hard heeft er wel 14 (met 2*4 of 1*8 zware C-jongens en 3*2 GPU cores). En er bestaan ook nog 8-core CPU's.
Natuurlijk kunnen er nog genoeg andere combinaties, maar dat wordt dan lastig om zo neer te typen.

Ik zie hier verder wel wat in. Grafische kracht en CPU-kracht zijn veel makkelijker op elkaar af te stellen. Een bottleneck gaat waarschijnlijk erg worden vermoeilijkt in de Larrabee.
Je hebt niet snel een GPU die tien keer zo krachtig is als je CPU, of andersom.
Ik zie wel iets in deze oplossing, hoewel voor de echte gamers onder ons er misschien toch nog wel flink wat geheugen bij mag. Op een beetje hoge resolutie gamen met 8MB L2-cache...
Heb ik geen hoge pet van op. Tegenwoordig worden niet voor niets grafische kaarten uitgerust met 256-1024mb geheugen. Ik game liever op een leuke resolutie.
Waarom is de bovenstaande reactie +2 "must-read"?
Maar zo'n grote hoeveelheid cores mag ook wel hoor. Tegenwoordig (ik reken nu de geluidskaart en mogelijk aanwezige PPU niet mee, want dat is hier niet van belang) heeft elk systeem twee processorcores
Wat heeft hoeveelheden cores nu met rekenkracht of wat dan ook te maken? Tilera maakt al jaren systemen met 64 "cores", maar dat zegt niets over hoe goed je daar word, office of games mee kan draaien. NVIDIA wil de consumenten zelfs graag laten geloven dat er op hun kaarten maar liefst 240 'cores' zitten (wat onzin is, het zijn er maar 30), maar dat is ook op geen enkele manier vergelijkbaar met een CPU of zelfs met Larrabee.
Grafische kracht en CPU-kracht zijn veel makkelijker op elkaar af te stellen. Een bottleneck gaat waarschijnlijk erg worden vermoeilijkt in de Larrabee.
Je hebt niet snel een GPU die tien keer zo krachtig is als je CPU, of andersom.
Waarom niet? Larrabee GPUs zijn net als nu PCI-E insteekkaarten, dus als je die wilt combineren met een VIA Nano is dat geen enkel probleem. Larrabee kan echt niet zomaar even een deel van je gewone processorwerk van je overnemen hoor, het is voornamelijk een GPU, alleen met een CPU-achtig ontwerp.
Op een beetje hoge resolutie gamen met 8MB L2-cache...
Euh... weet je wat cache is? Het is een kleine hoeveelheid geheugen die op de processor zit zodat niet elke keer de langzame weg naar het systeemgeheugen gekozen hoeft te worden. Je normale desktopprocessor heeft ook een paar MB L2 cache, en NVIDIA en ATI hebben ook cache in hun GPUs zitten.
Larrabee krijgt gewoon een flinke hoeveelheid GDDR geheugen, net als alle andere GPUs van dit moment.
8MB L2 per core, dus in het geval van 64cores zit je al snel op 512MB. Hoewel dat wel een beetje krap is vergeleken met de concurrent (als je aanhoud dat Larrabee pas in 2010 komt that is!)

Maar 1920*1080*32bit = 8MB en ik voorzie snel textures van die maat. Dan aangemonen dat er flink wat verschillende textures in 1 scene/frame zitten loop je toch (zover ik het zie) redelijk snel tegen 512MB aan in de toekomst.
Maar dan gebruik je dus toch nog alle 512MB alleen voor alle textures. Voor het central processing zelf blijft er niks over.
Volgens het artikel heeft één zo'n core trouwens 64KB L1-cache en 256KB L2-cache. Wat mij voor gaming helemaal angstaanjgend lijkt.
Waar het 4-32 GB uit het plaatje over gaat weet ik niet zeker, maar aangezien het zo relatief veel is denk ik dat het om RAM-geheugen gaat (hoewel het vreemd is dat er geen 1 of 2 GB of zelfs nog minder staat, maar misschien verwacht intel dat in 2010 nieuwe pc's geen 2GB meer zullen hebben). Dat is voor gaming ook angstaanjagend, want dan krijg je dus shared memory. Dat is bekend als slecht.
Zoals gemeld, deze komt er hoogstwaarschijnlijk ook als insteekkaart met snel GDDR5 geheugen, non shared.
Zeer mooi artikel.

Ik denk dat dit soort ontwerpen een gigantische kans van slagen hebben, zeker omdat het draaien van veel meer processen parallel aan elkaar zeer interessant is, niet alleen in games, ook OSen kunnen hier mooi gebruik van maken. In games is het natuurlijk duidelijk waar het voor gebruikt wordt. Je wijst gewoon een x-aantal cores toe om bijvoorbeeld de omgeving te renderen, een core voor het renderen van het haar van de hoofdpersoon en 1 core voor het maken van zweetdruppeltjes op het voorhoofd. Zeker als je vele threads naast elkaar kunt draaien is het geen probleem om 3 cores alleen maar grassprietjes te laten renderen, dat dan onafhankelijk gedaan wordt van alle andere zaken in een spel.
Op die manier kunnen andere programma's er ook gebruik van maken. Voor ieder specifiek onderdeel wordt gewoon een aparte core gebruikt.

En op het moment dat er geen verschil zitten in cpu's en gpu's is dit heel goed te schalen.
Lijkt me dat de cores verdeeld worden aan de hand van de vraag. Ze delen het nu op in tegels maar ik vraag me af wat de cores doen die bijna geen werk hadden aan bv de lucht (aanname: lucht = blauw) te renderen.
Een core die klaar is met zijn tegel kan gewoon aan de volgende tegel beginnen :). En als er geen tegels meer zijn voor het frame is het vaak mogelijk om alvast aan het volgende frame te beginnen.

[Reactie gewijzigd door Wouter Tinus op 25 juli 2024 05:59]

Dat is vaak niet mogelijk, en daarom schalen technieken als alternate frame rendering bij meerdere GPU's lang niet altijd zo goed. Een typische game heeft aan het eind van z'n rendering-slag namelijk nog een zooi fullscreen effects, waarbij de vorige render steeds als input van de volgende wordt genomen. Een tile kan dan dus pas beginnen als alle overige tiles klaar zijn.
Zoals ik het begreep lossen ze dat op door die afhankelijksheidsboom bij te houden, zodat delen van volgende frames kunnen beginnen zodra alle data waar ze van afhankelijk zijn klaar is. Hoe ze precies omgaan met fullscreeneffecten weet ik niet, maar zelfs als de hele 'main' render geblokkeerd wordt omdat tiling van zo'n effect niet mogelijk is (zou voor Larrabee absoluut geen optimale situatie zijn, dus ik denk dat ze dat zo veel mogelijk vermijden) dan kunnen er nog shadow maps e.d. gedaan worden.
Zoals ik het begreep lossen ze dat op door die afhankelijksheidsboom bij te houden, zodat delen van volgende frames kunnen beginnen zodra alle data waar ze van afhankelijk zijn klaar is
Mja, ik denk niet dat ze dat op dat niveau kunnen doen. Dan moeten ze namelijk kunnen bewijzen dat bijv. texture fetches in een shader nooit buiten een bepaald gebied mogen komen (min of meer de omringende tiles zeg maar), maar bij een gaussian blur waarbij de hoeveelheid blur afhankelijk is van een waarde in de bloom buffer (vaak alpha-component van de framebuffer) moeten ze dus praktisch eerst de shader uitvoeren zodat ze kunnen weten of ze de shader uit kunnen voeren :)

Daarnaast is het niet zo erg als ze even moeten wachten - dat moet de huidige GPU immers ook al in die gevallen. Bij onafhankelijke renders zoals shadowmaps kan natuurlijk wel meteen door worden gerenderd. Overigens worden shadowmaps gerenderd vóór de main scene, dus tijdens fullscreen effects maar wat shadowmaps gaan doen kan niet echt ;) (voor de volgende frame natuurlijk wel alvast, maar daarvoor moet een game teveel vooruit queuen en krijg je een te grote framelag)
Wacht ff hoor..

de 9800gtx+ heeft een doorvoersnelheid van 70 GB/s en intel wil dat concureren met maar 17GB/s ?? the hell.. ik denk dat dat niet een beetje HEEL erg ondermaats is?
Wat je ziet op dat plaatje is een multisocket serverversie van Larrabee, waarbij 17GB/s de bandbreedte is tussen de sockets onderling. Ieder socket heeft daarnaast zijn eigen geheugencontroller, met ook een x hoeveelheid bandbreedte (25-35GB/s lijkt een goede gok als je ziet waar de gewone CPU's heengaan).

De PCIe-versie van Larrabee krijgt hoogstwaarschijnlijk een aantal GDDR5-geheugencontrollers met een flink sloot bandbreedte, in dezelfde orde als de concurrenten.

[Reactie gewijzigd door Wouter Tinus op 25 juli 2024 05:59]

Wacht ff hoor..

de 9800gtx+ heeft een doorvoersnelheid van 70 GB/s en intel wil dat concureren met maar 17GB/s ?? the hell.. ik denk dat dat niet een beetje HEEL erg ondermaats is?
Hangt er natuurlijk ook vanaf wat voor soort bewerkingen de Larrabee doet en de 9800GTX+... ;) Bedenk je overigens ook, dat de lanes verschillen, de een heeft X-stappen en de andere Y-stappen. In die stappen kan degene met de langste lane, meerdere bewerkingen doen dan de andere...

Maakt de doorvoersnelheid lager, maar wel meer per uitvoering per lane.
Zie het als een busje of een vrachtwagen over twee verschillende rijstroken op de weg... ;)
Anoniem: 134818 14 augustus 2008 13:24
Geruchten spreken over een videokaart met 24 cores, met een kloksnelheid van 2GHz en een tdp van 150W. Zo'n beest zou op papier 1,5 teraflops aan rekenkracht hebben, 25 tot 50 procent meer dan de huidige top-gpu's.
Pardon, de huidige top kaart heeft 2,4TFlops... namelijk de HD4870X2. Of telt het niet mee omdat ie 2 cores heeft? :/

[Reactie gewijzigd door Anoniem: 134818 op 25 juli 2024 05:59]

RV770 geeft al 1,2 terraflop. dat is heel dicht bij 1,5.

Maar. Die 1,5 moet ook veel andere taken doen. behalve texture filtering. Maar de rasterizer rops etc is bijna allemaal ook software. Dus die Larrabee kan flink inboeten en dat voor flexibliteit.

Als je de DIE van GT200 en rV770 bekijkt zie je dat shader blokken ook andere unit herbergen en dus maar minder dan de helft dus puur shaders zijn.
Die rest is fixed function wat dat doet kan het veel beter. Daar heb je dus meer X86 cores voor nodig om dat te halen. je bent dan wel flexibler maar met 'n performance cost.

Larrabee zal grotendeels uit X86 cores bestaan. dus maar 'n deel zal het opnemen tegen de GPU shaders.

Maar RV770 en GT200 zal niet zijn competitie worden eerder RV870 GT300 of iets DX11.
1,5 is dus magertjes want mogelijk dat RV870 al daar overheen gaat en de fixfunction units doen ook hun number crunching erbij.

Ik wacht eerst af. kan namelijk ook 'n fiasco worden.

De eerste mijlpaal die iNTel moet halen is competatieve DirectX performance.

Hiervoor zijn ze afhankelijk van hun Team die aan de software side werken.
De DirectX software rendere library en uiteraard goede drivers.
iNtel GFX driver team moet dus groter.

wat iNTel wel mee heeft is de nieuwste dieschrink tot hun beschikking.

Wordt iig hele interresante tijden de komende 2 a 3 jaren.
Een kaart is geen gpu ;). Als je een Radeon X2 wil meetellen dan moet je ook een "Larrabee X2" overwegen, kom je op dezelfde percentages uit.

[Reactie gewijzigd door Wouter Tinus op 25 juli 2024 05:59]

Och, dan moeten we spreken over een "Larrabee x24" dus ik vind zijn opmerking terecht
oeps dubbele reply (moest op een andere post :S )

[Reactie gewijzigd door Powrskin op 25 juli 2024 05:59]

+ ook al reken je 1 core dan klopt die 25/50% sneller als huidige Gpu's nog niet.

zal ik het andersom zeggen :P
1 Larrabee core doet 0.0625 teraflop tegenover 1.2teraflops van de HD4870 (1 staat tot 19 zegmaar).
Maar als je dit zou moeten uitleggen aan iemand die er niet zoveel verstand van heeft...
Is het dan een CPU met GPU functionaliteit of een GPU met CPU functionaliteit?
En waarom?

"Omdat het anders wel een GPCPU had geheette" vind ik niet voldoende... :p
Het is een CPU met GPU functionaliteit. Die functionaliteit vertaalt zich dan voornamelijk naar een texture-unit om op hardware-niveau textures te filteren, iets waar general purpose moeite mee hebben (texture coordinaten omzetten vertalen naar device coordinaten en geheugenadressen, pixelblokken fetchen waarbij je rekening moet houden met mipmaps en samples die nodig zijn voor anisotropic filtering, en het daadwerkelijk filteren). Voor de rest is het een volledige general purpose CPU met heel veel rekeneenheden.

Overigens gaan hedendaagse GPU's sowieso steeds meer de CPU kant op. Vroeger had je een "fixed function pipeline", waarbij je per pixel niet veel meer kon doen dan een paar textures fetchen en die op een of andere manier combineren. Toen kwamen programmeerbare shaders waarin je hele berekeningen uit kon voeren. En dat ging steeds verder, zodat je bijvoorbeeld ook if-statements en loops kon doen, en later kon je ook nog eens zelf de geometrie genereren op de GPU. Het zal niet lang meer duren voordat de hele pipeline softwarematig geimplementeerd kan worden, en dan zijn het in feite gewoon CPU's :).

[Reactie gewijzigd door .oisyn op 25 juli 2024 05:59]

Het prachtige is dat intel zoveel belang hecht aan software-programmatie. Dit betekent dat linux developers ook helemaal niet meer hoeven te klagen: schrijf je eigen OpenGL-implementatie, zagers!

Het gekke is dat de Cell-processor nooit op een aparte kaart is uitgekomen. Die zou ook heel makkelijk een videokaart kunnen vervangen. Hell, ELKE processor kan makkelijk 3d-kaart spelen als je een stukje framebuffer reserveert en daar een RGB DAC aan koppelt... Hoe zou de niagara presteren als videokaart?
Het gekke is dat de Cell-processor nooit op een aparte kaart is uitgekomen.
Jawel hoor, kost alleen grof geld: nieuws: Mercury introduceert PCIe-kaart met Cell-processor
OpenGL is al Cross-platform...
Gaat waarschijnlijk over de bagger-openGL drivers van nVidea en ATi, die geen specs willen(/wilden) vrijgeven over hoe hun kaart werkt. OpenGL is idd Cross-Platform, maar zonder 3d-drivers kom je nergens ;)
Waar ik benieuwd naar ben is zijn de opties om deze Larrabee als General Purpose CPU te gebruiken. Het is tenslotte een CPU met de x86 instructieset dus zou deze ook in staat moeten zijn om gewoon Windows te draaien en de hele reutemeteut, of zie ik dat verkeerd?

In dat geval zou de Larrabee ook kunnen volstaan als CPU/GPU in een computer lijkt mij. Maar het geeft ook voordelen bij berekeningen. De ene berekening kan vlot op de huidige manier worden behandeld (zoals nu normaal is bij x86), maar physics zouden een stuk sneller kunnen worden afgehandeld op de manier zoals de videokaarten hier nu mee omgaan (zie oa NVIDIA Cuda).

AMD gaat met Fusion natuurlijk bovenstaande wel waarmaken. Maar Fusion heeft, voor zover ik het zie, het nadeel dat het toch 2 aparte blokken blijven. Bij veel Physics berekeningen zou de Larrabee al zijn kracht kunnen benutten, de Fusion zou alleen de GPU aan het werk zetten terwijl de CPU zelf uit zijn neus mag vreten.

Dit gaat in ieder geval zeker de wereld van onze computers veranderen. Aan de ene kant blijft het "gewoon" x86, aan de andere kant is het eigenlijk iets totaal nieuws in mijn ogen.
Het zijn kleine mini corretjes. Niet elke PC probleem is zo geweldig op te delen in multiple threads. Zoiets als Renderen Physics en AI is dat wel.
Maar vele andere taken wat 'n CPU doet niet.
Dus je heb dan ook regelmatig single thread crunching power nodig.
En dat bieden die zware cores van tegenwoordig. De een zal de ander dus niet vervangen tenzij men die efficentie overboard gooid. Omdat de minder ook redelijk voldoet. Maar zo ve ris het nog niet.
Denk eerder dat men de big en smal samen op m'n die zetten.

Dus quad met 32 larrabee
Dat zou kunnen inderdaad. Feit blijft wel dat deze Larrabee meer optie sheeft om uitkomsten te voorspellen. Mogelijk maakt dat de Larrabee toch sneller dan hij doet vermoeden voor applicaties die niet over heel veel cores kunnen worden verdeeld.
Communicatie tussen Larrabee en de gewone cpu wordt verzorgd door Intels driver
Goed artikel en prachtig ontwerp. Ik kijk echt uit naar de Larrabee maar bovenstaande quote maakt me toch een beetje bang. Zal de Larrabee à la SLI alleen op intel chipsets draaien met intel procs? Stel dat het een ontzettend groot succes wordt, dan zal intel iedereen naar een compleet intel toe lokken. Stel dat er weinig animo dan willen ze het op zoveel mogelijk platformen ondersteunen?

Ik ben benieuwd wat ze ervan bakken. Intel Atom was ook een succesvolle pentium-revival dus we zullen zien of die trend aangehouden wordt. Tegenover de Niagara en de Cell zal het ongetwijfeld een knaller worden.
ik begrijp je angst wel.

Maar: er was ooit een angst dat 3DFX (toen eigelijk monopolist) te veel macht zou krijgen. Toen kwam nVidia, en daar gingen ze. Uiteindelijk werd 3DFX overgenomen door nVidia, en zo komen we aan SLi in de Geforce series. (mijn goeie oude voodoo 2 kon ook al SLi, en dat was in 1999.)

ik maak me wel zorgen om nvidia trouwens, van de 3 grote partijen is nvidia de enige die niet in het geintegreerde cpu/gpu verhaal zou meekunnen op dit moment. Eventueel zou een aliantie of zelfs overname/fusie met Via voor de hand liggen, maar dat is nog niet gezegt.
nVidia en VIA hebben wel heel andere doelen. nVidia wil de snelste zijn, VIA de zuinigste. Niemand die een VIA Nano koopt met een 9800GTX erop... Vandaag.
Als nVidia het echt zo hoog in de bol heeft dat ze met de gpgpu alle CPU taken over willen nemen zou een VIA proc toch genoeg zijn om te booten.

Al met al juichen we met zijn allen verandering toe maar durven we ons niet aan te passen. x86 is niet moeders schoonste maar iedereen blijft plakken en de compatibaliteit is een heilig goedje. Ben ook zeker benieuwd in hoeverre ontwikkelaars apart moeten gaan ontwikkelen voor nVidia Cuda, Ati Fusion, Intel Havok, Intel Larrabee. Intel Only games zit niemand op te wachten, tenzij ze een plek op de consolemarkt hiermee veroveren net zoals de Cell die anders alleen op een stel universiteiten terecht zou zijn gekomen.
Ik kan niet wachten om te zien wat dit gaat doen voor real-time raytracing. Als we met z'n allen blijven hangen aan die hardware rasterizers dan wordt dat nooit wat(al is het wel de toekomst), maar larrabee heeft die beperking niet en toch heel veel parallelle rekenkracht. Het is een hele mooie oplossing die de wegen van beide werelden kan bewandelen(op een redelijk tempo) en dus voor een soepele overgang zou moeten kunnen zorgen.
Nou niet veel.
De eerste obstakel is genomen. En dat is ruim voldoende massa parralel computing power. Wat alleen maar zal groeien in het aantal cores.
Maar er is nog geen Raytracing power target platform. ze b eginnen bij nul vs half miljard wat de classieke methode al jaren gebruikt. Dev's staan dus niet te springen om de bestaande methode maar te laten vallen.
Als je vroeg Raytracen serieus wil pushen moet je Raytrace game engine 2 methoden ondersteunen. Raytrace op LArrabee en raytrace op unifiedshaders.

Dan om markt aandeel te winnen moet Larrabee ten eerste 'n DirectX/openGL performance leveren die gelijk waardig of zelfs de huidige methode overtreft.

Zo ook zal praktisch de raytrace methode ook die nextgen GPU ook in raytrace shader performance ook moeten overtreffen.

Omdat nu pas paar detail beken zijn en niet voledig kan men nog niet veel zeggen of wat nauwkeuriger speculeren over wat het aan performance gaat brengen.
Ook ATI en nV nextgen waar het tegen op moet is ook nog onbekend.
Als dit al DX11 + hardware zal zijn. Die SM5.0 shaders zullen ook steeds dichter naar een CPU core gaan.

Raytracen is ook al dedaan op GPU. Die shaders zijn er ook uitermate geschikt voor. En dat ging ook aardig beter dan wat CPU kan.

Dus of het zo'n sucses wordt, geen idee. Maar zeker niet op korte termijn.

Want de dev wereld moet omslaan en die hebben 'n grote codebase en experience met de huidige methode en middleware die dat ook volgt.

Daarnaast heeft raytracing niet voor elke game zoveel zin.

Zoals Quake met heelveel shine balls en mirrors. Dat is geen game.
Die spiegels en shine ball passen niet in de game opzet van quake.
'n level op 'n kermis met zo'n spiegel attractie zou dat logisch zijn.
Maar raytracing voor één map. Of 'n paar spiegel verspreid door de hele game.
Dat kan de huidige rendere methode ook. Misschien minder efficient. Maar dat voldoet.
Water dito. Tenzij de game waterworld heet. Veel games hebben amper water scenes.
Shiny objects cube mapping voldoet en is al ruim believale. Als gamer ga ik geen reflexies controleren in game.
Dus Dev staan er niet zo hard om te springen.

Betere Schaling. Leuk maar waar zal de cross overpoint zitten. Als LArrabee pass asskickt op 2560x1600 hebben ze eigenlijk veloren. De omslag punt bij de massa ligt rond 1024x768.
Als van af daar de betere schaling inzet. Heeft larrabee 'n duidelijk voordeel.
in die resoos moet larrabee de huidige methode overtreffen

Dat stimuleerd de overstap van gamers. En bevorderd target platform groei
En dev's zullen wel volgen als de target groeid en interrerresanter wordt, maar dat gaat 'n stuk langzamer. Game produktie duurt lang zo ook migratie die met die verlate response te maken krijgt.
Voodoo 2 = 1998. Overigens beschikte de Voodoo Graphics ook al over SLI en dat was in 1996.
Los van het feit dat het dezelfde afkorting heeft is het een totaal andere techniek dat in die Voodoo's zat.
Is Half Life met een andere opzet geprogrammeert? In de grafiekjes wijkt hij steeds af van de andere 2 games. Of heeft intel een niet spannend stuk genomen om te testen?
Is Half Life met een andere opzet geprogrammeert?
Ja, hij is namelijk veel minder "next-gen" door erg veel gebruik te maken van precalculated lighting. Dit scheelt erg veel kwa performance, maar het maakt de boel natuurlijk wel minder dynamisch, en daardoor is de lijn in de grafiek vrij stabiel.

[Reactie gewijzigd door .oisyn op 25 juli 2024 05:59]

Ik vind dit een zeer slimme richting die Intel ingegaan is. Dit is dan misschien niet de ideale methode voor OpenGL en DirectX toepassingen, maar voor ray tracing (ooit toch wel de toekomst van 3D applicaties) en natuurkundige berekeningen is het waarschijnlijk zeer goed geschikt. Temeer omdat het zo goed schaalbaar is.

*gaat aandelen Intel op zijn verlanglijstje zetten* ;)

[Reactie gewijzigd door Piraatje op 25 juli 2024 05:59]

Op dit item kan niet meer gereageerd worden.