Fascinerend om te zien, maar totaal uit sync met de werkelijkheid natuurlijk. We praten hier over zeg 80fps op een ´magere´ 1280x720 res die compressed iets van 0,5 MB zullen zijn als je die kwaliteit wil, maar doe de math en je praat over 40MB/sec. Let op de hoofdletter B! Wie ziet het voor zich dat hij zijn nieuwste spel over een 40GB lijn speelt? En je vriend thuis uitnodigen voor een potje vereist wordt dan lastig. De demo was niet voor niets in Intel´s research lab....
Nee, dit is puur een vrij onzinnige demonstratie van Larrabee´s GPU killer, die zelf gekilled werd omdat hij niet opgewassen was tegen het ATI/Nvidia geweld. Nu heet ie ´Knights Ferry´ of in de volgende revisie ´Knights Briidge´ of MIT. Whatever: Larrabee zonder video output zeg maar.
Intel moet iets hebben om de GPU processing van zich af te slaan. Veel ontwikkelaars staan voor de keuze welke co-processor ze zullen ondersteunen (ja, co-processors want zo noemden we vroeger fpu accelerators dus waarom zouden we het woord niet weer gebruiken. Ik verdiende mijn eerste geld met de import van razendsnelle Weiteks!).
Ze kunnen kiezen voor ATI = OpenCL. Prestaties onder de maat en OpenCL is een onvolwassen platform. Voor Nvidia met zijn mega core units 512 op de laatste GTX + CUDA dat veel verder ontwikkelt is en oh ja, Intel wil niet vergeten worden dus Larrabee 2 + en Direct Computing als combi.
Intel wil natuurlijk alles doen om met name de Nvidia opmars in co-processors tegen te gaan. De Tesla´s (dedicated co-procs gebaseerd of de GF10x techniek van de grafische kaarten) zijn waanzinnig snel en hebben een berg geheugen voor professioneel gebruik. Niet voor niets dat sommige grote computer graphics studio´s (ILM, Zeta etc) overstappen naar CUDA renderfarms en hun 2000+ Intel CPU´s gaan dumpen.
Van ATI hebben ze niet zoveel meer te duchten. Nu AMD die bezit hebben Intel en AMD hetzelfde probleem: ontwikkel een goede GPU processor en je kannibaliseert je eigen CPU verkoop. Wie wil er een multi core Bulldog hebben als hij voor 200$ een veel groter aantal cores kan kopen uit de gamekaart serie.
Dus Intel heeft voor een klassieke Intel core gekozen (een hele oude P54 als ik het me goed herinner) en die opgenomen in een multi core bus ring ontwerp dat nu op 32 zit, maar met wat die shrinks naar 50+ zal gaan.
Toffe keuze voor developers die houden van klassieke ISA based programming (lees niet zo goed zijn en graag doen wat ze altijd al doen) en het helpt natuurlijk als je marketing centjes van Intel krijgt. The best of both worlds: met hulp van VTune maximum parallelisme uit je applicatie krijgen wat je toch al moest voor de multi core CPUs, even recompilen voor de Larrabee wannabee en nog geld toe om niet zoveel moeite te hoeven doen. Tel uit je winst.
Vandaar dat alle Larrabee 1´s nu naar developers gegaan zijn als Knights Ferry ontwikkelkit. Leuk om vast mee te spelen.
Daarnaast moet Intel iets laten zien om iedereen warm te krijgen voor de spectaculairee performance mogelijkheden en hier komt de crux waarom ze nu ´Wolfenstein de raytrace versie´ demonstreren op de IDF.
Intel stopt al vele jaren veel geld in hun eigen raytrace techniek omdat raytracing als moeilijk implementeerbaar op multi core Nvidia like cores beschouwd wordt. Het is dé videorendering techniek (tov van de vele andere die in spellen en professionele toepassingen gebruikt worden) die enorm graag op een CPU draait en wat is Larrabee is: een bunch of X86´s. (heel veel meer eigenlijk, maar voor het principe houden we het bij deze simplificatie).
Ziedaar deze ogenschijnlijk nutteloze demo. Goed voor de stockholders die overtuigd worden dat Intel on top of GPU achtige oplossingen zit, goed voor aarzelende developers die bang zijn om het vertrouwde x86 platform te verlaten en zo hoop houden dat hun app niet ten onder zal gaan aan de nieuwe startup´s die vanaf het begin gefocussed zijn op GPU only (meestal CUDA only) oplossingen en daar fantastische resultaten mee boeken.
en p.s. waarom kon Intel niet vier Larrabee´s in één doosje kwijt? Je prikt zo 4xGTX480 in een simpel doosje en Intel´s special development lukte het niet om voor een cruciale IDF presentatie dit te bereiken. Bij Larrabee´s ontwerp niet goed nagedacht?
Wie per se dit rare Wolfenstein raytrace zou willen spelen zal toch liever een stevige machine in het server hok zetten en dan intern een pijp van tig GB leggen ipv te vertrouwen op 4 remote servers over een dedicated glasvezel lijn naar Intels HQ.
en p.s2 voor wie dit niet helemaal begrijpt en denkt dat hij al zo iets gezien heeft: dat kan. Immers half life 2 bijvoorbeeld gebruikt ook raytracing en oogt zo snel als deze demo, maar dan op een gewone CPU: Dat is echter een software only renderer ipv een hardware assisted versie. Dus nee, Intels hoge inzet op nu juist raytracing als de showcase voor Larrabee like toekomstige co-processors is niet zo spectaculair, hoewel Half Life 2 niet een miljoen polygonen in een kandelaar stopt, maar wie wil dat?
edit: ik bedoel dus niet te zeggen dat HL2 in game RT gebruikt. Ongelukkig geformuleeerd. De level editor doet het en de rest zijn in software getructe RT achtige effecten die door veel mensen als RT gezien worden en in de praktijk vrijwel dezelfde mogelijkheden bieden als in het fimpje van Intel nu getoond worden.
en de laatste ps: wie dit voor professione toepasingen wil: cloud computing voor graphics kan de Mental Images Reality server gebruiken. Vrijwel onbeperkt schaalbare toegang tot bergen dedicated CUDA cores met lokale preview etc. Al veel verder ontwikkeld en gewoon bruikbaar.
Reacties op de commentaren:
@ leuk_he dank voor het compliment. Ik vergat helemaal niet dat dit een onderzoeksproject is; dat is juist Intel´s fail. In ´96 kondigden ze aan dat we binnen vijf jaar op 80cores zouden zitten. Zie Otellini hier met de die in zijn handen
http://techfreep.com/intel-80-cores-by-2011.htm
Developers is nu beloofd dat er volgend jaar shipping versies zullen zijn van de Knights Bridge architectuur die nu gedemonstreerd werd. Niet over vijf of tien jaar.
@biebbiefGTR: zeldzaam irrelevante opmerking. Ik zou er niets van weten
@yopie: je hoeft mij het verschil tussen een Gpu en een Cpu niet uit te leggen, noch de keuzes tussen de verschillende ´standaarden´. Ik ken ze en noem de gpu´s fp co-processors dat lijkt me nog duidelijker dan jouw tekst. Wat dacht je dat de dode Larrabee was? een universeel inzetbare CPU die Intels hoofdmarkt zou kannibaliseren? Dream on.
Dat jij niet wist waar je een 4 pci-e moederbord vandaan moest halen bij de marktintroductie van de gtx480 zegt meer over jou. Intel zou best een mult-cpu moederbord kunnen bouwen voor de Larrabee, dat kost ze geen miljoenen en het gaat om een markt van miljarden dus.... Nee er zit een probleem in het ontwerp van de Larrabee dit dit verhindert.
De kern is dat intel RT op een CPU stimuleert omdat het de techniek is waarvan men aanneemt dat deze het gemakkelijkst op een general purpose chip kan draaien en natuurlijk prima schaalt met het aantal cores. Vandaar hun inzet op juist dit terrein.
@knirfie244: er zijn veel meer rendering technieken dan dan de drie die jij noemt én de SFX industrie vermijdt juist vaak RT. Kale RT wil al helemaal niemand zien in een film, povray wel eens bekeken? Zie je het voor je?
Dat Larrabee meer is dan een P54 op een ring bus schreef ik zelf ´simplificatie´. Ik ken mensen vanuit de CG industrie die betrokken waren bij het ontwerp en dat waren niet de minste dus er zitten veel slimme extensies in het ontwerp uit de CG praktijk. Vergeet alleen niet dat dit voor ATI en Nvidia ook geldt.
@bazkie_botsauto en anderen: ik weet dat HL2 niet real time op RT draait, maar het is een techniek die gebruikt wordt dus ik dacht door het te noemen de ´ja maar dit kan al´ weg te nemen´. Ik had het beter weg kunnen laten. Zal het editen.´
[Reactie gewijzigd door max3D op 23 juli 2024 08:12]