Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties

De Larrabee-chip, een combinatie van een gpu en een x86-cpu die Intel van plan is eind 2009 op de markt te brengen, wordt mogelijk met een vernieuwde versie van de dertien jaar oude Pentium-core gebouwd.

De P54C, zoals de inmiddels bejaarde Pentium-core eigenlijk heet, zou voor gebruik in Larrabee uiteraard gemoderniseerd moeten worden. Zo zou de architectuur naar 45nm worden gekrompen en de hoeveelheid cache van de processorkernen en hun instructieset zou worden uitgebreid. De Larrabee zou een 64bits-gpgpu moeten worden, zo liet Intels cto Justin Rattner aan Heise Online doorschemeren. Larrabee zal in eerste instantie met 16 tot 24 cores worden uitgerust, terwijl ook gedacht wordt aan een variant voor supercomputers met 32 cores.

De Larrabee-chips zullen naar verluidt op snelheden tussen de 1,7GHz en 2,5GHz worden geklokt, waarbij de nieuwe generatie grafische kaarten van Intel al bij snelheden van 2GHz het aantal berekeningen van concurrenten Nvidia en ATI verdubbelen tot twee teraflops, aldus Nordic Hardware. Het energieverbruik zou navenant hoger zijn dan de kaarten van Nvidia en ATI: op Larrabee-kaarten zouden aansluitingen voor 75W- en 150W-voeding zijn gespot, die samen met de pci-e-stroomvoorziening voor 300 watt zouden zorgen. De toekomst moet uitwijzen of programmeurs inderdaad liever met de x86-instructieset werken om klassieke cpu-taken zoals physics en AI op de grafische kaart uit te laten voeren.

Vooralsnog lijkt de grafische kaart met geïntegreerde cpu zijn concurrentie met gemak te verslaan, maar tegen de tijd dat Larrabee uitkomt, zullen ook de prestaties van de kaarten van Nvidia en ATI verbeterd zijn.

Larrabee architectuur
Moderatie-faq Wijzig weergave

Reacties (38)

Ik heb het nieuws al ergens anders gelezen, op NordicHardware. Daar staat iets meer over de potentiele rekenkracht.

Single precision bij Larrabee komt op 2TFlops, bij de HD4870X2 komt dit op een potentiele 2,4TFlops. AMD heeft hier dus een voordeel, maar door de architectuur van de chips is dat het absolute maximum en hier kom je over het algemeen niet aan. Hierdoor heeft nVidia ook wel minder potentiele rekenkracht dan AMD, maar wint de GTX 280 het van een enkele HD4870.

Kijken we echter bij double precision rekenwerk, dan blijkt de HD4870X2 op slechts 600GFLops te blijven hangen en behaalt Larrabee 360GFlops meer rekenkracht.

Bovendien heeft Intel een totaal andere structuur doordat zij gebruik maken van de x86 instructieset, dit geeft Intel mogelijkheden met de kaart die AMD en nVidia alleen door software kunnen bereiken (bijvoorbeeld Cuda). Tenminste als ik het goed begrijp.

-> Op NordicHardware staat wat meer info, directe link kreeg ik niet aan de praat, maar je moet bij dit artikel wezen: Intel Larrabee to feature Pentium-based cores, hits 2TFLOPS at 2GHz

[Reactie gewijzigd door DjDuivert op 8 juli 2008 18:29]

Bovendien heeft Intel een totaal andere structuur doordat zij gebruik maken van de x86 instructieset, dit geeft Intel mogelijkheden met de kaart die AMD en nVidia alleen door software kunnen bereiken (bijvoorbeeld Cuda). Tenminste als ik het goed begrijp;.
Dat komt omdat al je software die je draait op je x86 PC gecompileerd is voor de x86 instructieset. Om het duidelijk te maken, iedere instructieset is anders.

Basic werkt een microprocessor op de volgende manier: Commando "1" wordt gegeven. De CPU voert dan commando "1" uit. Dat zou bij x86 bijvoorbeeld optellen van 2 registers kunen zijn (is niet zo, alleen een voorbeeld :+ ). De CPU voert dan bij die kloktik het commando uit door register AX en BX bij elkaar op te tellen en deze terug te zetten in AX.

Echter praat de videokaart neit met de x86 instructieset. Net als jij waarschijnlijk geen Chinees verstaat, verstaat deze videochip ook geen x86. Je kan als gebruiker wel software proberen te starten, maar deze werkt simpelweg niet omdat bij een videokaart optellen misschien wel commando "10" is.

Daar is de Larrabee dus in voordeel. Alle software draait er op omdat hij de x86 taal "spreekt".

Daarnaast is de x86 ook een General Purpose CPU, je kan hem overal voor gebruiken. Een videochip niet. Die is geoptimaliseerd voor 3D bewerkingen. Of andere stevige bewerkingen zoals physics. Dat laaste maakt de Larrabee ook een zeer interessante CPU, hij kan alles aan.
Daar is de Larrabee dus in voordeel. Alle software draait er op omdat hij de x86 taal "spreekt".
Als het nu een zo eenvoudig was :')
Single precision bij Larrabee komt op 2TFlops, bij de HD4870X2 komt dit op een potentiele 2,4TFlops.
...
Kijken we echter bij double precision rekenwerk, dan blijkt de HD4870X2 op slechts 600GFLops te blijven hangen en behaalt Larrabee 360GFlops meer rekenkracht.
Hoho, dat is de versie voor HPC klanten, met 32 cores. Een 16 core versie heeft nog maar de helft van de rekenkracht, en moet het afleggen tegen R700.
hangt maar net vanaf welke berekeningen gevraagd worden,
voor raytracing wodrt dit wel efficient en en 4870 niet ( ook al is het wel mogelijk)
normale CPU's zijn niet goed in het aantal flops. maar andere taken doen ze erg effient (of eigk doen gpu's ze niet of heel innefficient)
dit is een soort tussenvorm veel kleine cores (dus goede parralelle processing)
normaal het sterkste punt van GPU's
maar ook goede normale berekening onderseuning wat normaal alleen cpu's konden. dat is de kracht van larrabee
Héél interessant allemaal inderdaad. Maargoed, die nieuwe intel komt pas over andehalf jaar. In anderhalf jaar kunnen de prestaties van videokaarten ook verdubbelen. Als het niet meer is. Dus dan blijft Intel toch net wat trager. Maar wel een interessant fenomeen, een gecombineerde procers met gpu. AMD was er ook mee bezig geloof ik.

[Reactie gewijzigd door DoO_darkrush_NL op 8 juli 2008 18:41]

Ja klopt, maar in theorie zou HD4870X2 nu al sneller zijn dan Intels aanbod. Maar dat kun je niet vergelijken. Het is net als zeggen dat AMD beter is omdat ze meer shaders op een die plaatsen dan nVidia. Evengoed gaat iedereen vooruit en het valt zeker nog te zien of Intel zijn concurrentie kan bijbenen.

AMD is inderdaad ook bezig met gpu en cpu combineren, maar zij plakken de gpu op de cpu, waardoor de processor normale en grafische taken kan overnemen. Dit bespaart stroom aangezien geen aparte grafische chip nodig is en Fusion, zoals het heet, is dacht ik voornamelijk (zo niet geheel) op de notebookmarkt gericht.

[Reactie gewijzigd door DjDuivert op 8 juli 2008 19:01]

Ik zou het niet onderschatten, en een deel mensen vergelijken verkeerd als ze naar Ati & nVidia verwijzen.
Zij doen aan rasterisation, deze dient voor ray tracing.
Eventjes een vergelijking: http://blogs.intel.com/re..._raytracing_the_end_o.php
Onzin. Intel heeft al lang aangegeven dat hoewel raytracing heel interessant is, Larrabee gewoon een rasterizing GPU gaat worden. Zie ook hier
There's only one way to render the huge range of DirectX and OpenGL games out there, and that's the way they were designed to run - the conventional rasterisation pipeline. That has been the goal for the Larrabee team from day one, and it continues to be the primary focus of the hardware and software teams. We take triangles, we rasterise them, we do Z tests, we do pixel shading, we write to a framebuffer. There's plenty of room within that pipeline for innovation to last us for many years to come. It's done very nicely for over a quarter of a century, and there's plenty of life in the old thing yet.

There's no doubt Larrabee is going to be the world's most awesome raytracer. It's going to be the world's most awesome chip at a lot of heavy computing tasks - that's the joy of total programmability combined with serious number-crunching power. But that is cool stuff for those that want to play with wacky tech. We're not assuming everybody in the world will do this, we're not forcing anyone to do so, and we certainly can't just do it behind their backs and expect things to work - that would be absurd. Raytracing on Larrabee is a fascinating research project, it's an exciting new way of thinking about rendering scenes, just like splatting or voxels or any number of neat ideas, but it is absolutely not the focus of Larrabee's primary rendering capabilities, and never has been - not even for a moment.
Ehm. Dan zou ik niet naar het plaatje kijken. Zoals er al in vele reacties staan is het plaatje wat hij van rasterizing heeft neergezet gewoon niet relalistisch. Hij zegt hierop te reageren in z'n update, maar doet dat niet. Zegt alleen dat het een veelbelovende techniek is, maar dat ik naar mijn mening geen reden om een scheve vergelijking te maken. Sorry. Moest ik even kwijt ;)
De rasterized prent is inderdaad niet 100% realistisch, maar langs de andere kant heb ik ze de kwaliteit van ray tracing nog niet zien halen.

Trouwens vooral de volgende stukken zijn interessant:
However, Daniel’s Quake IV demonstration required no video card interaction from the GPU, and instead only used the video card to send the image to the monitor. This is because Daniel’s demo system had eight x86 cores, a configuration that is destined to become mainstream in a few years. And, because the ray-tracing algorithm scales so well with CPU cores, it doesn’t need the assistance of the GPU in order to get the same performance.

And, if you refer to the PC Perspective article, you will see that Daniel’s game reached almost 100 frames per second at 1024x1024 resolution. Note that as the resolution increases, the computation will spend more time tracing light rays for those additional pixels, and the frame rate will go down. However, we can extrapolate performance at 1080p High Definition resolution (1920x1080 wide screen) by assuming about twice as many pixels on the screen. With twice as many pixels, the frame rate would be nearly cut in half. Even so, ~50 frames per second is practically considered flawless animation. To think that a PC with 8 cores can run a game like Quake IV without the use of a GPU, at high definition resolution and fluid frame rates, is impressive to say the least.
At this point, some people will wonder, “Can I run it with only 4 cores on my PC?”

Sure, but at half the speed. In other words, you can get the same fluid 50 frames per second at the previous 1024x1024 resolution, but with only 4 cores. In a few year’s time, 4 core systems may be considered a quaint low end alternative.

Either way, you get the idea. Ray-tracing is a workload that gets near perfect scaling the more cores you add. In fact, we have simulated with up to 16 cores, and we’ve already seen more than 15x scaling. With future platforms and additional optimizations, this may scale even better.
Dus zeker interessant in combinatie met deze cpu, en scaled toch iets beter dan bvb van 1 4870 naar 2 4870s te gaan.
Door Dani86, dinsdag 8 juli 2008 20:22
Lol @ Intel.
lol @ Dani86 ;) (sorry)

Ook jij kent de Intel mannetjes... ook jij kent het jingletje van intel... je buurman ook!
Ken jij het jingeltje van AMD of NVidia?? En je buurman?
Wat ik bedoel is: vergis je niet in de kracht die intel heeft bij het pushen van hun producten.

Het is inderdaad zo dat 'de concurrentie' behoorlijk wat langere ervaring heeft met GPU's maar Intel heet echt wel geleerd van hun IGP werk .. Ook hebben zij in (x86) software shaders al eerder geimplementeerd, dus onderschat Intel maar niet.

Bovendien zie je een fundamenteel verschil over het hoofd... ATi en NVidia gebruiken beide de overgebleven/gereserveerde capaciteiten van hun GPU, waar Intel een GPGPU aan de chip toevoegd. Hierdoor voegen zij de mogelijkheid van hardware ondersteunde (dus niet volledig in hardware maar wel door hardware geaccelereerd) shader, T&L, etc toe aan een relatief eenvoudige graphics-core.

Deze implementatie is dus softwarematig welke echter welk op speciale hardware draait.
Je kan het eigenlijk zien als emulatie op een speciale co-processor.

[Reactie gewijzigd door Atmosphere op 8 juli 2008 21:06]

Waarom een pentium architectuur? Ik lees dat alleen een die-shrink en een vergroting van cache worden toegepast, dat betekent dat dezelfde inefficiënte architectuur nog steeds intact blijft. Mij lijkt de Core architectuur veel beter om in een gpgpu te gebruiken, zeker gezien de prestatie per klok die het levert.
Ik denk dat ze eerst simpel willen beginnen. Een te complexe x86 chip zou het programmeren voor de GPU in het begin te lastig maken. Als ze eenmal zijn begonnen met het simpelere werk kan de chip altijd worden uitgebreid en zal het verschil tussen CPU en GPU steeds kleiner worden.
maar waarom dan geen 8086 of de kern die de PC populair heeft gemaakt, de 387? Nog eenvoudiger...

[Reactie gewijzigd door Toontje_78 op 8 juli 2008 20:26]

'n 8biter met 16bit adresseren en 'n FPU. GPU gaan ook naar 64bt precizie.
Als je veel cores wilt mag de core niet te complex en te colosaal worden. Dus 'n lightweight design oppoetsen en oprekken naar 64bit.
De 8086 is 16 bits
nouja, een 386 dan. Waar ik op doel is, waarom dan niet helemaal back to basics. Minimum aan transistoren per x86 instructie, zonder interne parallelisering noch prefetch logica etc. (met mischien een 4k cache oid.)
Ik denk dat de Core architectuur te groot is (teveel transistoren) om te gebruiken, het zou waarschijnlijk enorm aangepast moeten worden om gebruikt te worden voor videokaarten. De Core architectuur is efficienter, maar misschien dat ze de Pentium architectuur beter konden gebruiken als gpu/gpgpu.

Pentium was meer brute kracht en kan daarom misschien algemener worden ingezet dan een Core-based gpu. Core2Duo's en quads hebben ook best veel moeite met het afspelen van HD-Content, misschien is de Pentium hiervoor geschikter te maken.

Ben met je eens dat het idee om een oude structuur te gebruiken wat vreemd is, maar Intel heeft waarschijnlijk de meest geschikte CPU-architectuur gezocht om te gebruiken. Aangezien een compleet nieuwe architectuur waarschijnlijk te duur zou worden, zeker voor een eerste product. Nu kunnen ze relatief goedkoop even kijken of ze een kans maken op de gpu-markt en daarna uitbreiden.
Core heeft bv. meer logic aan branch prediction. Is dit wel zo nodig bij veel parallele berekeningen? En zo zijn er vast meer minder essentiele onderdelen.

De prgorammatuur die je gaat draaien kan best wel invloed uitoefenen hoe efficient branch prediction is (lijkt me). Daar staat tegenover dat de FPU wel fors uit zal gaan vallen, eveneens door te verwachten programmatuur die er op zal draaien.
Zou het ook niet te maken kunnen hebben met de die-size? De pentium cores zijn op 45nm veel kleiner dan de huidige core2's. Als je er dan 16-24 of zelfs 32 cores op wil onderbrengen dan moet je iets om het formaat niet uit de hand te laten lopen.
Realiseer je wel dat de core architectuur ook niets anders is dan een doorontwikkeling van de pentium architectuur.
De architectuur is van Pentium naar Pentium 2 naar Pentium 3 weinig verandert. Bij de Pentium 4 werd gekozen voor een heel andere architectuur. De Core architectuur heeft deze verandering weer teniet gedaan door op basis van de Pentium 3 door te ontwikkelen.
De architectuur is *juist* tussen de Pentium en P2 ingrijpend veranderd :o

De Pentium was Intel's eerste superscalar (meerdere instructies per kloktik) CPU, maar daarnaast was het vrij rechttoe-rechtaan qua ontwerp. De P2 was een doorontwikkeling van de Pentium Pro, een geheel losstaand ontwerp met een core dat meer overeenkomsten vertoonde met een RISC CPU, maar die een ingebakken vertaler had om x86 instructies naar native te vertalen (al dan niet door op te splitsen in meerdere kleinere instructies). Alle latere Intel x86 ontwerpen delen deze opzet.

De verschillen zijn groot genoeg dat het in programmeurs-termen een geheel andere architectuur is. De Pentium is 586, de PPro, P2 en alle erop volgende CPUs (zelfs incl de P4/Netburst gevallen) zijn 686 CPUs.
Netburst was opnieuw ontworpen, werkte anders en programmeerde anders. Die zou ik niet onder de 686 rekenen, of het moet zijn dat hij net als de 686 naar interne instructies vertaald, maar dat is dan de enige gelijkenis.
De reden is heel eenvoudig: Omdat tot 32 kernen op 1 chip moeten, heb je geen ruimte voor de Core-architectuur.

Het snelheidsprobleem wordt aangepakt door een 512-bits SIMD-eenheid.
Ik vermoed dat transistor count de hoofdreden is om een "simpele" architectuur als de oude Pentium te gebruiken: voor dit soort massive parallelle berekeningen helpt een geavanceerde architectuur met out-of-order execution niet zo heel veel.

Out-of-order execution en geavanceerde branch predition kosten relatief veel tranistoren. (Het is waarschijnlijk niet voor niets dat Via pas recent met de Via Nano hun eerste out-of-order cpu hebben geintroduceerd; ik vermoed dat dat zo lang geduurd heeft omdat out-of-order veel transistoren en dus veel vermogen nodig heeft.) De ruimte die je bespaart door een in-order ontwerp te nemen met geen of eenvoudige branch prediction kun je dus beter gebruiken door meer cores op de chip te zetten en daarmee gewoon meer parallelle berekeningen te kunnen doen.

Klein rekensommetje: de P54C heeft 3.1 miljoen transistoren. De core zelf (zonder L1 cache) is ~ 2.3 miljoen. 32 P54C cores geeft dus zo'n 74 miljoen transistoren. L1 cache zal wel opgeschaald worden; een Core 2 Duo heeft 64 KB. Als de Larrabee cores ook 64 KB L1 krijgen, en iedere bit 6 transistoren nodig heeft, dan komt het totaal van cores + L1 caches op zo'n 175 miljoen transitoren.

Op een hedendaagse moderne chip kunnen zo'n 300 miljoen transistoren (eerste generatie Intel Core 2). Aangezien Intel er waarschijnlijk nog een flinke lap L2 cache op wil zetten, en aangenomen dat voor L2 cache 1 transistor per bit nodig is, kan er maximaal nog zo'n 16 MB L2 cache op.

NB: dit is maar een back-of-the-envelope berekening van hoe je zo'n soort chip grofweg in zou kunnen delen. Ik heb geen verdere details over deze chip dan wat in dit nieuwsbericht staat. Daarbij: in mijn berekeningen ben ik uitgegaan van een 65 nm ontwerp, maar de Larrabee wordt 45 nm en dan passen er dus al 2 keer zoveel transistoren op hetzelfde oppervlak.

Edit: verduidelijking

[Reactie gewijzigd door el-Raza op 8 juli 2008 23:55]

Iedereen hier heeft het over een GPU, maar is het niet een CPU met flink wat cores, welke ook ingezet kan worden als GPU?

Dus een CPU met flinke rekenkracht, en makkelijk te programmeren, omdat je gewone x86 talen er op los kan laten.
Dat klopt. Het is het meest logisch de Direct3D-/OpenGL-low-level shaders in hardware te implementeren. Maar omdat talen als GLSL in populariteit winnen wordt het steeds doenlijker om ook naar cpu-code te compileren.
Om eerlijk te zijn vindt ik dit, met name door de mogelijke deelname van Nvidia, heel erg sterk. Als alle 3 de grote fabrikanten een eigen GPGPU op de markt brengen gaat er een hele interessante en prijs drukkende periode aan komen, want:
AMD zal met een Hybrid komen
Intel heeft zijn CPU gebaseerde ontwerp
Nvidia zal waarschijnlijk een GPU gebaseerd ontwerp krijgen
3 verschillende aanpakken om het zelfde te bereiken. Welke t beste gaat zijn zullen we snel genoeg achter komen. Maar op dit gebied heeft AMD waarschijnlijk de meeste know-how in huis omdat ze beide disciplines beheersen.
Intel en Nvidia however hebben de meeste middelen, kan een heel interessant zijn, op langere termijn ook voor de consument.
Het gaat hier dus niet om de oer-Pentium uit 1993, maar om de variant uit 1994 die daar op volgde, met destijds kloksnelheden van 75 tot 120 MHz.

Maar hoe dan ook opmerkelijk dat zo'n verouderd ontwerp alsnog uit de kast wordt getrokken. Misschien kan AMD er een op de K5 gebaseerd product tegenover stellen. ;)
Mooi maar ik denk dat als je een cpu en gpu apart van alkaar laat werken en meer laat samenwerken een snellere oplossing gaat zijn dan beiden geintegreerd.

Nvidia zal zich echt niet laten afschrikken en zal tegen die tijd komen met een gpu waar intel alvast van kan gaan watertanden.

Waarmee ik bedoel te zeggen, we wachten t af en zien t vanzelf. Tis mooi dat dit de ontwikkelingen zijn maar we hebben nog weinig aan speculaties over hoe snel die wel niet zal zijn.

Dat zal nog altijd afgewacht moeten worden.
pentium-m is gebaseerd op de P3 ;)
en die core is weer op de Pentium-m gebaseerd, intel heeft een salvage moeten doen aangezien mensen geen P4's meer gingen kopen en intel met een boel waardeloze chip technologie in hun maag zat.

het ging even aardig slecht met Intel voor de core chipsets.

*edi paar woorden vergeten* en linky
http://en.wikipedia.org/wiki/Intel_P6

[Reactie gewijzigd door stewie op 9 juli 2008 23:16]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True