Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties

De eerste samples van de Larrabee-processors moeten eind dit jaar gereed zijn, aldus Intel-topman Paul Otellini. Hij verwacht dat de eerste producten eind 2009 of begin 2010 beschikbaar zullen zijn.

Larrabee vormt een combinatie van een gpu en een x86-cpu en de bedoeling is dat het platform over 16 tot 24 cores gaat beschikken die ieder voorzien zijn van 4MB tot 6MB geheugen. Toen Intel vorig jaar zomer details over de videochip vrijgaf, werd de verwachting uitgesproken dat deze begin 2009 zou verschijnen. Nvidia en AMD hoeven zich voorlopig echter nog geen zorgen te maken, want tijdens een conference call over de kwartaalcijfers zei Intel-ceo Otellini: "De eerste samples van Larrabee zouden eind dit jaar gereed moeten zijn. Daarna gaan we ermee spelen en leveren we ze aan ontwikkelaars. Ik denk dat we op schema zitten om eind 2009, begin 2010 een product gereed te hebben."

Uit de woorden valt op te maken dat fabrikanten heel wat tijd krijgen om de chip te leren kennen, wat logisch is aangezien ze met een compleet nieuwe architectuur te maken krijgen. De vraag is echter of Intel vasthoudt aan het 45nm-productieproces, want chipbakker Tsmc, die voor zowel Nvidia als AMD produceert, zou tegen die tijd al op een kleiner procedé overgeschakeld zijn, beweert Beyond3d.

Larrabee architectuur
Moderatie-faq Wijzig weergave

Reacties (40)

Ben het niet helemaal met de zin eens 'wat logisch is aangezien ze met een compleet nieuwe architectuur te maken krijgen' . De architectuur is immers niet veranderd: dezelfde instructies kunnen nog worden uitgevoerd, ofwel hetzelfde gaat erin en hetzelfde komt eruit vergeleken met (nog steeds) de eerste x86 CPU.
Het is echter wel zo dat er nu ook video bij zit, alleen dit zit niet zozeer in de CPU, maar in dezelfde chip. Lijkt me wel een hele mooie ontwikkeling, alleen is er 1 ding wat mij zorgen baat: het geheugen.
Processoren worden gelimiteerd door hun geheugen. Videokaarten veel minder, omdat de banen minder lang zijn en er dus minder vertraging is, wat weer kan leiden tot hogere clocksnelheden. Alleen zodra ze dit allemaal op dezelfde chip willen zetten, houd je nog steeds het probleem van het geheugen. Ben erg benieuwd hoe dit concreet vorm gaat krijgen.
En natuurlijk de prijs van de beestjes. Zoveel kracht op 1 chip, zal betekenen dat er gigantisch veel transistoren gebruikt worden. Ben benieuwd wat voor yields ze zullen gaan halen, want dat is wat IMO de prijs bepaalt.
Je vergeet dat videokaarten ook ontzettend door hun geheugen beperkt worden. Een gemiddelde huidige videokaart heeft GDDR3 op ergens rond de twee gigahertz lopen, zo niet DDR4 waar zo af en toe eens mee gespeeld wordt. Dit geheugen is overigens niet gelijk aan gewoon spul, er kan tegelijkertijd gelezen en geschreven worden, wat dit goedje ook zo duur maakt. (prijs van een videokaart wordt voor een best aardig deel bepaald door het geheugen)
Videokaarten drijven gewoon op bandbreedte, omdat die 512MB van een beetje kaart toch binnen de seconde gebruikt wordt, zo niet sneller. Een 8800GT verbruikt 57.6 GB/s, daar kan je gewone RAM ( a 6.4GB/s theoretisch) nooit van leven tegenop.

Ergo : Intel heeft een gigantische bus georganiseerd, waardoor ze de benodigde hoeveelheid data kunnen verhuizen, of ze hebben dit ding gemaakt voor ray-tracen, getalsmatige grappen (wiskundige berekeningen), en distributed computing. Een fatsoenlijk potje Crysis kun je met dit ding wel vergeten.

Het idee van meerdere cores klinkt daarnaast handig, maar alsnog vermoed ik dat dit een duur en speciaal chipje gaat worden, omdat er maar weinig software is die met meer dan 2 cores overweg kan op moment. Software ontwikkelen voor dit soort nieuwe dingen kost jaren, dus als ze nu beginnen, zijn ze ergens rond 2012 een heel eind. Idee is mooi, de uitvoering wachten we af, Intel kennende gaat er nog wel het een en ander gebeuren, en is dit niet het eindontwerp ;)
Maar dat zeg ik toch ook, van het geheugen? ;) Ik denk eigenlijk dat dit hele idee een flop wordt, nu ik er al iets meer over gelezen heb:
De processor bestaat uit verschillende 'trage' processortjes die allemaal mindere prestaties geven dan wat we nu uit chips weten te persen, omdat het anders te veel zou verstoken en de warmte niet weg kon (om maar een paar punten te noemen).
De tijd om zo'n ding te ontwikkelen is gigantisch door zijn complexiteit. OK, het schaalt in principe erg eenvoudig, doordat je gewoon cores er bij kunt plaatsen (theoretisch), maar hierdoor stijgt je latency en komen er nog veel meer nadelen om de hoek kijken. Er zal gewoon een evenwichtspunt komen waarbij het aantal cores niet meer kan toenemen om de prestaties te laten verbeteren.
Bovendien is de processor voor dagelijks gebruik eigenlijk ' supertraag' . De taken die wij uitvoeren, zijn niet/nauwelijks geparallelliseerd. Hierdoor moet 1 trage processor al het werk verrichten, wat de boel alleen maar ophoudt.
Het klinkt echt super deze chip, als ze alles goed voor elkaar krijgen en er is software dat het gebruikt, dan zal er een nieuw tijdperk aanbreken. Maar ik blijf toch nog even huiverig, want er zijn veel hindernissen te nemen.
Ik vond in het vorige nieuwsbericht nog een mooie quote, wil je nou veel trage dingen of weinig snelle dingen?
"If you were plowing a field, which would you rather use? Two strong oxen or 1024 chickens?"
Als je eens nagaat hoeveel bandbreedte ze nodig hebben en hoeveel lanes er gelegd moeten worden, dan gaat dit chipje de eerste paar jaar niet onder de 10.000 euro zitten! Helemaal niet als je kijkt hoelang er aan gewerkt wordt. Hij is stiekem al meer dan een jaar vertraagd, want vorige berichtgevingen spraken nog van 2008/begin 2009 en nu is dat toch al (minstens) een jaar meer!
over je stelling me je os en kippen:
als ik 1024 kleine akkertjes heb laat ik daar liever per akker 1 kip met een wat kleinere ploeg op rondrennen.

feit blijft:
type-A doet 10 seconden over een berekening
type-B doet 100 seconden over een berekening
Laat jij liever 2000 van die berekeningen uitvoeren door 2 keer een type-A, wat omgerekend 2000/2 = 1000 * 10 = 10000 seconden op zou leveren OF
Laat jij liever 2000 van die berekeningen uitvoeren door 32 keer een type-B, wat omgerekend 2000 / 32 = 60-70 * 100 = 6000-7000 seconden op zou leveren?

BIjvoorbeeld bij ray tracing is het verschil tussen single-core, dual-core of octo-core verschrikkelijk groot. Daarbij kun je zelf beter 8 tragere cores nemen dan 2 snellere cores en dan nog is het verschil gygantisch. Dat is het principe wat ze hier hanteren: vele handen maken licht werk ondanks dat dat vele minder begaafde handen zijn.

En ja, dat is inderdaad een bitch om te programmeren ;)
De processor bestaat uit verschillende 'trage' processortjes die allemaal mindere prestaties geven dan wat we nu uit chips weten te persen, omdat het anders te veel zou verstoken en de warmte niet weg kon (om maar een paar punten te noemen).
Whoa, laat dat nou juist niet het geval zijn. Dit zijn allemaal in-order SIMD processoren die per cycle een operatie kunnen uitvoeren op een vector van 16 floats (512bit)!
Stel dat die cores nu elk op 2GHz gaan draaien, dan heb je het al snel over 512GFLOPS.
Als dat gecombineerd kan worden met goede communicatie en synchronisatiemogelijkheden tussen de verschillende cores (dit is waar NVIDIA en ATI's kaarten problemen krijgen) en je kan ook nog eens makkelijk lezen en schrijven naar het geheugen, dan heb je hier een monster van een GPGPU-processor te pakken.
Je vergeet dat videokaarten ook ontzettend door hun geheugen beperkt worden. Een gemiddelde huidige videokaart heeft GDDR3 op ergens rond de twee gigahertz lopen, zo niet DDR4 waar zo af en toe eens mee gespeeld wordt.
Ja en nee... je moet niet vergeten dat een GPU een gebalanceerd systeem is. In een ideale situatie zal elk onderdeel zo ontworpen worden dat het (in normale situaties) niet de bottleneck zal zijn. Het budget (chipgrootte, stroomverbruik, hitte en totale kosten) bepaalt vervolgens hoe de chip er uit gaat zien. Bij high-end GPU's is geheugen vaak niet de bottleneck, maar zit die in de hoeveelheid rekenkracht.
Desalniettemin heb je wel gelijk dat geheugen wel snel een bottleneck is bij GPUs, zeker bij mid-range en budget modellen, waar op de busbreedte wordt gekort. En daarnaast is het uiteraard ook zo dat programmeurs bij het schrijven van een game rekening houden met de bottlenecks van GPUs.
Ergo : Intel heeft een gigantische bus georganiseerd, waardoor ze de benodigde hoeveelheid data kunnen verhuizen, of ze hebben dit ding gemaakt voor ray-tracen, getalsmatige grappen (wiskundige berekeningen), en distributed computing. Een fatsoenlijk potje Crysis kun je met dit ding wel vergeten.
Dat ligt er aan of dit een GPU wordt, in dat geval zal er vast een flinke bus met GDDRX geheugen aan gehangen worden. Als dit een coprocessor wordt heb je inderdaad gelijk wat betreft de wiskundige, distributed en high performance computing.
Ik ben het alleen niet eens met ray-tracing, want dat betekent ook een enorme aanslag op je geheugen.
Software ontwikkelen voor dit soort nieuwe dingen kost jaren, dus als ze nu beginnen, zijn ze ergens rond 2012 een heel eind.
Dat is nu juist het mooie van Larrabee, het is gewoon een flinke collectie x86 chips. Het is waarschijnlijk makkelijker om hiervoor code te schrijven dan om fatsoenlijke code te schrijven voor NVIDIA's CUDA, laat staan ATI's CTM.
Uiteraard kost het even tijd, maar als je hier een paar slimme programmeurs op zet kun je met een half jaartje al heel wat leuke resultaten krijgen hoor, daar ben ik van overtuigd.

[Reactie gewijzigd door Snoitkever op 16 januari 2008 20:46]

Dit geheugen is overigens niet gelijk aan gewoon spul, er kan tegelijkertijd gelezen en geschreven worden,
Bron? Dit heb ik nog nooit gehoord en het klinkt ook niet heel logisch.
Sorry, was even in de war met Dual-ported , wat volgens mij aardig omschrijft wat ik bedoel. GDDR4 is helaas niet helemaal video-RAM, dus wat dat betreft heb je gelijk ;)
Volgens mij is dit bericht een beetje raar geschreven. Ik heb me er dan wel niet helemaal in verdiept, maar volgens mij gaat het niet om een standaard x86 cpu, met daarbij een geintegreerde GPU. Het gaat hier om een GPU, op basis van de x86 instructieset. Deze GPU wordt dus opgebouwd uit 16 tot 24 relatief eenvoudige x86 cores. x86 cores met minder functionaliteit, dan de gewone x86 processor. Deze chip zal de hoofdprocessor dus ook niet gaan vervangen. Omdat de GPU met de bekende en zeer flexibele x68 instructieset werkt, is de GPU ook veel breder inzetbaar. Maar het is niet de bekende CPU + GPU combo. En omdat het uitgeklede x86 cores zijn, is de kaart simpelweg ook niet te gebruiken als normale x86 cpu, hij mist immers de benodigde functionaliteit. Maar nogmaals, ik weet het fijne er niet van, maar dit staat me iig nog bij van vorige nieuwsberichten omtrent deze chip.
GDDR4 is helaas niet helemaal video-RAM,
Bron? ;)
Dual ported ken ik inderdaad wel en vroeger was dat erg handig. Maar volgens mij is het tegenwoordig niet meer nodig omdat videogeheugen tig keer zoveel bandbreedte heeft gekregen terwijl de framebuffers niet echt veel groter zijn geworden.
Stunt schijnt dus nog steeds te kunnen, maar of het gebruikt wordt weet ik niet, vraag nVidia eens ;)
Bron? Bron : "In Samsung's GDDR4 SDRAM datasheet, it was referred as 'GDDR4 SGRAM', or 'Graphics Double Data Rate version 4 Synchronous Graphics RAM'. However, the essential block write feature is not available, so it is not classified as SGRAM.", vers van wikipedia
Veel meer kan ik er ook niet van vinden... Wellicht een leuk artikeltje voor t.net?

Als je overigens een oude 8800GTX (86GB/s) tegen een nieuwe GT (57GB/s) zet, zie je dat die extra bandbreedte pas bij echt hoge resoluties mee gaat spelen, maar dan ook best op kan lopen (20% in Quake Wars). Waarom het her en der meer scheelt, en of dat niet ook aan extra geheugen en ROPs kan liggen weet ik niet... Tijd voor onderzoek!
Is dit die chip die er voor gaat zorgen dat de eerste real-time ray-traced games op de markt kunnen verschijnen zonder de CPU erg te belasten?

http://core.tweakers.net/...rrabee-processor-gpu.html

[Reactie gewijzigd door joepHDW op 16 januari 2008 16:48]

Raytracing is een extreem parallelliseerbaar proces, en kan gewoon 100% CPU power van heel veel cores trekken. 2x zoveel cores? 2x meer rays (en dus betere kwaliteit).
Voordeel van raytracing boven rasterizen (wat een hedendaagse GPU doet) is dat het in staat is veel realistischere beelden te genereren (qua belichting, reflectie, refractie) zonder "extra" moeite.
Tevens is raytracing beter schaalbaar: een raytracer zal met 2x zoveel triangles niet 2x zo langzaam worden, een rasterizer wel (space partitioning vs alle triangles afgaan)

De Larrabee is hiervoor extreem geschikt, een raytracer zal gewoon de volle 16x2=32 GHz kunnen benutten van dit systeem.

Raytracers staan op het moment nog behoorlijk in de kinderschoenen, pas recentelijk zijn processors krachtig genoeg om leuke kwaliteit beelden (scenes van ~100k triangles) op "interactieve" framerate's te draaien (bovengenoemde scene haalt (afhankelijk van wat in beeld is) 6 tot 16 FPS op mijn 2x2GHz systeem, op de Larrabee hierboven genoemd gaat die dus (2x16)/(2x2)*6 = 48 FPS minimaal halen).

De toekomst zou best wel eens leuke dingen kunnen brengen op dit gebied!
Ter info:
http://en.wikipedia.org/wiki/Ray_tracing

Zou een mogelijkheid zijn.

Het zo realistich maken van beelden word al steeds beter met deze technieken kan het best zo zijn dat over enkele jaren CGI real-time gerenderd kan worden.
ALs dat een CPU + GPU is, dan vind ik het nog wel meevallen. Bedenk wel dat je dan in theorie geen videokaart nodig hebt.

Als je kijkt naar de huidige C2D's die een TDP hebben van 65W, en een GPU als de 8800GT heeft een TDP rond de 110W.

De Larrabee heeft minimaal een dozijn cores meer, en verbruikt ongeveer evenveel.
uhmm 8800gt heeft ~128 cores, dat zegt weer dat cores en hz niet te vergelijken zijn...
Dis is een insteekkaart als ik het zo zie? Discrete suggereert dit.

Handig voor supercomputerbouwers. Ik was toch even verward met de geintegreerde GPU die er ook aan zou moeten komen.

[Reactie gewijzigd door Toontje_78 op 16 januari 2008 16:45]

Volgens mij is het compleet andersom. Larabee is een CPU die 'toevallig' ook uitermate geschikt is als GPU.
Dat is de vraag nog even, volgens mij is dit nog niet helemaal duidelijk. Ik denk niet dat het geschikt is als standaard CPU, maar met een dual-socket systeem met een QPI verbinding tussen CPU en Larrabee heb je natuurlijk wel een groot voordeel ten opzichte van PCI-E verbindingen met een externe kaart.
Wat is een QPI verbinding en wat is het voordeel?
Videogeheugen heeft veel meer bandbreedte dan standaardgeheugen, dus deze chip kan nooit concurreren met een videokaart als je hem in een standaard socket prikt.
QPI is wat eerder bekend stond als CSI, het is Intel's vervanging voor de FSB. Denk aan AMD's HyperTransport, maar dan mogelijk zelfs sneller.
Het voordeel is dat de communicatie tussen de CPU en Larrabee over QPI een stuk sneller is dan als het eerst over PCI-E verbindingen moet. :)

Hoe snel het geheugen zal zijn en welke controllers uberhaupt gebruikt gaan worden staat volgens mij nog niet vast, dus misschien is het ook wel gewoon GDDR5 of 6?
Het voordeel is dat de communicatie tussen de CPU en Larrabee over QPI een stuk sneller is dan als het eerst over PCI-E verbindingen moet. :)
PCI-E heeft voldoende bandbreedte hoor (8 gbyte/s full-duplex). Dus dat is voor een videokaart niet zo'n voordeel. Latency maakt volgens mij ook niet zoveel uit.
Hoe snel het geheugen zal zijn en welke controllers uberhaupt gebruikt gaan worden staat volgens mij nog niet vast, dus misschien is het ook wel gewoon GDDR5 of 6?
Als het in een standaard socket komt zal het toch ook standaard geheugen gebruiken en niet GDDR?

[Reactie gewijzigd door Olaf van der Spek op 16 januari 2008 17:49]

als videokaart niet, maar die latency maakt wel uit bij dual sockets, als ze snel iets uit het geheugen van de larabee moeten halen dan moet dat eerst via pci-e wat veel latency veroorzaakt (QPI is toch HTT wat elke cpu eigen geheugen geeft?)
PCI-E heeft voldoende bandbreedte hoor (8 gbyte/s full-duplex). Dus dat is voor een videokaart niet zo'n voordeel. Latency maakt volgens mij ook niet zoveel uit.
Dat ligt er aan wat je met de chip wil gaan doen. Bij huidige GPGPU oplossingen is juist bandbreedte en het gebrek aan directe communicatiemogelijkheden tussen CPU en GPU vaak een probleem. Als je dat soort werk wil gaan doen kan een extra socket en een snelle QPI link er tussen wel heel aantrekkelijk zijn.
EDIT: Daar komt ook bij wat SirKay al zegt, namelijk dat Larrabee mogelijk toegang moet hebben tot het systeemgeheugen, en PCI-E is daar echt niet geschikt voor.

Voor gamers zal het inderdaad maar weinig schelen, althans niet voor de manier waarop GPU's nu werken, dus daar heb je helemaal gelijk in.
Als het in een standaard socket komt zal het toch ook standaard geheugen gebruiken en niet GDDR?
Dat hoeft niet per se. Zo zullen de nieuwe Intel Nehalem chips een eigen link hebben naar het geheugen, in plaats van via de northbridge en externe geheugencontroller te werken. In dat geval kun je best een link tussen de Larrabee socket en GDDRX geheugen leggen :)

[Reactie gewijzigd door Snoitkever op 16 januari 2008 20:28]

Ik zat te denken aan iets als blade servers. Of als mainframe voor rekenwerk, of voor fors wat virtualiseren. Dan gebruik je ook geen videogeheugen maar gewoon systeemgeheugen.

[Reactie gewijzigd door Toontje_78 op 16 januari 2008 17:17]

nu nog hybrid SLI met nvidia via dit maken _/-\o_
En wat zou het voordeel zijn? Daarbij, Intel en NVIDIA zijn aartsvijanden als het op GPUs aankomt...
De vraag is echter of Intel vasthoudt aan het 45nm-productieproces, want chipbakker Tsmc, die voor zowel Nvidia als AMD produceert, zou tegen die tijd al op een kleiner procedé overgeschakeld zijn, beweert Beyond3d.
Ik zie AMD en Nvidia niet zo snel op 32nm over gaan. AMD/Nvidia nu nog 65nm. Eind 2008/begin 2009 misschien 45nm en dan in 2010 32nm? Denk het niet?
AMD/Nvidia nu nog 65nm.
AMD zit al op 55nm en NVIDIA zou daar mogelijk nog voor deze zomer naar over kunnen gaan.
Eind 2008/begin 2009 misschien 45nm en dan in 2010 32nm?
Over het algemeen loopt Intel rond een half jaar voor op andere partijen, dus dat betekent dat TSMC en UMC binnenkort toch al wel een begin zullen maken met 45nm chip productie. De vraag is dan hoe snel NVIDIA en AMD/ATI daar gebruik van gaan maken, maar ik zou toch echt wel voor het eind van dit jaar 45nm chips verwachten.
In dat geval hebben ze nog meer dan een jaar, misschien wel anderhalf, om over te stappen naar 32nm, wat toch echt wel moet lukken.
Bedenk daarbij ook dat Intel in de tweede helft van 2009 al op 32nm zal zitten (aangenomen dat hun tick-tock schema geen problemen ondervindt). Dat maakt 32nm GPU's toch wel aannemelijk.
AMD zit al op 55nm en NVIDIA zou daar mogelijk nog voor deze zomer naar over kunnen gaan.
AMD zit op 65nm. ATi chips worden nu gemaakt op 55nm, maar die worden bij TSMC geproduceert en niet door AMD zelf.
Dat klopt, maar ik bedoelde dan ook inderdaad de ATI chips, niet de AMD CPUs zelf :)
processortje, 16 tot 24 cores. Cpu inc. gpu. Dat is eigenlijk in verhouding best zuinig.

Als je voor een normale processor 65 watt rekent, en een viodekaart 120 watt. Kom je ongeveer +- de 200watt.
Dit is geen vervanging voor je gewone CPU. Deze chip wordt of een consumenten-GPU, of een gespecialiseerde processor voor bedrijven (zoals Cell of Power6), of beide.
Power 6 is toch een 'gewone' CPU?
Op zich wel, maar duidelijk gericht op de high performance computing markt, met klanten in de financiele en wetenschappelijke wereld. Dit zou ook een goede markt voor Larrabee kunnen zijn, omdat het de rekenkracht van GPU combineert met de programmeerbaarheid van de CPU.
Of Larrabee ook geschikt gaat worden als GPU gaat denk ik afhangen van de opzet van DirectX11. Als daar voor meer GPGPU achtige features gekozen wordt zal Larrabee waarschijnlijk een goede kans maken als GPU, maar als het blijft bij de huidige GPU werking (veel paralleliteit, geen synchronisatie tussen cores) zullen AMD en NVIDIA waarschijnlijk veel snellere producten op de markt hebben, en Intel kan het GPU verhaal dan wel vergeten.
4-6 MB geheugen per core... waar gaan ze dat laten? :? als dat evenveel ruimte inneemt als L2 nu doet bij bijvoorbeeld een penryn (ook bij 45 nm en dat is dan ook nog eens 'maar' 3 MB per core), dan zal zo'n 16-24 core chip echt kolossaal worden _/-\o_
Misschien prikken we het geheugen dan wel rechtstreeks op de CPU! Dat zou wel verbetering zijn van de huidige technologie, omdat je dan veel kortere banen kunt realiseren. Alleen tja de grootte wordt dan echt enorm en als alles warm wordt, kan het geheugen waarschijnlijk ook niet daar blijven.
Ben benieuwd hoe ze moederborden voor zo'n grote chip kunnen maken, straks is de chip groter dan het bord :P.
Ik vond Polaris toch wat interessanter klinken. 80 cores? sign me up!
Wanneer komt AMD Fusion eigenlijk? En, Intel heeft natuurlijk zijn eigen graphics, AMD heeft zijn eigen (Ati) graphics, hoe zal NVIDIA dit oplossen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True