gpgpu natuurlijk bedoelt mr gadget.
voor je spelletjes kun je beter een nvidia of AMD/ati kopen.
van je zakgeld ga je dat niet betalen zo'n 700mm^2 cpu @ 10k euro per stuk en 350 watt, zo gok ik, daarbij een geluid makend gelijk aan die van de A380,
Met luchtkoeling gaat dat lastig worden.
Lijkt me extreem lastig te programmeren voor gpgpu, want fetches (scatter etc) zijn extreem prijzig. Dus dat wordt enorm puzzelwerk om daar snel rekenwerk aan de praat te krijgen.
Vraag is wat voor toekomst zo'n larrabee cpu heeft. Lijkt me meer een poging van intel om iets in die markt te positioneren wat itanium moet gaan vervangen cq aanvullen.
Om maar een voorbeeld te geven:
Het is niet zo lastig natuurlijk om een HPC mainboardje te maken met 1 itanium cpu erop en een bende larrabees en dan claimen dat 'itanium' nog niet zo diep als de titanic gezonken is, maar nog "alive and kicking butt" is.
De larrabee is dan de zogenaamde floating point co-processor van het geheel.
Dit ofschoon ik me meen te herinneren dat de eerste itanium2's toen ze op 361 mm^2 uitkwamen gezien werden als enorm grote cpu's, kostprijs per duizend was 7500 dollar per stuk @ 1.5Ghz.
Als larrabee nu 700MM^2 is, dan moet dat voor geheel werkende larrabees toch megalomaan duur worden. Dat gaan ze niet onder de 500 dollar per cpu produceren kunnen.
Dat is extreem prijzig. Zeg maar factor 10 erbij per cpu voor verkoopprijs.
Dat gaat nooit meer goedkomen met larrabee.
Het lijkt me gewoon een poging van intel. Als het enorm aanslaat kunnen ze later alsnog overwegen om aan de cpu's in nieuwere process technologies het SSE2-SSE4.1 gedeelte te vervangen door 512 bits vectors van larrabee. Dan zijn ze daarmee ineens een klap sneller dan de concurrentie (AMD dus) voor SIMD.
Maar dat gaat nog heel wat jaren kosten. Lijkt me toch dat 512 bits vectors een groot risico met zich meebrengt. Wie wil er nu massasoftware bakken voor cpu's die enorm prijzig zijn?
kleine cores van nvidia en ati/amd die 128 bits zijn, schaalt dat niet net zo goed? Wat is het voordeel van 512 bits vectors t.o.v. 128 bits, als je aantal cores toch gewoon goed doorschaalt, zoals we duidelijk zien bij AMD/ATI en Nvidia?
Wat we wel weten is dat amd/nvidia totaal knullig zijn bij de ondersteuning van softwareontwikkelaars. Ik kan daar echt vreselijk schrijnende voorbeelden van geven.
richting Nvidia: "ja we willen proberen een prototype aanvraag te doen teneinde simulatie software te porten naar gpgpu, daar dit 32 bits datatypes zijn ideaal voor gpgpu zo lijkt me; edoch kunnen we ondersteuning krijgen dwz met name informatie t.a.v. dingen als instructie latencies, welke instructies er nu op de hardware zitten etc".
vraag: "wat voor soort simulatie software"
antwoord: "ja generiek, vanalles, van echte straaljagersimulators tot huisje boompje beestje, dus geen gering aantal gaat het om indien prototype succes is, edoch overheden willen garanties voor de komende zoveel jaar van support, dus goede medewerking van nvidia is noodzakelijk".
Nog een paar e-mails heen en weer. Zelfs de telefoonoppakken was niet nodig, want het antwoord van NOTA BENE de marketing manager Tesla (en die zit dus in USA) was: "we verlenen dat soort support niet".
Dus het had niet eens zin om verder te praten over het ontwikkelen van dat soort software op nvidia hardware.
AMD is stuk beter daar dan nvidia, maar ja die hebben geen speciale tesla kaarten, alleen generieke videokaartjes. Intel historisch steengoed.
Dat is altijd de onzekerheid van de markt.
Echter, we zien ook dat itanium aanvankelijk zo'n enorme support had, want iedereen denkt: "goh groot bedrijf, dus grote support en grote verkoop" en uiteindelijk was het een grote druiper die ook nog eens veel geld gekost heeft en schandalig underperformed t.o.v. simpele x86 cpu's. Dan hebben we 't nog niet over power6 en blue gene en de roadrunners gebaseerd op cell2.
Kortom, alles is nog zeer onzeker. Wat wel duidelijk lijkt, is dat voor de floating point race, dus manycores het enorm goed doen, kijk naar nvidia en amd/ati.
De x86's leggen het enorm af daartegen. Dus investeren in die technologie lijkt me an sich geen slecht plan van intel.
De historie is echter wel in hun nadeel, zeer weinig producten anders dan hun x86 cpu's zijn een groots succes geworden. Itanium ligt nog vers in het geheugen.
de x86 cpu's krijgen gewoon voorrang als het gaat om nieuwere productiemethodieken en betere engineers.