Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 91 reacties

Chipgigant Intel heeft de introductie van Larrabee uitgesteld. De gpu zou eigenlijk in 2010 op de markt komen, maar Intel gaat Larrabee alleen als software developer kit uitbrengen. Een nieuwe datum voor Larrabee heeft Intel niet gegeven.

Intel was van plan om Larrabee ergens in 2010 te lanceren. Nick Knupffer, woordvoerder bij Intel, zei dat het silicium van Larrabee, en de ontwikkeling van de software, nog niet ver genoeg ontwikkeld zijn. Als gevolg daarvan zal Intels eerste Larrabee-product niet als een alleenstaande videokaart verkocht worden. Nick Knupffer kon verder geen details geven over het uitstel, maar het vermoeden bestaat dat Intel niet de benodigde prestaties heeft kunnen behalen om de concurrentie aan te kunnen met Nvidia en ATI.

Larrabee is al de nodige keren uitgesteld en had in 2008 al het levenslicht moeten zien. Onlangs kwam Larrabee nog positief in het nieuws, toen het in een benchmark 1 teraflops wist te behalen. Desondanks schrapt Intel de eerste iteratie van Larrabee-gpu's voor de consumentenmarkt en wordt er enkel een sdk uitgebracht. De chipgigant heeft geen datum voor de sdk gegeven en ook een datum voor de release van de Larrabee-gpu is onbekend.

Moderatie-faq Wijzig weergave

Reacties (91)

Intel is altijd al zwak geweest in hun driver support en schijnbaar kunnen ze dat nog steeds niet. Als je een GPU fabrikant overneemt en hun personeel ontslaat hoef je denk ik ook weinig te verwachten.

AMD heeft dat veel beter gedaan destijds met ATi en heeft reuze sprongen gemaakt en laat Nvidia ver achter zich, met name qua verkoop.

Maar goed, Intel moet investeren in beter personeel en meer investeren in ontwikkeling maar heeft dat waarschijnlijk niet gedaan vanwege de rechttzaken, aangezien ze niet wisten wat er boven hun hoofd hing en nu nog steeds niet. Als AMD aankomend jaar met betere CPU's komt dan zijn ze voor het eerst een regelrechte concurrent aan het worden onder het grote mainstream publiek en zal Intel aan kunnen kijken tegen slechtere prognose's.

Tijd zal het leren, voor als nog doet AMD/ATi het erg goed op het moment en dat is niet verkeerd voor de markt, omdat de 2 gevestigde orde's Intel/Nvidia het steeds moeilijker krijgen :)
Ati laat Nvidia niet ver achter zich qua verkoop, Nvidia verkoopt nog steeds meer GPU's dan Ati. En Intel heeft al vaker aangegeven een speciaal team te hebben samengesteld voor de ontwikkeling van drivers en software voor Larrabee. Deze ontwikkelaars hebben niet te maken met de mensen die werken aan de drivers voor de IGP's. Volgens mij hadden ze flink wat personeel weggekaapt bij 3Dlabs. Toch niet de minsten volgens mij..

Dat de huidige incarnatie van Larrabee uitgesteld/geannuleerd wordt is niet eens zo'n ramp. Het is een compleet vernieuwend concept en vanwege de volledig vrije programmeerbaarheid van de chip, zal hij ook zeker niet verouderd raken qua featureset. Komt hij in aangepaste vorm over een jaar, of twee jaar op de markt, dan kunnen ze hem middels de drivers geschikt maken voor DirectX 11 of eventueel 12 of weet ik veel wat. Dat is het mooie van deze x86 chip. Intel kan met deze chip nog alle kanten op. Presteert hij niet snel genoeg, dan kunnen ze hem omhoogschalen door meerdere kernen toe te passen. Op dit moment zou hij dan te groot en te duur worden, ook zou hij teveel stroom gaan verbruiken, maar met een toekomstige verkleining van het procedé is dit probleem te verhelpen. Passen ze twee keer zoveel cores toe, zou hij plotseling op op een 2 teraflops komen en met 32 of 22nm volgens mij prima te doen.

Naast dat is er ook sprake van dat de Larrabee toegepast zal worden in de volgende Xbox. Kan best zijn dat zodra de nieuwe Xbox ergens in 2012 op de markt komt, daarmee ook gelijk de (vernieuwde) Larrabee op de markt komt.
Het is een compleet vernieuwend concept en vanwege de volledig vrije programmeerbaarheid van de chip, zal hij ook zeker niet verouderd raken qua featureset.
Dat is dus het probleem he. Intel's marketing geeft mooie praatjes over hoe geweldig vernieuwend LRB wel niet zal zijn, en dus gelooft iedereen het dus. Bullshit.

Ja, Larrabee was radicaal en vernieuwend... als het in 2008 op de markt was gekomen. Als je nu naar de mogelijkheden van Fermi kijkt, die zelfs volgens de vorige planning al meer dan een half jaar voor LRB op de markt zou komen, dan valt dat eigenlijk best wel mee. Ze houden alleen TBDR, x86 compatibiliteit en geen ROP-hardware over als echt unieke punten. Tegen de tijd dat Larrabee nu op de markt komt heeft NVIDIA dat laatste misschien ook al overgenomen, terwijl TBDR sowieso een grote gok is en x86 compatibiliteit steeds minder interessant wordt, zeker als je ziet dat Fermi straks al gewoon C++ kan draaien.
Komt hij in aangepaste vorm over een jaar, of twee jaar op de markt, dan kunnen ze hem middels de drivers geschikt maken voor DirectX 11 of eventueel 12 of weet ik veel wat.
Ik weet niet wat jij denkt dat RV870 en Fermi allemaal aan gespecialiseerde hardware hebben, maar het is niet alsof daar zoveel aan hoeft te veranderen hoor. Daarnaast is het onzin dat omdat LRB x86 is de chip zomaar DX12 kan worden. Er zit nog steeds genoeg fixed-function hardware in om zomaar overstappen naar DX12 onmogelijk te maken.
Passen ze twee keer zoveel cores toe, zou hij plotseling op op een 2 teraflops komen en met 32 of 22nm volgens mij prima te doen.
Fijn, dan hebben ze in 2011/2012 2 TFLOP. En dan? Waar denk je dat NVIDIA en AMD dan zitten? Het is niet alsof zij niet overstappen naar kleinere procedee's ofzo. Zelfs als (met nadruk op als) Intel nu al mee kan komen met de nieuwe NVIDIA en AMD chips (Fermi en RV870/RV970), dan nog zijn ze over twee jaar niet opeens magisch sneller dan wat NVIDIA en AMD dan kunnen brengen.
Overigens is het maar de vraag of stroomverbruik op 32nm genoeg meeschaalt om verdubbeling van cores zomaar mogelijk te maken.
Naast dat is er ook sprake van dat de Larrabee toegepast zal worden in de volgende Xbox.
Roddel en speculatie. Zelfs als MS al het risico wil nemen met Intel in zee te gaan nadat ze zich bij de Xbox 1 daar flink aan hebben gebrand, dan nog is het maar de vraag of ze zomaar een niet-bewezen concept als LRB willen gebruiken. Die geruchten gaan er namelijk wel van uit dat LRB een bewezen succesvol product zou zijn zodat MS zou kunnen zien wat de voordelen zouden zijn. Aangezien LRB nu pas in 2011 op z'n vroegst op de markt is is het maar de vraag of een van de consolemakers dat aandurft. Bovendien lijkt het er niet op dat LRB radicaal sneller of beter is dan nieuwe generaties NVIDIA of AMD chips, dus wat is het grote voordeel voor MS? Ik zie alleen nadelen.
Wacht maar tot het kerst is geweest en dan zien we wel wat ATI heeft goedgemaakt op Nv. Ben echt benieuwd naar deze cijfers. Geen Fermi en enkel oude produkten die middels een rebrand (310?) weer aan de ontwetenden worden gesleten. Op een gegeven moment zijn je credits zelfs bij hun wel verspeeld ;-)
AMD heeft dat veel beter gedaan destijds met ATi en heeft reuze sprongen gemaakt en laat Nvidia ver achter zich, met name qua verkoop.
Financieel is het een groot drama geweest (AMD was een jaar jater minder waard dan wat ze voor ATi betaald hebben en de $5,3 mrd is voor het grootste gedeelte als verlies afgeschreven), maar de kans bestaat nu wel dat AMD met Fusion een duidelijke voorsprong op Intel zal nemen :)
als je nu ziet hoe ATi bijna een monopolie heeft op de (PCI-e) grakas denk ik dat ze toch wel blij zijn met de overname. ATi heeft op alle vlakke betere bang/buck. EN ze hebbe de krachtigste kaart. Er is niemand met een beetje gezond verstand die nog een nvidia koopt op dit moment
Kijk eens in de jaarcijfers van amd, ze maken nauwelijks winst op de "graphics devision". Die bang for buck komt uit hun eigen portemonnee, nvidia had in 2007 bijna 800 miljoen winst... bij amd-ati gaat het per kwartaal om een "paar" miljoen (10-20 etc).
Die bang for buck komt uit hun eigen portemonnee
Ja dus? Wat Niosus zegt is dat er geen reden is om nVidia te kopen. Dat ATI zijn winst opoffert om mij een goedkopere kaart te kunnen leveren lijkt mij niet bepaald een reden om dan maar een duurdere (prijs/kwaliteit gezien) nVidia-kaart te kopen.
ATi heeft op alle vlakke betere bang/buck. EN ze hebbe de krachtigste kaart. Er is niemand met een beetje gezond verstand die nog een nvidia koopt op dit moment.
Dat zal je nog verbazen. In de hoofden van een heleboel mensen is de naam nVidia nog steeds een synoniem voor "cool" en "snel". Ik denk dat als ATi binnenkort 50% marktaandeel heeft in de mainstream graka's (huidige verkopen), ze blij mogen zijn. Want dit is jarenlang veel minder geweest.
Ik heb geen Nvidia meer gehad sinds ze 3dfx om zeep hebben geholpen. :P
Aaah, irrationaliteit.

De waarheid is dat 3dfx zichzelf om zeep heeft geholpen.
monopolie? Welke wereld leef jij? Laatste kwartaal heeft NVIDIA nog steeds veel meer GPU's verkocht dan AMD. Wellicht dat dit in Q4 een beetje zal veranderen door de release van de 5000 serie van AMD, maar zolang die nog steeds yield problemen hebben zal het niet heel hard lopen.
ATi heeft op alle vlakke betere bang/buck. EN ze hebbe de krachtigste kaart. Er is niemand met een beetje gezond verstand die nog een nvidia koopt op dit moment
Maak daar maar van: "Er is niemand met een beetje kennis van zaken die nog een nvidia koopt op dit moment", de overige 95% van de mensheid koopt nog gewoon nVidia-spul hoor. En als we het dan toch over bang/buck en ATI hebben: precies de reden dat mensen nog steeds massaal Intel CPUs kopen in plaats van AMD CPUs.
Er is niemand met een beetje gezond verstand die nog een nvidia koopt op dit moment
Mag ik aannemen dat jij niet naar de analysten conference call van Nvidia geluisterd hebt? Ik wel...

Afgelopen kwartaal waren ze volledig gelimiteerd door productie. Maw: ze konden niet genoeg silicon aanslepen.

Voor dit kwartaal werd hetzelfde scenario voorspeld.

Er zijn genoeg redenen om wel nog Nvidia te kopen, tenzij je enkel het snelste van het snelste wilt.
Het is alleen jammer dat Jan met de pet op naar de computerwinkel gaat en vraagt om een pentium om op te gamen.
Er was 1 grote reden voor mij om nvidia-kaarten te kopen : driver-support voor Linux
Als AMD/ATi daar eens mee opschiet krijgen ze me terug als klant
Intel is ook stiekem bezig met een game.. Voor diegenen die dat nog niet wisten: ja u leest het goed; een echte PC game. Ze ontwikkelen daarbij ook een eigen engine inclusief tools. De projectnaam van de game is "Project Offset", en de engine heet "The Offset Engine".... Nou is dat opzich niet heel schrikbarend, waar het niet dat de engine hele toffe features heeft, EN dat er enkele ontwikkelaars van de Larrabee SDK naar het projectteam van Project Offset zijn verhuisd.

edit: Ze zijn er trouwens niet zelf mee begonnen. Project Offset was eerst een project van een klein 3-mans bedrijf met aan het hoofd Sam McGrath (ex-S2 games medewerker, engine developer van de engine die in Savage is gebruikt.). Dat bedrijfje is verkocht aan Intel en Sam werkt nu als engine dev in het projectteam.

[Reactie gewijzigd door GeertJohan op 5 december 2009 16:23]

In alle reactie zie ik geen enkele opmerking over de afwijkende opzet van Intel's Larrabee. Alle videokaarten tot nu toe zijn goed in polygonen renderen, en alles is gebaseerd op DirectX of OpenGL. Er is geen enkele spel dat ray-tracing gebruikt. Dus je moet de hele software wereld op zijn kop zetten voor je met Larrabee hardware uit de voeten kunt. Een polygonen laag op Larrabee hardware programmeren zal niet optimaal zijn. Je kunt niet winnen door je aan andermans spel aan te passen en polygonen verwerking te ondersteunen. Meer dan middelmatig zal het niet worden. Je zult echt je eigen troef moeten uitspelen om te kunnen schitteren.
Het is niet zo gek dat ze eerst met een SDK (software development kit) de ontwikkelaars willen laten kennismaken met deze nieuwe methode van renderen. Een beetje kip-en-ei probleem. Geen games met ray-tracing. Niemand die die hardware wil kopen. Niemand die games ontwikkelt.
Deze hindernis is echt enorm. En nu het economisch niet goed gaat is er niemand die geld investeert en experimenteert met deze nieuwe technologie.
Iemand moet het toch zeggen dus ik zeg het maar: Vaporware?

Ik denk het zelf overgens niet, er zullen hier al aardig wat miljoenen in gepompt zijn. Ik vermoed eerder dat de performance nogal tegenvalt en dat Intel flink moet gaan sleutelen om het beter van de grond af te krijgen. Maar ja, de concurrenten zitten ook niet stil. Zeker AMD gaat als een speer op de GPU markt, dus tja, kan Intel dat soort geweld wel bijhouden?
Het probleem is dat Intel steeds de nadruk legde dat ze een vergelijkwaardig nVidia/AMD produkt op de markt zouden zetten ten tijden dat Larrabee op de markt zou komen.

Ze hebben net pas de 1TFLOPs doorbroken, terwijl AMD met hun huidige HD5000 serie, die ook daadwerkelijk te koop is, al op 2.4TFLOPs zit. Als Intel dus eind 2010 met een produktie klare Larrabee aankomt van 1TFLOP dan is op dat moment de nVidia G300 ook al een tijdje op de markt (nog een paar maandjes wachten als het goed is) met waarschijnlijk 3TFLOP+ en AMD is dan eventueel ook al klaar met de HD6000 series die op dit moment in ontwikkeling is.

Om een nederlaag te voorkomen voordat je produkt op de markt is, is een uitstel dan veel beter :+

Intel is al druk bezig met PowerVR, dus wie weet waar ze mee bezig zijn. Via MMX/SSE instructies worden er op dit moment al specifieke modules (of microcode) aangesproken die veel beter toegespitst zijn op hun desbetreffende taak. Het oorspronkelijk idee was om met een 32-core Larrabee te starten, dus Intel kan dat ook eventueel verhogen naar 64-core om voor een verdubbeling van de snelheid te zorgen (werkt niet altijd). Bij nVidia en AMD zitten ze op een veel groter aantal als je hun GPU-cores (stream/shaders/etc) direct zou vergelijken met de Larrabee cores.
Performance bepaald mede de prijspunt. Het kosten paatje hoe goed of slecht je een prijzen oorlog aan kan.
Larrabee zou dus een dure te produceren chip worden, die kwa performance met budged tot midrrage concureerd. Dat is geen gezonde concurerende positie. Totdat de driverteam jaar later meeste performance potentie er uit haald. Maar daar heb je tijdens release niks aan.
iNtel heeft geen baad om volume produktie op te zetten voor een big chip die met te lage ASP verkocht wordt en daarbij de kosten amper dekt.

Wel uitbrengen genereerd meer omzet maar ook meer verliezen. Niet uitbrengen beperk je de verliezen. Ze hebben die haalbaarheid bekeken en uitgerekend. Larrabee is nog niet klaar om op commercieel gebied goed te draaien.

De competitie ignoren en er $€ 1000,- ++ prijs tag op kwakken werkt niet.

De markt is prijs performance gevoelig. Innovatie moet zich vooral waarmaken in performance en features die opvallen. Het zelfde anders tot stand laten komen. Is geen goed marketings voor. En als klant heb je daar niks aan. Bang for the buck.
NVIDIA 3 TFLOP HAHAHA ... nee. Fermi heeft een hele boel voordelen op gebied architectuur tov HD5000 ... maar peak FLOPS/mm2 is er niet een van.
Men vergeet wel even dat hardware probleem één is. Dit is juist het probleem waar chipZILLA juist groot in is. Daar zijn AMDTI en nV minder in en afhankelijk van foundries.
Maar de software kant van LRB is een veel grotere probleem.

nV en ATI strijden ook met hun driver afdelingen met elkaar.
Had vroeger 8500DV. 'n 2 of 3de DL driver liep 80 FPS in UT tov 20fps van de CDROM driver. Dus Daar kunnen grote verschillen in zitten. Denk dat beide afdelingen tegenwoordig dichter kwa niveau zitten dan vroeger.

iNtel moet wat nV en ATI in hardware doen in software emuleren en dat in competatieve high performance in de driver implementeren.

Ze komen met iets compleet anders die retail markt in. En daarbij extreem afhankelijk vann een nogal verse retail driver afdeling die nog in ontwikkelings fase zit van hun innovatieve architectuur .

Om dan meteen op hoog niveau drivers op de proppen te komen lijkt mij zeer onwaarschijnlijk.

Dus ze slaan 45nm over en laten de software beter tot rijping komen. Voor een betere competatieve positie te komen met ene goede hardware software combo. En de nextgen 32nm de publiekelijke introductie zijn.

Dit is eigenlijk wel te verwachten.

Dus deze rumors zijn voor mij eigenlijk wel geloofwaardig.

LRB is kwa innoviteit te grootschalig en dat kan juist grote risiko's mee brengen.

Waar nV en AMDTI langzaam naar groeien doet iNtel in eenklap vanuit hun core bussness. Bijna volledige generalpurpouse GPU op basis van x86 Cpu technologie.
Chipzilla komt heus wel met dat ding hoor, maar net als iD software zeggen ze 'it'll be done when it's done'. Ze gaan gewoon door tot het klaar is en aan geld zal er never nooit een gebrek zijn.

Het is een nieuwe tech voor intel dus dat kost tijd om ervaring op te doen.
En al komt hij er. Het i740 verhaal heeft aangetoond dat bakken met geld geen garantie voor succes is. ( http://en.wikipedia.org/wiki/Intel740 )
ik denk dat de chip zowieso wel een succes gaat worden.
echter niet direct in de markt waar intel eigenlijk in wil stappen.

voor dingen zoals rendering met raytracing enzo, is dit ding geweldig.
alleen realtime raytracing laat te lang op zich wachten.

en tot die tijd moet er icm een softwarelaag rasterizing geemuleerd worden...
zolang dat te traag is kan intel het product niet launchen als videokaart.

echter als renderkaart, al is het maar ondersteunend.
of nog veel mooier, als uberquadro, zit hij binnen no time in alle workstations.

ook in servers met veel parallelle taken zou dit een geweldige numbercruncher zijn.
het is alleen jammer dat de chip (nog) niet snel genoeg is om te concurreren met de huidige/toekomstige videokaarten
voor dingen zoals rendering met raytracing enzo, is dit ding geweldig.
Waarom?

Ik hoor heel veel mensen dit roepen, maar ik heb nog steeds nergens bewijs gezien waarom LRB zoveel beter zou zijn in raytracing dan een chip als Fermi. Het is nog steeds gewoon een multi-core SIMD architectuur, dus de chip kampt met dezelfde ray-tracing problemen als de nieuwste NVIDIA en AMD chips. Wat maakt LRB zoveel beter dan?
Precies. Ik geloof ook niet meer zo in Larrabee. De eerste press-release klonk geweldig, maar het laat nu al zo lang op zich wachten dat de CUDA kaarten ook geevolueerd zijn naar een algemene architectuur met cache. Bovendien, tegen de tijd dat Larrabee mainstream is, dan is er ook waarschijnlijk al weer een 2e generatie van Fermi.

De grote ray tracing bottleneck is ray coherency in combinatie met memory cache; als de Fermi cache dit goed opvangt zie ik niet helemaal waarom Larrabee zo veel beter zou zijn. Een x86 instructie set is leuk, maar wat maakt dat uit? Fermi doet ook gewoon alle standaard floating point ops (in double precision) en branching etc. Wat maakt mij het uit wat voor code de compiler uitspuugt? Als het maar snel is. Ook vraag ik me af of de stap terug naar vector processing wel so goed is; GPUs deden dat en zijn daar juist met succes vanaf gestapt. Maar we zullen zien.
Jou maakt de code niks uit, maar voor de programmeur is bijvoorbeeld c++ gesneden koek, maar GPGPU is toch wel wat lastiger, de code is niet zoals ze die al jaar en dag gebruiken voor x86.

Zo zou je op een GPU met x86 veel meer software ontwikkeld worden, omdat er zoveel programeurs zijn die er gelijk mee aan de slag kunnen zonder eerst allerlei trucs te leren om het zelfde op een gpu voor elkaar te krijgen. Zou dus zomaar kunnen zijn dat LB veel populairder word al is die iets trager.

Beter iets trager dan helemaal geen software. ;)

[Reactie gewijzigd door mad_max234 op 5 december 2009 19:49]

@Zoijar...

meer dan 500 miljoen rays per seconde..
that's what ;)

vergeet niet dat larrabee een vector unit heeft van 16 breed.

overgens is fermi zeeeer veelbelovend.
maar in raytracing verslaat hij larrabee niet.
echter larrabee is blijkbaar niet snel genoeg om echt high res full detail realtime te raytracen.

dus dat doet er voor de gewone consument nog niet toe,
maar hij zou zeer waarschijnlijk wel sneller zijn in die taak.

desalniettemin is fermi een heel interessante architectuur waar ik ook erg enthusiast over ben.

ps realtime raytracing bestaat al....
zoek maar eens op arauna realtime raytracing.
aangezien dat al goed draait op een quadcore is larrabee interessant.
en niet andersom.

[Reactie gewijzigd door freaq op 6 december 2009 00:12]

meer dan 500 miljoen rays per seconde..
Hoe kom je bij zo'n nummer? Er is nog niet eens bekend hoeveel cores LRB heeft en wat de clocksnelheid is, dus waar komt die 500 miljoen rays per seconde vandaan?
vergeet niet dat larrabee een vector unit heeft van 16 breed.
Eh... en? Wat denk je dat Fermi heeft? Oh wacht, twee 16-breede vector units per core. Dus wat is je punt precies?
maar in raytracing verslaat hij larrabee niet.
Want?
dus dat doet er voor de gewone consument nog niet toe,
maar hij zou zeer waarschijnlijk wel sneller zijn in die taak.
Misschien is LRB ook wel beter in stofzuigen dan Fermi, maar dat doet er ook weinig toe. LRB zou een GPU chip moeten zijn, dan is het prima als hij ook kan raytracen, maar aangezien niemand dat gebruikt boeit het niet.
en Nvidia heeft dus net C++ ondersteuning toegevoegd/aangekondigd, dat is dus geen pro LB argument meer.
Correctie :)

3DRealms ipv ID
Er zijn er wel meer met die instelling, hoor. ID doet dat inderdaad ook, maar vergeet bijvoorbeeld een Blizzard niet. Die deinzen er ook niet voor terug om projecten die al jaren in ontwikkeling zijn, rigoureus de prullenbak in te keilen als het niet aan hun verwachtingen voldoet, en voor de rest van hun projecten trekken ze ook gewoon alle tijd uit die ze nodig hebben...

Het is uiteraard wel zo dat 3D Realms dit tot een kunstvorm verheven heeft, dat dan weer wel.
Nou de Larabee is inmiddels al zo vaak voorgesteld aan het publiek met de belofte "binnenkort verkrijgbaar", dat het toch wel redelijk op iets begint te lijken is het geen vaporware dan is het wel flopware.

Het lijkt er namelijk op dat de GPU's tegen die tijd exact hetzelfde zullen gaan doen maar dan sneller. Zoals Nvidia's Fermi architectuur.
"Chipzilla komt heus wel met dat ding hoor, maar net als iD software zeggen ze 'it'll be done when it's done'. Ze gaan gewoon door tot het klaar is en aan geld zal er never nooit een gebrek zijn."

Eeh, voor de duidelijkheid, de consumentenversie is dus geschrapt.
zie ook: http://www.semiaccurate.com/2009/12/04/intel-kills-consumer-larrabee-focuses-future-variants/
Goede bron man, Geschreven door iemand die nog meer pro amd/ati is als de aandeelhouders xD
Iemand moet het toch zeggen dus ik zeg het maar: Vaporware?
Je bent niet bepaald de enige die dat zegt hoor. Onder andere iemand die "nogal belangrijk" is bij nVidia roept dat ook. Er zijn trouwens erg creatieve variaties op die term, zelf vond ik vooral "slideware" "slide" als in "PowerPoint slide" leuk gevonden.
Ik denk het zelf overgens niet, er zullen hier al aardig wat miljoenen in gepompt zijn.
Ik heb getallen langs zien komen van (letterlijk) een paar miljard, al is dat natuurlijk niet bepaald officieel en kom nou alsjeblieft niet aan met grappen over de koers van de dollar, ten eerste zijn ze hier al veel langer mee bezig, ten tweede gaat het hier om zoveel nullen dat het toch wel een gigantisch bedrag blijft. Meer leesvoer.

@SG: Heb je het nou over mijn eerste paragraaf of over het gelinkte "leesvoer"?
In het eerste geval, mocht het niet duidelijk zijn, ik had het over de grote baas. Tuurlijk heeft die (minstens) een gekleurde blik, maar het is wel iemand die verstand van zaken heeft. Hetzelfde geldt uiteraard voor Intel techies; ook die hebben verstand van zaken, maar ook die zijn niet bepaald onafhankelijk.
In het tweede geval, de auteur beweert (al is dat natuurlijk niet te verifiëren) dat hij met een aanzienlijk aantal mensen, uit alle kampen (dus inclusief Intel), heeft gesproken voor hij dat artikel schreef. Ik hoop dus dat het redelijk evenwichtig is.

[Reactie gewijzigd door robvanwijk op 7 december 2009 01:02]

Ik zou eerder waarde hechten aan iNtel techie die weet hoe de zaken staan. En zulke geruchten zijn er ook. Ze staan onder grote druk.
Aan personen die er totaal geen banden mee hebben, hecht ik sowieso geen waarde aan.
Maar nog minder aan een aartrivaal van larrabee. en dat is nV. Wat meer modder gooi werk is. En nV en iNtel hebben daarin al wat history op CPU vs GPGPU gebied.
Naar het schijnt is er al 3 miljard in dit project van Intel gegaan, en men denkt dat er nog zo'n 1,5 miljard nodig is om het bestaansrecht te geven. Het lijkt mij dat deze investeringen niet zo maar op zij worden gezet, dus vaporware zal het allerminst zijn.

http://www.brightsideofne...vidia-related-issues.aspx
http://semiaccurate.com/2...-focuses-future-variants/
Ook in Duke Nukem Forever was veel geld geinvesteerd...
Chipzilla komt heus wel met dat ding hoor, maar net als iD software zeggen ze 'it'll be done when it's done'. Ze gaan gewoon door tot het klaar is en aan geld zal er never nooit een gebrek zijn.
Jaaaaa, Intel heeft nog nooit dure projecten stopgezet.

WiMax anyone? Itanium natuurlijk .ADSL (jaja, zelfs daar hebben ze indertijd ook miljarden naar gegooid) ?

(Overigens geloof ik geen moment dat ze $3 miljard besteed hebben.)
Ze gaan dus een SDK uitbrengen zodat er voor een toekomstige Larrabee gpgpu geprogrammeerd kan worden. Op zich geen hele vreemde stap als je de acceptatie kansen van een dergelijk nieuw product wilt vergroten maar dan moeten ze toch echt met een hele harde release date komen wanneer dat ding er WEL is, aangevuld met benchmarks die aan tonen dat het uberhaupt een platform is waarvoor je wilt programmeren.

Op zich erg interessant vanwege de zeer grote hoeveelheid kennis die reeds bij Intel aanwezig is, maar het mist in mijn optiek voorlopig de harde getallen.
Dit is heel normaal in Game dev land. Het kost jaren om games te ontwikkelen. En ook gameengines. Maar ook de hardware.
In dat opzicht had DX ook altijd een Referentie driver waar alles op CPU geëmuleerd wordt. Dit is voor van belang voor first release game die worden naast de hardware ontwikkeld om op de date van de hardware release ook een games te kunnen releasen die gebruik maken van die nieuwe hardware features.

Als je hardware op date x wilt release dan zijn er sample beschikbaar half jaar daarvoor maar de game zijn al 2 tot 4 jaar in ontwikkeling. Zonder dat de hardware beschikbaar is.

Ik vraag me dus af of dit een SDK is voor partners in de gamedev bussness.
Of een publiekelijke SDK. Of beide.

wij gamers krijgen vaak deze interne weetjes van hardware dependencies in game produktie te horen. Maar dat is dus normaal.

In dit geval van LRB, die is innoverend maar bied ook de mogelijkheid op een veel andere aanpak van de render pipeline. Voxel raytrace. Maar om de Dev markt deze innovatie te pushen moet je al snel deze sterke punt van larrabee juist pushen. Door voor HArdware release de SDK beschikbaar te stellen.

Dit bevorderd de migratie naar excotische render methoden. Dan dat dat opgang komt pas na LRB release.
gaat dit nu weer een tweede netburst verhaal worden voor Intel waarmee ze de plank volledig misslaan.
NVIDIA heeft het ook niet makkelijk.
Denk dat AMD er in jaren niet meer zo gunstig voor heeft gestaan
Denk dat AMD er in jaren niet meer zo gunstig voor heeft gestaan
Enorme schuldenlast, geen concurerend x86 product en gerommel in het management. Noem het maar gunstig. Intel betreed een nieuwe markt, dat gaat niet erg snel maar ach wat geeft het, het is een nieuwe markt bepaald geen core busines.
schuldenlast gaat AMD verminderen met een pot geld die ze van Intel krijgen.
x86 producten lopen inderdaad achter, alhoewel het de laatste tijd al weer wat beter gaat.
Maar in een wereld waar GPU versnelling steeds belangrijker wordt zullen geintegreerde chips zoals AMD's Fusion zeer aantrekkelijk worden.
En het gerommel in het management zijn hopelijk problemen van het verleden nu.

Dus in dat opzicht kun je zeggen dat het vooruitzicht voor AMD best gunstig is...
Enorme schuldenlast, geen concurerend x86 product en gerommel in het management. Noem het maar gunstig. Intel betreed een nieuwe markt, dat gaat niet erg snel maar ach wat geeft het, het is een nieuwe markt bepaald geen core busines.
Op het moment dat AMD eindelijk winstgevend wordt (naar verwachting dit kwartaal) is de schildenlast geen issue meer (in combinatie met een aflossing van 0,5 - 1 mrd a.g.v. Intel).

Phenom/Athlon II kan in het middensegment prima tegen Intel op en wordt "in de markt" gezien als een degelijk en concurrerend aanbod t.o.v. Intel. En de roadmap ziet er goed uit (niet enorm veel plannen maar in 2011 heeft AMD naar verwachting chips die in alle segmenten met Intel mee kunnen).

Het management doet het de laatste tijd juise goed vind ik. Alleen Hector Ruiz is op dit moment in opspraak, maar die zit al een tijdje niet meer bij AMD.

Conclusie (mijn mening i.i.g.): gegeven dat de "crisis" overwaait zien de komende jaren er voor AMD zonnig uit.

[Reactie gewijzigd door grizzlybeer op 5 december 2009 19:28]

NVIDIA heeft het ook niet makkelijk.
Denk dat AMD er in jaren niet meer zo gunstig voor heeft gestaan
Grote fabrikanten zoals Dell en Apple lijken te zijn overgestapt naar ATI/AMD, vroeger gebruikten ze nVidia grafische chips, maar de nieuwere Dell computers en Apple iMacs hebben allemaal ATI kaarten. Het zal onder andere wel te maken hebben met het fiasco van de nVidia 8600 kaarten waar een productiefout in zat.
Ik ben het met je eens, en hoewel ze nog een beetje achterlopen op CPU gebied ziet ook de CPU roadmap er hgoed uit. Bulldozer (etc.) is gewoon een goed verhaal, met name dat er ook goed gefocussed wordt op ultra low power.

Wellicht wat aandelen kopen dan? AMD is maar 5% waard t.o.v. Intel en maar 70% t.o.v. nVidia.
Denk dat AMD er in jaren niet meer zo gunstig voor heeft gestaan
Vergeet niet dat ze een tijdje terug als eerste een 64 bit processor hadden. Behalve goede PR heeft ze dat ook de constructie met cross-licenses opgeleverd, waardoor Intel nooit meer AMD's x86-licentie in kan trekken.
offtopic:
Die cross-licenses zijn voor Intel en AMD wat de kernwapens voor de VS en de USSR waren tijdens de Koude Oorlog: je kunt de andere partij moeiteloos finaal kapot maken, maar dan wordt je zelf ook opgeblazen
.
Dat "positief in het nieuws" was voor mij al teken dat het erg slecht ging met de Larrabee, SGEMM is nog zo ver verwijderd van GPU-taken dat het tonen ervan een zwaktebod was.
Dus met GPGPU zijn ze aardig op weg. Maar ze komen van kern van GP toepassing CPU. Dus dat is meer hun ding.
Competatiev zijn tegen zware chip die op hardware acceleratien stoelen. dmv OpenGL en DirectX emulatie. Dat is een veel grotere software enginering taak.

Ze zouden LRB al tegen Tesla in kunnen zetten.
Of men met GPGPU aardig op weg is, is moeilijk te zeggen. BLAS is zo met een Fortran-compiler te compileren, met wat handmatige assemblertuning van enkele kritieke routines als SGEMM/DGEMM kan je zo hele nette prestaties neerzetten en wetenschappelijke applicaties zo accelereren door hun BLAS-berekeningen op de GPU uit te voeren.

Waarschijnlijk zal een programmeur die Fortran-compiler ook wel kunnen gebruiken en zo zijn code op de Larrabee kunnen laten draaien. Maar gaat het dan om GPU? Het klinkt wel erg als een CPU-aanpak. Maar hier valt over te discusseren, de grenzen tussen CPU en GPU vervagen.

Feit is echter dat de GPGPU-aanpak ook door Intel ondersteund zal moeten worden en wie weet ook voor de Larrabee wel eens essentieel kan zijn om de chip effectief te kunnen gebruiken (een compiler gebruikt niet uit zichzelf opeens 32 kernen in parallel). Dat betekent OpenCL, Cg, GLSL e.d. ondersteunen. Hoe ver is men daarmee?

[Reactie gewijzigd door dmantione op 6 december 2009 00:01]

Dense matrix vermenigvuldigung liep al op een TFLOP op een 4890 ... dus ik weet niet of je dat echt goed op weg kan noemen.
Heel erg jammer, een extra concurrent voor de gpu Markt was welkom geweest. En daar komt uiteraard bij dat er nogal wat verwacht word van Larrabee als je de mensen erachter mag geloven.
Maar het probleem is, is dat het geen concurrentie wordt als het niet in de buurt komt qua prestaties van nVidia en ATi.
Het kan wel concurrentie worden als de prestaties niet zo goed zijn als die van de concurrenten, als dat maar terug te zien is aan de prijs ;).
Daarvoor heeft Intel al de budget onboard kaartjes, waar intel nog heer en meester is.
Die Intel GMA'tjes? Stellen niet bijster veel voor. Als er iemand heer en meester is op dit moment wat betreft onboard video in het budgetsegment dan is het AMD wel (785G chipset bijv.).
Die Intel GMA'tjes? Stellen niet bijster veel voor
Prestaties zijn niet relevant, verkoopcijfers wel, en daar blinken de Intel GMA's in uit.
Ja omdat je zo'n GMA bij 2 kauwgomballen gratis mag meenemen. :P
Die Intel GMA'tjes zijn prima voor alledaags gebruik en wat lichte game-actie.
Tegenwoordig meer dan zat kracht om 1080P video vlotjes af te spelen en als je echt wil gamen (nieuwste games, hoge fps) dan zal ontkom je niet aan een normale videokaart.
De AMD en NVidia IGP's scoren toch al makkelijk dubbel zo veel FPS bij games bijvoorbeeld, dus de IGP-ervaring van intel gaat weinig helpen nu ze keiharde perfomance neer moeten zetten. Dat is iets totaal anders dan wat ze gewend zijn (alleen beeld, en als je echt een top-of-the-line intel IGP hebt 1080p kunnen afspelen).
Die iNtel GMA zijn waarschijnlijk meer performant dan ze nu zijn en eigenlijk wel competatief in de markt te zetten. Maar zonder fatsoenlijke driver support die van alle technologien onboard gebruikmaken. Wordt er amper wat uitgehaald. Dat is jammer.
Die Intel GMA'tjes komen zelfs voor af en toe een simpel spelletje zwaar tekort.

Ik vind het nog een wonder dat de nieuwe serie een HD film kan afspelen.

En dan heb ik het niet eens over de driver support die zwaar tekort komt.
Ik bedoel heer en meester qua grootte in die markt. Nie qua performance :)
Mwah, daarbij moet wel opgemerkt worden dat de Linux/BSD ondersteuning van die 780G/785G bordjes erg brak is. Een jaar na de introductie van deze chipsets zijn er nog steeds geen drivers voor hardware decoding van MPEG4 en VC1. Voor mij voorlopig geen AMD video chip meer. Ik moet eerst zien dat er drivers zijn en niet slechts een belofte die nooit ingelost wordt.
Was het niet zo, dat Larrabee een gigantische chip zou zijn? Wat de kosten per die niet echt zou kunnen tippen aan bijv. ATi? Meen ergens in Q2 2009 te lezen dat op 45nm het een die-size had van 700mm2. Het zou dan niet gunstig zijn om het nog lager te prijzen dan ATi/nVidia.
Intel is altijd duur geweest dus dit gaat waarschijnlijk niet op. :)
Waarschijnlijk heeft intel hetzelfde probleem als nvidia: de klap van rekenkracht/dx11/eyefinity is waarschijnlijk bij beide nooit zo hoog ingeschat en moeten nu beide de plannen bijstellen.

Nvidia heeft tenminste nog physx waarop ze kunnen terugvallen voor prestatiewinst of als feature tegenover eyefinity... intel moet het puur hebben van de rekenkracht en prestaties om mensen over te gaan halen.
iNtel kan op Havok terrugvallen. Die dan alleen LRB als GPGPU duld.
Dat kan AMD ook, die werken samen wat betreft Havok. Havok is onafhankelijk van Intel.
Als het inderdaad niet veel verder dan een een gtx285 komt, hoop ik dat het een leuk budget kaartje wordt. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True