Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 99 reacties

Intels discrete videokaart, genaamd Larrabee, zal begin 2010 in massaproductie gaan. De gpu zal een aantal verschillende versies krijgen, met een oplopend aantal kernen. De api zou ook aan het eind van het jaar klaar moeten zijn.

Erg veel is er nog niet bekend over Intels Larrabee-videokaart, waarmee het bedrijf een gooi gaat doen naar een aandeel in het high-end videokaartsegment. Intel brengt al wel geïntegreerde gpu's uit, maar Larrabee moet de strijd aan gaan met de snelste videokaarten van ATI en Nvidia. In een gesprek met Wall Street-analisten zei Paul Ottelini, algemeen directeur bij Intel, te verwachten dat Larrabee in het begin van het jaar 2010 op grote schaal op de markt gebracht zal worden.

Verder geeft Ottelini aan dat de wafers die onlangs getoond werden de high-end Larrabee-chips bevatten en aangezien die gpu's over meerdere cores beschikken, is de die-size navenant fors uitgevallen. De chips op de wafer zouden volgens sommige berekeningen ongeveer 700 vierkante millimeter meten en, mits de chips op 45nm geproduceerd worden, uit meer dan anderhalf miljard transistors bestaan. Ottelini gaf aan dat er ook andere versies van Larrabee zullen verschijnen, met een kleiner aantal cores. Het chipontwerp zou op dit moment gedebugged worden en zou aan het eind van 2009 klaar moeten zijn voor productie. De software waarmee de videokaarten aangestuurd kunnen worden zou ook aan het einde van het jaar klaar moeten zijn.

Gelsinger met Larrabee-wafer
Moderatie-faq Wijzig weergave

Reacties (99)

700mm is groot maar het is niet zeker of het gaat om een 65nm procede gemaakte wafer of een 45nm procede. Daarnaast zou ik niet vreemd opkijken dat de uiteindelijke Larrabee op 32nm gemaakt gaat worden.

Het is dus allemaal gis werk nog net als het feit hoe hard hij zal gaan lopen en hoe snel het is. 1 Ding is zeker Intel komt eraan en dit zal zeker een opstap zijn richting de videochip voor de PS4 van Sony en dan als dat zou lukken zou het iets heel moois worden vooral voor pc gamers aangezien porten naar de PC zo veel makkelijker kan worden gemaakt aangezien ATI en Nvidia nu compleet verschillened architecturen gebruiken voor de rendering in consoles.

Daarnaast was hihi haha dit en dat bij de SSD markt toen Intel kwam en nu zou iedereen er wel 1 willen hebben.
De grote kracht van Larrabee zal toch zijn dat er zoveel coders vlotjes met de x86 code overweg kunnen. Ik verwacht echt veel applicaties die van de zuivere rekenkracht van de Larrabee zullen gebruik maken.

Wat de 3D-prestaties betreft, ik ben altijd een grote voorstander geweest van "generalistische" hardware die op verschillende vlakken kan ingezet worden, dus "massaal veel x86-kernen in een chip en laat maar 3D berekenen" ligt me wel qua gevoel.
Zal dit echt een concurrent kunnen worden van NVidia en ATI? Denk dat ze daar niet genoeg videokaart ervaring voor hebben of trek ik nu aan het verkeerde touwtje?
Many companies have produced GPUs under a number of brand names. In 2008, Intel, NVIDIA and AMD/ATI were the market share leaders, with 49.4%, 27.8% and 20.6% market share respectively. However, those numbers include Intel's very low-cost, less powerful integrated graphics solutions as GPUs. Discounting those numbers, NVIDIA and AMD control nearly 100% of the market. VIA Technologies/S3 Graphics and Matrox also produce GPUs.
Bron: http://en.wikipedia.org/wiki/Graphics_processing_unit

Dus ja: Intel heeft wel een hoop ervaring in het maken van geÔntegreerde videokaarten. Echter is hun kennis op vlak van high end kaarten een pak minder. Ze hebben wel weer een hoop ervaring met het produceren van chips, en afgaande op de grootte van deze chips (700mm≤) kunnen ze deze zeer goed gebruiken!
Door hun 45nm proces kunnen ze in ieder geval ook een pak meer transistors op een chip proppen (1,4 miljard voor Nvidia, 1 miljard voor AMD/ATI, en nu 1,5-1,7 miljard voor Intel).
Het lijkt me dus zeker een concurrent te zijn, maar of ze met interessantere modellen komen dan Nvidia of AMD/ATI zal nog van de prijs afhangen.
in 2009 komen zowel ATI als Nvidia nog met 40nm chips. dus met 'maar' 45nm een jaar later zit intel op een achterstand op dat gebied. en 32nm in 2010 komt er ook nog aan voor in ieder geval ATI via global foundries die in al in q4 09 wil starten met 32nm productie)

nu is het process van intel wel anders, en is de kans aardig groot dat ze er hogere clocksnelheden mee kunnen halen als ati of nvidia met hun bulk processen.

[Reactie gewijzigd door Countess op 19 april 2009 15:38]

ik zie dat toch anders
intel's laatste chipset, de X4500HD is qua performance natuurlijk niet te vergelijken met een GTX295, maar support DX10 en SM4.0
de chip is aanzienlijk sneller dan de X3100 (z'n voorganger) en dan ook vrij goed bruikbaar voor de meeste mensen
hij is was te vergelijken met een GF6600GT of GF7600GS

als je daarbij neemt dat intel zeker genoeg kennis heeft over geheugencontrollers, dan durf ik gerust stellen dat intel zeker een goed product kan neerzetten voor de high end markt, volgens mij was dit gewoon een bewuste keuze in verband met hun monopoliepositie
toen AMD Ati kocht heeft, was de ruimte aanwezig om ook op de high end markt van de GPU's te komen, wat ze dan ook nu aan het voorbereiden zijn
het is des te interessanter dat ze een radicaal andere invalshoek kiezen aangezien Ati en nVidia duidelijk aantonen dat er met het traditionele gedoe niet veel winst meer is te boeken
Een 6600 GT of 7600 GS, ondertussen zitten ze al 3-4 series verder...
Begrijp me niet verkeert, petje af voor Intel want ze krijgen het toch maar geÔntegreerd in een moederbord, maar toch denk ik niet dat ze daar veel ervaring mee opgedaan hebben. Losse kaarten zijn van een totaal ander kaliber en opbouw.
Hoe dan ook twijfel ik er niet aan dat Intel een goed product op de markt gaat brengen, maar dit komt gewoon niet helemaal voort uit zijn geÔntegreerde videokaarten.
Deze kaart/chip is dan ook totaal anders van kaliber en opbouw. Getuige het aantal transistors en de compleet afwijkende (x86) architectuur. Dat het niet voortborduurt op de geintegreerde chips van Intel is duidelijk, dus daar putten ze geen ervaring uit, maar waar Intel wel ervaring mee heft is x86. Ze hebben het zelfs uitgevonden meer dan 30 jaar geleden. Dat wil zeggen, ervaring genoeg dus. Ze doen en maken waar ze goed in zijn en passen dat nu in aangepaste vorm toe in het GPU marktsegment.
Intel heeft best veel kennis in huis voor graphics. maar hun IGP's zijn eerlijk gezegt nog altijd waardeloos in vergelijking igp's van concurrenten. Ze zouden gerust een snellere IGP kunnen maken zoals nu x4500HD al een redelijke vooruit gang is maar de markt waar ze zich op richten heeft in hun ogen geen of nauwlijks 3d graphics nodig. Wat dat bretreft vindt ik de Igp's van Nvidia en AMD veruit superieur aan die van intel. Met deze Igps kun je teminste een spelletje spelen. Met intels IGP's kun je nog niet eens 2d counterstrike spelen zonder dat de pc bijna vast loopt dat is mijn ervaring ermee in iedergeval. Maar zonder twijfel zal Larabee een zeer goed bijzondere gpu worden een waar spellen op gespeeld kunnen worden :9
Intel heeft in het verleden al losse kaarten gemaakt,is al wel effe geleden. Maar denk wel dat ze hier nog genoeg know how voor in huis hebben.
ze zijn daar niet voor niks mee gestopt. voornamelijk omdat het een vrij grote mislukking was voor ze.
Ik neem aan dat hier de i740 bedoeld werd, waar intel niet helemaal mee gestopt is. De huidige GMA is gebaseerd op de i740. Intel is echter gestopt met de losse i740 kaart omdat ze op die markt concurrentie hadden van 3dfx/nvidia/ati/matrox/s3 en ze meer heil zagen in de IGP markt, en die keuze heeft ze zeker geen windeieren gelegd.
Als ze qua performance niet compleet afgeslacht waren ging de verkoop heus wel door hoor. :)
Afgeslacht is erg overdreven. De i740 presteerde niet onaardig, maar had ťťn beperking, het gebrek aan local texturing. Andere GPU's konden door lokaal geheugen op de kaart snel toegang krijgen tot het geheugen, maar omdat intel voor shared memory koos bleven de prestaties met grotere textures achter. Ze hadden dit relatief eenvoudig op kunnen lossen, maar kozen er voor bij het ontwerp te blijven en het aan te passen voor onboard gebruik, en daar is de huidige GMA uit gekomen.
Intel wel Intel kan er wel zo veel geld in pompen dat dat verschil nihiel is.
Echter is de prijs die het sucses gaat bepalen.
Intel bedient ongeveer 50% van de GPU markt.
ja omdat ze vast op moederborden zitten.
Dit is wel andere koek voor ze als ze net zo prijs instelling nemen als bij
CPU's gaat dat geld en snel door heen of ze moeten high-end hebben zoals
ze met de i7 hebben.
pluimpje bedoelt niet de GPUs in de chipsets, maar losse high end gaming kaarten.
Wat mij betreft is het allemaal positief nieuws, is enkel maar meer concurrentie op de markt, was Nvidia niet van plan half jaartje terug om ook CPU's te gaan maken?
Prijzen van top modellen mogen gerust eens onder de 200 § openen bij introductie.

En als ze nog eens ooit zo ver geraken dat kaarten van Nvidia/ATI/Intel kunnen samenwerken net zoals CF en SLI!
In theorie zouden NVIDIA en ATI kaarten samen kunnen werken met de Lucid Hydra chip. Het probleem is alleen dat Windows het niet toelaat om een ATI en NVIDIA driver tegelijk te gebruiken.
Is er al verder iets bekend over die chip?
Dit kan heel intressant zijn, en zo moeilijk moet het niet zijn denk ik om die drivers tegelijk onder windows te gooien. Desnoods maakt MS een patch hiervoor.
Er zou een Intel moederbord komen met deze chip, maar er is nog (steeds) geen datum bekend: nieuws: 'Opvolger X58-moederbord maakt combineren videokaarten flexibeler'

Ik herinnerde me trouwens net dat Intel samenwerkte met Lucid om de schaling van Larrabee te verbeteren, en dat is ze aardig gelukt: http://en.wikipedia.org/wiki/File:Slide_scaling.jpg
Het is niet zo simpel om zomaar een patch te schrijven denk ik omdat je maar 1 driver KAN gebruiken om het beeld te renderen tenzij ze een systeem bedenken dat 1 GPU bepaalde objecten rendert en de hoofd GPU dit merged met het plaatje wat hij gerendert heeft, wel ergens iets van gezien maar kan het niet meer vinden :)
Uhmm dat ga je nooit krijgen. Net als dat je nooit een Ferrari voor 40.000 euro gaat krijgen.

Top is top en daar mag best 500 euro voor betaald worden. De RV770 heeft ver voor gezorgd dat wij nu een GTX260 voor 210 euro kunnen kopen. Anders had die kaart nog steeds 300+ gekocht. Het zelfde geld voor de GTX280 die dan nog 400-450 had gekost ipv 330 nu.

Dus die prijs verandering is al gaande door de nieuwe stratagie van AMD.

[Reactie gewijzigd door Astennu op 19 april 2009 16:00]

Het mooie van Larrabee is dat ze scalable is, dus in feite geeft 2 x Larrabee 2 x zo veel performance. Daarnaast ben ik benieuwd naar de ray trace mogelijkheden, toy story graphics werd al in het verleden beloofd, maar denk dat Larrabee er als eerste er echt een gooi naar gaat doen. Word nog wel wat die Larrabee, mark my words!
dat 2x = 2x geld alleen als de bandbreedte het toe laat zonder te hoeven inboeten in latentie, daarbij komt ook gelijk 2 keer zo veel verbruik. en 2 larrebee kaarten zullen waarschijnlijk veel van de zelfde problemen hebben als 2 kaarten van ATI of Nvidia (ook in theorie 2 keer zo snel maar in de practijk zeker niet altijd om verschillende redenen).

en zowel ATI als Nvidia hebben al real time ray tracking laten zien op de huidige hardware, dus de volgende generaties die tegen die tijd uit zijn moet dat zeker ook kunnen.

als larrebee its gaat worden komt dat omdat intel de klocksnelheid hoog genoeg krijgt om de kunnen concurreren op kosten gebied met de voor graphics veel efficiŽntere architecturen van ATI en Nvidia
Larrebee's x86 kost heel veel extra transistors die ATI en Nvidia niet kwijt zijn. meer kloksnelheid is het enige wat dat kan compenseren.

ik heb dus nog wel wat vraagtekens bij Larrebee als serieuze concurrent van ATI of Nividia.

als massive parallel processor geef ik larrebee veel meer kansen,
maar het zal liggen aan de hoe populair openCL gaat worden en later misschien het GPGPU gedeelte van dx11.
als het populair word dan zou de x86 van Larrebee niet meer zo veel uit maken en weinig voordelen meer beiden (je moet toch de software opnieuw ontwikkelen om gebruik te maken van larrebee dus waarom niet gelijk openCL zodat het ook werkt op welke andere massive parallelism hardware dan ook
als openCL iets word dan zal larrebee hier zeker nog wel zijn plek kunnen vinden maar zeker niet de alleenheerser.
Dat latency probleem zou nog eens verholpen kunnen worden door een QuickPath Interconnect tussen de fysieke Larrabee processors.
We hebben het wel over Intel, die nu sowieso al bezig is met PCI Express controllers op de CPU. Daar kunnen ze evt. nog een additionele sideport-achtige techniek in implementeren.
Altijd goed voor de concurrentie een 3e videokaart maker erbij (Die echt in de top zou kunnen zitten).
Als het echt wat wordt in het high end segment dan ben ik zeker benieuwd naar de prijzen!

[Reactie gewijzigd door pluimpje2 op 19 april 2009 14:58]

Door de nieuwe architectuur zal hij wel moeilijker te programmeren zijn..Developers zullen specificieke code moeten schrijven om larrabee een voordeel te geven tov AMD/Nvidea..
Dus of het een succes wordt hangt erg af van de druk die Intel uitoefent op de developers..
ehh? Directx blijft directx (opengl blijft opengl), end-devolopers --dus gamedev's ed-- zullen geen andere architectuur hoeven te leren.

Of bedoel je misschien GPGPU? Ook daar zijn standaarden voor zoals OpenCL.

oftewel de architectuur wordt weggeabstraheerd.
gpgpu natuurlijk bedoelt mr gadget.

voor je spelletjes kun je beter een nvidia of AMD/ati kopen.
van je zakgeld ga je dat niet betalen zo'n 700mm^2 cpu @ 10k euro per stuk en 350 watt, zo gok ik, daarbij een geluid makend gelijk aan die van de A380,

Met luchtkoeling gaat dat lastig worden.

Lijkt me extreem lastig te programmeren voor gpgpu, want fetches (scatter etc) zijn extreem prijzig. Dus dat wordt enorm puzzelwerk om daar snel rekenwerk aan de praat te krijgen.

Vraag is wat voor toekomst zo'n larrabee cpu heeft. Lijkt me meer een poging van intel om iets in die markt te positioneren wat itanium moet gaan vervangen cq aanvullen.

Om maar een voorbeeld te geven:

Het is niet zo lastig natuurlijk om een HPC mainboardje te maken met 1 itanium cpu erop en een bende larrabees en dan claimen dat 'itanium' nog niet zo diep als de titanic gezonken is, maar nog "alive and kicking butt" is.

De larrabee is dan de zogenaamde floating point co-processor van het geheel.

Dit ofschoon ik me meen te herinneren dat de eerste itanium2's toen ze op 361 mm^2 uitkwamen gezien werden als enorm grote cpu's, kostprijs per duizend was 7500 dollar per stuk @ 1.5Ghz.

Als larrabee nu 700MM^2 is, dan moet dat voor geheel werkende larrabees toch megalomaan duur worden. Dat gaan ze niet onder de 500 dollar per cpu produceren kunnen.

Dat is extreem prijzig. Zeg maar factor 10 erbij per cpu voor verkoopprijs.

Dat gaat nooit meer goedkomen met larrabee.

Het lijkt me gewoon een poging van intel. Als het enorm aanslaat kunnen ze later alsnog overwegen om aan de cpu's in nieuwere process technologies het SSE2-SSE4.1 gedeelte te vervangen door 512 bits vectors van larrabee. Dan zijn ze daarmee ineens een klap sneller dan de concurrentie (AMD dus) voor SIMD.

Maar dat gaat nog heel wat jaren kosten. Lijkt me toch dat 512 bits vectors een groot risico met zich meebrengt. Wie wil er nu massasoftware bakken voor cpu's die enorm prijzig zijn?

kleine cores van nvidia en ati/amd die 128 bits zijn, schaalt dat niet net zo goed? Wat is het voordeel van 512 bits vectors t.o.v. 128 bits, als je aantal cores toch gewoon goed doorschaalt, zoals we duidelijk zien bij AMD/ATI en Nvidia?

Wat we wel weten is dat amd/nvidia totaal knullig zijn bij de ondersteuning van softwareontwikkelaars. Ik kan daar echt vreselijk schrijnende voorbeelden van geven.

richting Nvidia: "ja we willen proberen een prototype aanvraag te doen teneinde simulatie software te porten naar gpgpu, daar dit 32 bits datatypes zijn ideaal voor gpgpu zo lijkt me; edoch kunnen we ondersteuning krijgen dwz met name informatie t.a.v. dingen als instructie latencies, welke instructies er nu op de hardware zitten etc".

vraag: "wat voor soort simulatie software"

antwoord: "ja generiek, vanalles, van echte straaljagersimulators tot huisje boompje beestje, dus geen gering aantal gaat het om indien prototype succes is, edoch overheden willen garanties voor de komende zoveel jaar van support, dus goede medewerking van nvidia is noodzakelijk".

Nog een paar e-mails heen en weer. Zelfs de telefoonoppakken was niet nodig, want het antwoord van NOTA BENE de marketing manager Tesla (en die zit dus in USA) was: "we verlenen dat soort support niet".

Dus het had niet eens zin om verder te praten over het ontwikkelen van dat soort software op nvidia hardware.

AMD is stuk beter daar dan nvidia, maar ja die hebben geen speciale tesla kaarten, alleen generieke videokaartjes. Intel historisch steengoed.

Dat is altijd de onzekerheid van de markt.

Echter, we zien ook dat itanium aanvankelijk zo'n enorme support had, want iedereen denkt: "goh groot bedrijf, dus grote support en grote verkoop" en uiteindelijk was het een grote druiper die ook nog eens veel geld gekost heeft en schandalig underperformed t.o.v. simpele x86 cpu's. Dan hebben we 't nog niet over power6 en blue gene en de roadrunners gebaseerd op cell2.

Kortom, alles is nog zeer onzeker. Wat wel duidelijk lijkt, is dat voor de floating point race, dus manycores het enorm goed doen, kijk naar nvidia en amd/ati.

De x86's leggen het enorm af daartegen. Dus investeren in die technologie lijkt me an sich geen slecht plan van intel.

De historie is echter wel in hun nadeel, zeer weinig producten anders dan hun x86 cpu's zijn een groots succes geworden. Itanium ligt nog vers in het geheugen.

de x86 cpu's krijgen gewoon voorrang als het gaat om nieuwere productiemethodieken en betere engineers.
uhu, en als de geruchten over nVidia waar zijn en zij een x86 chip uitbrengen zitten we met drie CPU-bakkers (tenminste 3 die x86-chips maken :p)

laat de strijd maar losbarsten ^^
nu ja,

intel noodgedwongen bezig met vector processing op een manycore,
nvidia noodgedwongen bezig met x86.

AMD nam natuurlijk ATI over, dus ik kan me voorstellen dat intel zenuwachtig werd.

Een cpu met geintegreerde GPU is natuurlijk de nekslag voor intel's dominantie.

Echt simpel uitrekenen is het niet, maar als het in productieprijs 2.50 dollar scheelt voor een mainboard om geen GPU meer te moeten integreren, dan is dat ongeveer 10 euro goedkoper mainboard in de winkel voor jou en mij.

Dan is verder er een theoretisch voordeel dat je rekenkracht die in de cpu zit, ook kunt aanwenden voor andere zaken.

Verder is het zo dat bij de DDR3 ram al 64 bytes per keer afhalen (double channel dus 128 bytes en bij i7 dus 192 bytes) op de memory controller (niet te verwarren met de cpu cacheline lengte van 64 bytes), dus dat komt al akelig dichtbij de 256 bytes cacheline lengtes waar nvidia/ati mee werken op de gpu's.

In het kort zijn er dus weinig redenen voor een aparte gpu in het gemiddelde 'multimedia' systeem nu richting de RAM al die logica van de cpu's al vergelijkbaar is met die van GPU's.

Om dan beter te schalen zullen de cpu's dus gebruik moeten maken van de manycore techniek die GPU's nu gebruiken.

Zo lijkt het althans in theorie. Dus logischerwijze dat intel in die richting investeert.

Dit alles moet je niet verwarren met larrabee. Dat is een HPC processor.
Als videokaart waardeloos.

Je kunt geen goedkope videokaartjes voor maar een paar honderd euro verkopen zonder ook de lowend te bedienen.

Nvidia zit dus met een soortgelijk, doch nog groter probleem, dan intel met het vooruitzicht dat de lowend voor hen dreigt weg te vallen.

Een beetje rommelen met drivers en superkleine design teams is 1 ding.

Dat opschalen naar x86 en dan ineens overal support op moeten geven is iets heel anders.

Aandelen nvidia nu kopen lijkt dus enorm riskant. Het is mogelijk dat nvidia straks simpelweg wegvalt. Alleen leven van HPC systemen lijkt namelijk alleen IBM te kunnen.

Enorme kaalslag in de HPC is er gaande.

Om Linus te quoten: "de kleine x86 processortjes hebben gewonnen"

Zo klein zijn die overigens ook niet meer met 300mm^2 gemiddeld nu. Beckton zou 700mm^2 moeten zijn (de Xeon MP).

Als ik nu hier een grootte van 700mm^2 hoor voor larrabee, dan is het frappant dat beckton en larrabee even groot zijn.
Je vergeet VIA die ook X86 cpu's maakt.
Of hebben ze nog licentie ruzie met Intel ?
maar welke laptop/desktop maker gebruike er nu VIA chips?

In dat geval moet je ook matrox videokaarten meerekenen, en zijn de GPU-bakkers nu ook met vier.
en s3? of is die er niet meer :?
Is van VIA tegenwoordig ;)
De VIA C7 is een heel aardig alternatief voor de Intel Atom en ook redelijk veel gebruikt nog.
Samsung, to name one, in de NC20. HP gebruikt ze in netbooks en thin clients, MSI en Gigabyte hebben systemen.

Ze zijn er absoluut :)
nVidia maakt al x86 CPUs voor embedded toepassingen (net als ZF Micro, D&MP Electronics & RDC Semiconducter trouwens).
Als we het dan toch over chipsets hebben... De i740 was alleen compatible met een Intel CPU chipset, gaan ze diezelfde truuk nu weer uitvoeren ?
awel ik ben heel benieuwd naar de prestaties ervan. Maar heb ook een beetje schrik. Als deze zo goed gaan presteren,dan zit de kans er in dat intel Nvidia en ATI/AMD op lange termijn uit de markt drukt. Ze hebben immers meer geld als de 2 andere samen. Wat in hun voordeel speeld.
Concurrentie is alleen maar goed hierdoor worden de GPU's waarschijnlijk alleen maar sneller, en de prijzen lager. Denk je ook niet?
Op het moment dat de concurrentie zo hard wordt dat er (teveel) partijen uitvallen wordt er niemand beter van. Hierdoor kan juist een monopolie ontstaan. Gezonde concurrentie is een evenwicht tussen verschillende factoren. Zodra een groot bedrijf met veel middelen (door activiteiten in andere markten) mee gaat doen moet je oppassen. Dit bedrijf kan geld investeren dat het op een andere markt verdient, terwijl de concurrentie het moet doen met wat er verdiend wordt op een markt waar de prijzen ernstig onder druk staan.

Stel bedrijf A en B zijn actief op een markt en met het geld dat ze verdienen met hun product ontwikkelen ze het product door. Door concurrentie kan bedrijf A niet veel meer voor het product vragen, want dan stapt de klant over op bedrijf B. Als bedrijf B niet met een nieuw (sneller, zuiniger => kort: verbetererd) product komt, heeft bedrijf A weer een voordeel.

Nu komt er een bedrijf C, dat ergens anders veel geld verdient, dat gaat concurreren met bedrijf A en B. Ze hebben genoeg geld om te investeren in een concurrerend product en dit product hoeft niet gelijk geld op te leveren. Als ze het hard spelen verkopen bedrijf A en B minder producten, waardoor er minder geld verdiend wordt voor investeringen. Als bedrijf C dit lang genoeg vol houdt neemt hun marktaandeel toe, terwijl A en B minder middelen hebben voor vooruitgang.

Kort gezegt is concurrentie niet per definitie goed. Het zorgt er wel voor dat partijen scherp blijven, maar investeringen moeten zich wel terug verdienen.
Maar als je kijkt naar de huidige crisis zal intel echt niet te scherpe prijzen vragen, anders krijgen ze zelf nog een surseance aanvraag aan hun broek. Alle computer bedrijven staan onder druk, dus ze zullen wel moeten concurreren maar ze zullen het waarschijnlijk wel op save spelen.
Intel heeft genoeg reserves om de crisis te overleven hoor, plenty. Zelfs al gooien ze hun highste high-end kaart voor 50 dollar op de markt.
Sneller betekend meer research kosten.
Lagere prijzen betekend kleinere winstmarges en minder winst.
Misschien pessimistisch, maar wie weet stevenen we af op een ramp zoals bij de geheugenfabrikanten is gebeurt door te hoge concurrentie en overproductie.
Reken daar nog eens de huidige financiŽle crisis bij, en dan heb je een 'recipe for disaster'.
ik moet dat nog zien hoor of intel ueberhaupt kan concurreren op korte termijn in GPU land met ati/amd en nvidia.

Op de langere termijn ziet het er wat minder gunstig uit voor nvidia, maar daar zijn mouwen aan te passen voor hen in principe.

Het verschil tussen cpu's en gpu's is wel enorm hoor:

a) cpu's zijn veel generieker inzetbaar dan gpu's
b) GPU ontwikkelteams zijn kleine teams, zo kende ik wat lead designers van
bovenstaande grote jongens en dat zijn echt piepkleine teams die snel even een nieuwe gpu eruit laten rollen die dan paar jaar later geproduceerd wordt.
c) gpu's zijn qua architectuur totaal verschillend van generatie A naar B,
slechts support voor open GL en directx was er historisch. Met de komst van gpgpu ruiken we al de enorme problemen die komen gaan voor het volgend punt
d) support voor cpu's is veel intensiever dan voor gpu's; de gpu fabrikanten leveren 0 support, cpu fabrikanten leveren veel meer support. Intel heeft zelfs een eigen compiler die geniaal is. Daarbij is de support van gpgpu voor ati/amd en nvidia totaal knullig en niet serieus nog te nemen voor grote rekenproducten die zo massaal in de industrie gebruikt worden. Vaak is het zo dat in de industrie er alleen wat pilots zijn voor bepaalde applicaties die een specifieke behoefte hebben aan single precision werk.

Ik probeer hier enorme bedrijfsnamen te vermijden, er zijn er maar een paar die echt hard rekenen op gpu's.
e) de gpu's zijn dan wel heel snel, ze vreten ook ontzettend veel stroom. Veel te veel.
als je zo'n power budget voor een cpu zou hebben hoe snel is hij dan en hoeveel cores?

Ik zie nog helemaal geen disaster. De enige disaster die we hadden afgelopen 30 jaar was de enorme gevolgen van intels patenten op x86. Die drukten gewoon bij voorbaat kleine bedrijven weg. AMD heeft zich erin gevochten, maar mag nu weer zich bij de rechter verdedigen.

Die patenten zijn echt de nekslag voor concurrentie.

In dat opzicht is er op dit moment nog meer mogelijk in gpgpu domein.

Softwaregiganten doen graag zaken met grote jongens, maar dat zou in geval van larrabee wel gevaarlijk kunnen zijn hoor.

Waar intel patent op heeft wat een succes is, betekent dat ze zo'n beetje monopolie weten te verkrijgen. Gelukkig is ze dat in markten buiten x86 nog niet gelukt, want daar moet je echt concurreren op prijs en prestatie.
Die verschillen die je opnoemt worden toch steeds kleiner hoor.:

a) klopt, hoewel GPU's toch ook steeds breder inzetbaar worden, zullen ze nooit hetzelfde zijn als CPU's op dit gebied.

b) Een aantal jaar geleden waren de teams inderdaad nog zeer klein ja, maar voor de huidige generaties zijn die teams toch al een stuk groter en komen ze gewoon in de buurt van teams die aan CPU's werken.

c) Dit was ook ooit zo, alleen zie je dat de generaties toch steeds meer op elkaar gaan lijken met zo nu en dan een nieuwe architectuur. Bijvoorbeeld de HD2xxx, HD3xxx en HD4xxx zijn qua architectuur behoorlijk gelijk aan elkaar, hetzelfde geld voor de GeForce 8xxx, 9xxx en 200 lijnen. Waarschijnlijk zullen de volgende generaties van beide bedrijven wel weer een volledig nieuwe architectuur zijn.
Dit lijkt trouwens verdacht veel op Intels Tick,Tock systeem, met een nieuwe architectuur, die shrink, nieuwe architectuur.

d) Gedeeltelijk mee eens, maar vooral nVidia (van AMD's FireStream?!? hoor ik veel minder) is hier hard aan het werken om ook deze support op te bouwen, en ze zijn naar mijn mening al best goed bezig. Ik ken een paar programmeurs die bijvoorbeeld alleen nog maar bezig zijn met Cuda.

e) Als je kijkt naar de huidige high-end processors vs high-end GPU's dan gebruiken de GPU's een 50% meer, dus zeg dat je twee (heel misschien 4) cores toe kan voegen aan de CPU's. Qua floatingpoint performace halen de CPU's het dan nog steeds bij lange niet in vergelijking met de GPU's. Qua normaal computergebruik/rekenwerk maken ze nu al gehakt van de GPU's, laat staan als ze nog eens 2x zo veel rekenkracht krijgen.
Hier zal met een paar jaar wel verandering in gaan komen als processors steeds meer GPU achtige onderdelen krijgen. De eerste stap hiertoe maakt intel bijvoorbeeld met hun eerst volgende nieuwe architectuur en de bijbehorende AVX instructies.
Ik weet niet of het in dit geval goed is. Concurentie is goed ja. Maar intel is al giga groot. Die hebben echt niet meer marktaandeel over. Als intel ook een groot deel van de highend / midrange markt kan pakken hebben AMD en nVidia nog minder geld om chips te maken. Waardoor wij er denk ik uiteindelijk op achter uit gaan. Er is dan een kans dat er nog een speler weg gaat vallen. En we straks misschien alleen intel nog maar over houden.
Misschien gaan Ati en Nvidea dan wel fuseren, dat zou een leuk powerhouse worden dan.

Maar ik denk niet dat intel zo snel zal gaan.
Maar heb ook een beetje schrik. Als deze zo goed gaan presteren,dan zit de kans er in dat intel Nvidia en ATI/AMD op lange termijn uit de markt drukt.
De prestaties zijn nog lang niet bekend. Maar als je kijkt naar de geÔntegreerde grafische chips van Intel dan zijn die niet meteen superieur aan die van NVIDIA of ATI.

Daarbij, ze zijn allemaal gebonden aan beperkende factoren zoals warmteproductie. Je kan trachten de hoogst mogelijke efficiŽntie te bereiken, maar er zit dus een grens op. Het is dus erg onwaarschijnlijk dat Intel ooit een zodanig hoge voorsprong krijgt dat de rest niks meer kan verkopen. Net zoals bij NVIDIA en ATI het geval is zullen ze beurtelings het sterkste ontwerp hebben en elk hun eigen troeven. Gewoon een derde speler dus.

Je mag ook niet onderschatten dat NVIIDA en ATI jŠren ervaring hebben met high-end GPUs ontwerpen en ook heel erg veel driveroptimalisaties kennen. Intel heeft nog heel erg veel in te halen dus voor minstens de eerste twee generaties van Larrabee verwacht ik nog geen superieure prestaties.

Last but not least, NVIDIA en ATI staan ook niet stil. Ze weten heel erg goed in welke richting de architectuur moet evolueren om efficiŽnt DirectX 11+ te ondersteunen. En aangezien hun chips daar veel meer gespecialiseerd voor zijn dan Larrabee betwijfel ik of die laatste wel echt een kans maakt als high-end GPU. Het is in de eerste plaats een erg krachtige CPU om generieke berekeningen te doen. Pas als ontwikkelaars daar volop gebruik van maken zou het wel eens erg interessant kunnen worden in vergelijking met wat NVIDIA en ATI te bieden hebben...
meer geld als
meer ... dan
speeld
Waar haal je die d vandaan?
Ik ben benieuwd of dit wat gaat worden. Intel heeft heel veel geld en daarmee kunnen ze zich uiteraard wel inkopen bij game dev maar ik ga er niet vanuit dat van de een op de andere dag niemand meer games schrijft die overweg kunnen met de huidige hardware en alleen nog maar x86 instructies gebruiken. bovendien is larabee een enorm grote chip veel groter dan GT200 zelfs nog. wat ik in oude benchmarks gezien had is dat hij fear met 4x AA met zo'n 40 frames kon draaien. voor die tijd de tijd van de radeon 38xx en 88xx serie nog redelijk goed. Maar ik ben benieuwd naar de uiteindelijke resultaten. dat Intel een deal gesloten heeft voor de PS4 met sony is een cruciale strategie die hun larabee kan maken of breken in de markt van de games. Misschien dat inderdaad meer developers zich gaan storten op consoles en je daardoor veel mooie titels straks exclusief voor de PS4 zult gaan zien maar platformen zoals de PC en de XBOX van MS die zie ik niet gouw bezwijken onder zulke concurrentie. Microsoft is daarvoor te trots op zijn DirectX en zal dit niet makkelijk van zich af laten nemen. bovendien is een X86 gpu als larabee vast heel erg duur om te kunnen produceren omdat hij zo groot is en het energie verbruik zou ook richting de 300watt gaan. Daarom verwacht ik dat hij het wel goed gaat doen in de PS4 maar dat intel voorlopig op de desktop markt geen GPU zal hebben of niet erg competief zal zijn tegen de videokaarten van Nvidia of AMD ze zullen zich eerst moeten bewijzen bij veel developers lijkt me.
Intel bezit het bedrijf Havok en die leveren zeer de zeer populaire Havok physics middleware. Sindskort leveren ze ook dynamische AI die gebouwd is rondom physics.
De deal met Sony voor de evt. Playstation 4 is een zeker een slimme zet, voor zowel Intel als Sony. Ik denk dat dit dan ook ťťn van de meest belangrijke zetten is tot nu toe voor Larrabee.

Het oprichten van een optimalisatieprogramma door Intel zoals het TWIMTBP programma van nVidia en investeren in bepaalde ontwikkelingstudios verwacht ik ook wel.
precies de physics daarmee gaat larabee scoren en dat weten Nvidia en AMD ook daarom dat ze hard werken aan hun eigen physics berekeningen op hun videokaarten. Direct x 11 zal zo OpenCL met zich mee brengen en hierbij dus ook betere ondersteuning voor physics. Playstation4 is een hele slimme zet inderdaad. Veel games komen eerst uit op de console voordat ze beschikbaar komen op andere platformen. Met de populairste console in huis zit intels Larabee al redelijk gebakken. Ik ben wel blij dat toekomstige games meer physics mee gaan krijgen dan zien de bewegingen van alle objecten er veel realistischer uit.
maar ik ga er niet vanuit dat van de een op de andere dag niemand meer games schrijft die overweg kunnen met de huidige hardware en alleen nog maar x86 instructies gebruiken
En ik ga er van uit dat Intel zo slim is om gewoon API's als DirectX en OpenGL te ondersteunen. Net als ATi en Nvidia. Er wordt wat aan optimalisaties gedaan, waardoor sommige games het beter doen op ATI en sommige op Nvidea hardware, maar er zijn eigenlijk geen games die niet op beide platformen draaien. Intel zal daar geen uitzondering op zijn, geen enkele ontwikkelaar zal zijn vingers daar aan willen branden.
Was Larrebee niet voor geÔntegreerd met CPU? Naja, hopen dat hij DirectX11 en OpenGL ondersteuning krijgt :)
Larrabee can be considered a hybrid between a multi-core CPU and a GPU, and has similarities to both. Its coherent cache hierarchy and x86 architecture compatibility are CPU-like, while its wide SIMD vector units and texture sampling hardware are GPU-like.

As a GPU, Larrabee will support traditional rasterized 3D graphics (DirectX/OpenGL) for games. However, Larrabee's hybrid of CPU and GPU features should be suitable for general purpose GPU (GPGPU) or stream processing tasks.[1] For example, Larrabee might perform ray tracing or physics processing,[4] in real time for games or offline for scientific research as a component of a supercomputer.[5]

DreamWorks Animation has partnered with Intel and is planning to use Larrabee in movie production.
http://en.wikipedia.org/wiki/Larrabee_(GPU)

[Reactie gewijzigd door djexplo op 19 april 2009 15:00]

Nu ja, kijk dat larrabee lijkt nog niet in de verste verte op een videokaart, anders dan dat het een vector processor is die goed zou moeten doorschalen.

Echter stel in toekomst integreert gpu in de cpu (of andersom).

Intel verkoopt massaal goed presterende x86 cpu's en de gpu zit er al in.

Wat dan praktisch gebeurt is dat men een intel inside koopt dus ook dan een intel gpu inside heeft, dus simpelweg goedkoper uit zijn door geen gpu meer op het mainboard te prikken. Daar elke dollarcent, en die is dan wellicht een stuk minder waard dan hij nu is in euro's, telt, ga je dan geen gpu op zo'n mainboard prikken.

Kortom intel en AMD kunnen in dat opzicht dus nvidia wegdrukken.

Om die discussie nu op te doen laaien met larrabee is vrij zielig, want larrabee is alles behalve een gpu.

opengl en directx draait ook al sinds het bestaat namelijk op de cpu.
Dus claimen dat dat ook op larrabee gaat werken is objectief niet zo'n grote claim.

De stap naar integratie in de cpu's hiervan lijkt nog ver weg te liggen.
En of LRB op een GPU lijkt. G200 is ook gewoon een multicore chip waarbij elke core een SIMD eenheid heeft, net als LRB. Het grote verschil is dat LRB generieker is en zaken als rasterizing, interpolatie, z-buffering en dergelijke in software in plaats van hardware uitvoert.
De Performance die geschat werd is iets van 1,2-1,5x dat van de GTX260 en de HD4870. Echter tegen de tijd dat de kaart uitkomt zijn er al kaarten van AMD en nVidia uit die veel sneller zijn dan dat.

Het is wel interessant dat je de DirectX versie kan upgraden door een driver.

Echter denk ik dat ze niet verder gaan komen dan de mid range met hun eerste generatie LRB's. Het is ook de vraag hoe veel ze in dit project blijven stoppen. Misschien kan de 2e gen dan wel beter mee komen.

Ik maak me ook ernstig zorgen over de drivers. Maar we zullen het volgend jaar wel zien hoe het gaat uitpakken. Ik denk dat deze kaarten meer gebruikt gaan worden om sneller berekeningen te doen (CPU ontlasten) dan echt games op te draaien.
Waar lees jij dat de Larrabee 1,2-1,5x zo snel is dan de GTX260/HD4870?

Dit heb ik kunnen vinden over de performance van de Larrabee:
Intel's SIGGRAPH 2008 paper describes cycle-accurate simulations (limitations of memory, caches and texture units was included) of Larrabee's projected performance.[8] Graphs show how many 1 GHz Larrabee cores are required to maintain 60 FPS at 1600x1200 resolution in several popular games. Roughly 25 cores are required for Gears of War with no antialiasing, 25 cores for F.E.A.R with 4x antialiasing, and 10 cores for Half-Life 2: Episode 2 with 4x antialiasing. It is likely that Larrabee will run faster than 1 GHz, so these numbers do not represent actual Larrabee cores, rather virtual timeslices of such.[14] Another graph shows that performance on these games scales nearly linearly with the number of cores up to 32 cores. At 48 cores the performance drops to 90% of what would be expected if the linear relationship continued.
Nou wordt er wel geschat dat de Larrabee uiteindelijk 32 cores krijgt op 3GHz. Dit lijkt mij niet erg effectief (prijs en energieverbruik), en ik denk dan ook niet dat de Larrabee direct de strijd aan kan gaan met de high-end kaarten van NVIDIA/ATI.
Ik heb mijn info uit het ATi Discussie topic. Al heel wat topic geleden stond er een keer een bericht over LRB en wat intel qua performance dacht te gaan halen.

32 Cores op 3 GHz moet ik eerst zien maar het is mogelijk aangezien deze chips best veel op CPU's gaan lijken. Maar we zullen het allemaal wel gaan zien het duurt nog meer dan een half jaar voordat die kaarten uit komen. Eerst komen de RV870 en de GT300 op de markt. Tegen de tijd dat LRB komt zijn de speed bumped versies van de bovenstaande kaarten al bijna klaar. En de opvolgers nog maar een half jaar weg.
En jij hebt Larrabee al gezien? Ik niet, en kan dus niet zeggen hoe effectief het wordt, maar als je kijkt naar verbruik dan denk ik dat dit nog makkelijk kan. Larrabee gebruikt in-order cores, die wat weg hebben van de Atom maar meer op de originele pentium lijken, met wat kleine toevoegingen.

Een simpel rekensommetje (dat natuurlijk niet garant staat dat dit wattage in de praktijk ook behaalt wordt) geeft ons de volgende TDP:
4W (dualcore Atom) * 2 (1.6 -> 3GHz) * 32/2 (32 cores, Atom heeft er twee) = 128W
Beduidend lager als de GTX285, laat staan de HD4890. Natuurlijk is deze berekening voor een best case geval, maar stel dat het een 50% slechter uitvalt komt hij alsnog onder de TDP van de HD4890. Laat staan wat de komende generatie van nVidia en AMD ons brengt aan TDP's.

Tevens qua prijs, intel heeft z'n yields meestal goed in orde, en ik neem aan dat ze deels afgekeurde larrabee chips wel als goedkopere modellen kunnen verkopen door enkele cores uit te zetten. Van de gepresenteerde wafer wordt geschat dat de die size rond de 700mm≤ ligt, maar er wordt tegelijkertijd gespeculeerd dat deze wafer nog op 65nm gemaakt is, met 45nm zou de die al een stuk kleiner uitvallen en niet veel groter zijn als de concurrenten.
Je berekening klopt niet.

Larrabee zou rond de 2 Tflop zitten (single precision), dat is overigens niet sneller dan de bestaande nvidia's, maar die atom, al heb je er 100 van, die komt daar niet bij in de buurt natuurlijk.
Die performance boost komt door de toegevoegde 512 bit vector unit. Maar dat wil nog niet zeggen dat de TDP berekening niet klopt. Een enkele unit toevoegen aan elke core zal geen grote verandering in de TDP/core betekenen, helemaal gezien enkele andere zaken als SMT niet in de Larrabee zitten.

Theoretisch perfomance zegt niets over verbruik.
GT200 heeft een theoretische piek rond de 1100 GFLOPS, dus, en dat is alleen in de meest optimale situatie. Als LRB inderdaad 2TFLOP haalt moeten NVIDIA en AMD oppassen.
Ik denk dat de problemen met de drivers wel mee zullen vallen, immers is de helft van de markt nu in handen van Intel, met hun geÔntegreerde videokaarten.
De ervaring van drivers maken hebben ze in ieder geval wel ergens onder hun dak zitten :).
Ik ben toch skeptisch, de Intel IGPU drivers zijn lang niet altijd even... zonder horten of stoten, en zeker de tools van Intel zijn vaak om te janken (Intel display manager, met die eigen fancy UI er omheen is een ramp). Daarnaast is hun website dusdanig een doolhof dat het toch elke keer weer zoeken is wťlke driver er nodig is, totdat iemand soms puur uit frustratie een 4-versie oudere driver van de website van zijn fabrikant (Asus ofzo) afhaalt.

Daarnaast zijn het heel andere markten. De IGP's die ze nu maken zijn eigenlijk ongeschikt voor elke vorm van games op een paar basis DX games na. OpenGL games durf ik niet aan, laat staan een complexere game. Dingen als Anti Aliasing zou ik niet zo snel kunnen vinden, terwijl er een forceer optie staat in het catalyst control panel, of het nVidia tooltje. Ik denk dat als ze gaan mikken op performance, dat een van hun markten gamers is. Ik kan je wel vertellen, dat die hťťl andere eisen stellen aan de driver van hun videokaart dan de huidige klanten die de IGP's gebruiken. Ik weet van mezelf dat ik wel eens de driver update voor mijn PC zijn 4870, maar de 965 Express/X3100 van mijn laptop doe ik dat niet. Dat ding speelt toch geen enkele game anders dan jaren oude dingen (Age of Mythology draait, en dat draait op lagere FPS als er veel units in spel zijn). Ik weet precies wat ik van die X3100 kan verwachten. Ik ben blij dat hij Aero versnelt. Thats it ;).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True