Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties
Submitter: abusimbal

Intels toekomstige discrete videokaart, met de codenaam Larrabee, zou wat betreft prestaties ongeveer de gelijke zijn van Nvidia's GTX285. Intel geeft echter te kennen dat Larrabee 'market dominating' tijdens de introductie zal zijn.

Terwijl de Computex-beurs in volle gang is en Intel tot nog toe niets loslaat over zijn op stapel staande videokaart, genaamd Larrabee, probeerde Tom's Hardware erachter te komen hoe snel Larrabee nu ongeveer is. Volgens een anonieme bron zouden de prestaties van Larrabee in de buurt liggen van die van Nvidia's GeForce GTX285. De GTX285 beschikt over Nvidia's snelste gpu van dit moment, maar de introductie van zowel Nvidia's als AMD's nieuwe generatie gpu's zou min of meer samenvallen met het uitbrengen van Larrabee.

De anonieme bron wist verder nog te vertellen dat er het een en ander zou kunnen veranderen aan het chipontwerp, maar het ligt niet in de lijn der verwachting dat Intel meteen mee gaat strijden in het high-end-segment. Intel daarentegen zegt dat het met Larrabee dezelfde aanpak volgt als met zijn ssd's: het zonder veel bombarie afleveren van producten die sneller zijn dan al het andere dat op de markt is. Vooralsnog blijft het echter vooral giswerk naar de prestaties van Larrabee, aangezien deze op een compleet andere wijze werkt dan de huidige videokaarten.

Moderatie-faq Wijzig weergave

Reacties (107)

Zelfs al is dit waar, dan vind ik het nog een beetje teleurstellend.

De GTX285 is echt niet het snelste wat je kunt krijgen op het moment - je kunt snellere kaarten krijgen met de HD4870X2 en de GTX295. Zelfs 2 Radeon HD 4770's in CrossFire kunnen de GTX285 aan (en die combinatie kost maar zo'n 180 euro en verbruikt vrij weinig). Als de Larrabee nu op de markt zou komen zou het echt weinig verschil gaan maken op de GPU markt.

Maar de Larrabee komt pas volgend jaar op de markt. Tegen die tijd heeft ATI al de Radeon 5000-serie uitgebracht waarbij de Geforce 200-serie moet gaan verbleken. Ook komt Nvidia met de Geforce G300-serie als de Larrabee wordt uitgebracht. Tegen de tijd dat de Larrabee wordt uitgebracht zijn 'GTX285-prestaties' waarschijnlijk behoorlijk midrange (denk aan de Radeon HD4770/4850).

Bovendien hebben de Geforce en Radeon-serie al een tijdje driverondersteuning, en zelfs dat is moeilijk genoeg voor de bedrijven om stabiel te krijgen. Intel gaat dat ook niet in 1,2,3 goed voor elkaar krijgen.

Het enige selling point van de Larrabee is de x86-programmeerbaarheid. Maar als de OpenCL-api enigszins degelijk is (en wel compatible met Nvidia- en ATI-chips waaruit de markt is gevormd), snap ik niet waarom men specifiek voor de Larrabee zou willen schrijven.

[Reactie gewijzigd door DCK op 4 juni 2009 11:58]

Maar de Larrabee komt pas volgend jaar op de markt. Tegen die tijd heeft ATI al de Radeon 5000-serie uitgebracht waarbij de Geforce 200-serie moet gaan verbleken.
Als alles helemaal voorspoedig verloopt zou AMD dan al wel eens bijna bij de 6000 serie kunnen zijn, op 32nm gebakken bij Global Foundries. Maar goed, dat is alleen in het meest optimale scenario.
De GTX285 is volgens mij de snelste single GPU kaart. De nog snellere kaarten hebben twee op elkaar geplakte HD4870's of GTX280's. Als de Larrabee dus ongeveer even snel is als de GTX285(het liefst sneller, want in 2010 is de technologie weer verder) doen ze het gewoon goed denk ik. Maar daar is nog veel te weinig informatie over.

[Reactie gewijzigd door Tharoy op 4 juni 2009 12:05]

Dat vind ik geen argument. Als het prestaties levert maakt het niet uit hoeveel chips er op zijn geplakt. Blijkbaar is de architectuur van ATI en Nvidia wel geschikt voor multichip setups, en die van de Larrabee voorlopig niet.

Ook qua performance/watt gaat het niet echt op. Met 2xHD4770 haalt ATI de prestaties van een GTX285 voor minder watt dan een HD4890. Het lijkt me erg sterk dat Intel dat kan gaat verbeteren met de Larrabee.
Nou deels wel, als je een Ati HD4890 koopt die standaard op 1ghz+ is geclockt is die sneller dan een GTX285.
Zozo... Heb net 2 EVGA GTX285's gekocht.. Had niet verwacht dat de Larrabee zo snel zou zijn. Maarja, hoe betrouwbaar is die "anonieme" bron ?
Misschien is hij sneller..misschien is hij minder snel. Zonder benchmarks weten we nog helemaal niks. Als ze gelijk in het high-end segment mee willen strijden zullen ze dat ook moeten volhouden omdat ATI en Nvidia redelijk snel doorgaan.

Als intel zijn statement een beetje wil waarmaken, dan moet de larrabee in ieder geval flink sneller zijn dan de GTX285. Ik kijk in ieder geval heel erg uit naar de terugkeer van intel in het mid/high-end segment.

Daarnaast is het het allerbelangrijkste dat ze stabiele drivers uitbrengen!

[Reactie gewijzigd door pizzaislekker op 4 juni 2009 10:46]

Als Intel het beleid omtrend hun huidige grfx chips voortzet mag je verwachten dat de Larrabee spec en source open zal zijn. ALS er dan nare bugs bij de launch zijn, zullen ze heel snel worden verholpen.
Er is nl aardig wat interesse voor Larrabee aangezien het ontwerp flexiebeler is dan conventionele grfx kaarten. Er staan vast developers te springen om ermee aan de slag te kunnen.

(ik dwaal nu af, sue me)
Wat ik stiekum hoop dat mogelijk is met met de programmeerbaarheid van Larrabee is een soort van Intel-VTx/AMD-V, maar dan voor video. Hiermee zou je webaplicaties geheel veilig 3d versnelling kunnen bieden of vloeiend DirectX 10+ in een VM op een gast machine kunnen draaien zonder dat de host (Mac/Linux) dat hoeft te snappen.
Die dev's staan niet te springen. Elke fantatische idee moeten ze ook een nV/ATI path voor creeren. Die zijn vooral zeer geinterreseert maar commerciel gezien blijft het onaan trekkelijk. Totdat LRB tech mainstream wordt.
Of GPU ook LRB trucjes kunnen leveren. Want GPGPU wordt steeds uitgebreider en ook flexibeler. Wat LRB impact eigenlijk afdempd.

X86 is geen voordeel tenzijn het identiek is aan EMT64/AMD64
Maar nee het is inline ipv out of order heeft unieke 16x vectorunits en specifieke GPU SSE4A extentie.
Om er dus native van gebruik te maken net zo excotisch als een non X86 taaltje.
Tenzij je basic x86 gebruikt. En dat wordt mede bepaald wat voor compiler CPU ondersteuning je beschikbaar hebt. Een apparte LRB compiler is dus gewenst.

Zul je toch net zoals met HSML Cuda ASM in je code aangeven dat je bezig bent met een voor LRB bedoelde code blok.
Of geavanceerde compiler tech die bepaalde code vormen herkent die LRB prefereren. Iets wat eenvoudig massive te parralelliseren is.
Heeft intel ooit dan wel in het high segment gezeten qua gpu's?

Maar daarentegen kan intel het niet maken om valse beloftes te maken
Was de i740 ooit high-end? Heb 'n Asus gehad maar is zo lang geleden dat ik het niet meer weet. Ik dacht het niet. Maar iNtel was toen wel op die markt aanwezig.
Ik heb in het verleden wel vaker zulke uitspraken gehoord van andere GPU fabrikanten zoals MAtrox en VIA. Maar ze konden in de verste verte niet tippen aan de brute kracht van NVIDIA of ATi.

Maar toch moet Intel niet onderschat worden, ik denk dat ze al ver zijn met ontwikkeling van stream GPUs (en CPUs). De moderne GPUs hebben zich al bewezen te kunnen worden vergeleken met computer clusters, dus ze zien het belang van zo'n ontwerp wel in.

[Reactie gewijzigd door jaapstobbe op 4 juni 2009 10:43]

Er is 1 heel groot verschil met die anderen. Intel heeft al de nodige kennis in huis maar nog belangrijker geld. Met geld koop je kennis en kun je een boel inversteren in ontwikkeling en een achterstand die je hebt snel terugbrengen.

Ga er maar vanuit dat de prestaties niet slecht zullen zijn, denk dat je dat wel van intel kan verwachten. Intel is een naam en wil die naam ook hoog houden. Stapt men dus in die markt dan zal men er ook zeker van willen zijn dat men kan meekomen met de rest.
Ha! Intel heeft weinig naam hoog te houden op graphics gebied. Ik kan mij bijna niet voorstellen dat Larabee erg goed zal zijn. Ten eerste is de techniek veel minder geschikt voor de huidige GPU taken dan een - wel, echt GPU, met een dot dedicated hardware. Ten tweede hebben ze veel minder ervaring.
Allereerst is Intel de grootste chipfabrikant ter wereld.
Daarnaast is Intel de fabrikant die de meeste GPUs verkoopt
Tot slot heeft intel het ontwikkelteam overgenomen dat tot voor kort de de snelste grafische kaarten op de markt maakte (goed, die kaarten waren "ietsje" duurder dan het nVidia en ATI werk)

Dus ervaring genoeg lijkt. me.....
ontwikkelteam overgenomen?

Bron?
Nee hij vergist zich niet hoor...

nieuws: Intel neemt groot deel 3Dlabs-team in dienst
nieuws: Intel investeert bijna 10 miljoen dollar in PowerVR
nieuws: Intel stelt Havok-software gratis beschikbaar

Intel is zich goed aan het voorbereiden in ieder geval. Ik denk toch wel dat Intel (wellicht op termijn) toch een speler zal worden die niet te onderschatten is.
Ben je niet in de war met AMD en ATI?
Daarnaast is Intel de fabrikant die de meeste GPUs verkoopt

Dat is niet zo gek, aangezien er in 9 van de 10 OEM PC's die veel gebruikt worden in bedrijven (zoals fujitsu siemens, compaq je kent het wel) onboard Intel Chips zitten.
Onderschat ze maar niet...volgens mij wordt in de toekomst dan de larrabee of al een verdere editie in 1 die behuizing gestoken...net zoals AMD met torrenza wil doen. Geloof me of niet, maar dit is de toekomst!

[Reactie gewijzigd door Lima op 4 juni 2009 13:49]

Het zou wel kunnen zijn dat zij GPU's/grafische kaarten gaan ontwikkelen die beter met hun intel processors samen werken. Net zoals AMD de Spider en Dragon platform heeft. Maar ik weet niet in hoeverre intel voordeel heeft met de kennis hoe hun processors in elkaar zitten en of ze dat om kunnen zetten tot betere samenwerking met de GPU.
Ik wacht maar af tot hun kaarten gebenchmarkt zijn, voordat ik überhaupt overweeg een intel grafische kaart aan te schaffen (mist de test goede resultaten uit wijzen).
intel maakt toch al heel wat jaren grafische chipsets ;)
qua uitspraken geloof ik intel toch wel wat meer dan Via en Matrox.. ik bedoel als intel zegt we gaan een top product leveren doen ze dat ook.. intel is met SSD dingen aan de top, en cpu's al helemaal..

dus ik verwacht dat ze het wel waar gaan maken, anders slaan ze zelf ook een modderfiguur..
iNtel doet ook vlink aan marketing en dat is vaak net zo'n 'geblaad' als van welk ander merk. Wij van WC Eend adviseren WC eend geld hier ook.
Die hele LRB is een over de top risiko volle adventure voor iNtel. Innovatief is leuk maar geen garantie voor 'n nr1 positie. Ze hebben het voordeel dat ze zo enorm groot zijn. En ik zie het meer als reuse van ouwe tech vlink opgepoets en dan extreem vermenigvuldigen. Weer wat extenties speciaal voor die markt die ze gaan bestijgen.
En dan past LRB goed in iNtel straatje.
GPU' zijn afhankelijk van API middleware en wat defacto staandaard is. Met de Project tijden van 2 tot 4 jaar is deze industrie niet zo responsief. Dat gaat gelijdelijk.
GPGPU bestaat lang en begint wat te worden. LRB heeft voor die tak de betere kaarten.
Bijna de hele chip is General purpose. Vergelijkbaar met een GPU die zowat puur bestaat uit shaders.
Maar de gevestigde orde heeft nog steed veel Fixfunction en zal dus op die defacto standaard DX10/11 OpenGL2/3 vooral de nodige performance leveren.
Fixfunction is niet iets dat nadelig is. Maar is zoals met alles, voorzien van een nadeel/voordeel.
Voor LRB vs traditioneel is het flexibiliteit vs performance.
Fixed heeft vaker een flinke performance voordeel.

En will voxel en raytrace doorbreken dan zal zo'n game-engine ook nV en ATI unified shader hiervoor moeten benutten. Wil het doorbreken. Want markt splitsing werk averrechts.

En GTX285 performance zie ik als niet competatief tov GT300 en RV870
Maar 'n leuk geprijste midrange LRB is niks mis mee. Misschien dat iNtel LRB 'GPGPU' kant vlink gaat promoten en Havok middle ware dit uiteraard al snel zal ondersteunen.

Of LRB op korte termijn wat wordt is door de vele factoren die meespelen, sucses of flop niet in te schatten.

Omdat LRB een software matige oplossing is heeft het driver team eigenlijk ook emulatie team. Een zeer zware taak op zich.

Ik link performance efficentie aan Produkt procede met chipsize met vermogen opname vs performance.

Kennis en geld zijn ook niet alles. Extreem voorbeeld is itanium. Dat is zeer innovatief en heel duur om te doen. Vlink gecounterd en gereduceerd door cheap simple aanpassing van IA32 naar AMD64. Er spelen veel meer factoren mee dan geld en innovatie alleen. En die invloeden kunnen soms ook zeer doorslag gevend zijn.

Kennis en geld vergroot de slag kracht en veerkracht van een bedrijf in competie. Maar zijn geen garantie.
pfff.. als Nederlands je moedertaal is mag je wel een beetje meer moeite in je posts gaan steken zeg. Beetje zonde als je de moeite van een lange post neemt maar de helft van de lezers kwijt bent na een paar zinnen. Veel mensen zullen je tekst ook een stuk minder serieus nemen erdoor.

Hoeft allemaal niet perfect ofzo, maar dit is toch geen FOK!... :|
Zozo... Heb net 2 EVGA GTX285's gekocht.. Had niet verwacht dat de Larrabee zo snel zou zijn. Maarja, hoe betrouwbaar is die "anonieme" bron ?
Ik heb m'n twijfels. De GTX 285 en vergelijkbare videokaarten hebben 16X PCI-E slots nodig om genoeg data te krijgen om te verwerken, en deze Intel zou vergelijkbare prestaties neer moeten kunnen zetten als on-board chippie? Ik weet niet hoor...

(of de Larrabee moet die cpu + gpu combo zijn, dan wordt het realistischer. Maar dan nog)

(of ik moet de pijplijn die videochips krijgen onderschatten)

Edit: laat maar, ik zie net dat Larrabee een volledige videochip zal gaan worden voor op videokaarten.

[Reactie gewijzigd door YopY op 4 juni 2009 10:55]

Een 'on board chippie' kan net zo zeer op een pci-ex x16 lijn zitten als elke andere ad-on kaart. Ik weet niet of de meeste dat ook ter beschikking hebben omdat ik wel aanneem dat de huidige 'onboard chippies' toe komen met een heel deel minder, iets van een x4 ofzo? Vroeger zaten de on board kaarten bv ook gewoon op een AGP bus, waardoor je dikwijls geen extra AGP slot ter beschikking had.
volgens de geruchten molen wordt de eerste 32core LRB chip een bakbeest van een chip. IGP lijkt me heel sterk. Die komen mogelijk later.
Met als performance de GTX285 zal net als GT200a een energie slurper zijn.
Volgens geruchten en eerste berichten van iNtel.
Quote: " Intel daarentegen zegt dat het met Larrabee dezelfde aanpak volgt als met zijn ssd's: het zonder veel bombarie afleveren van producten die sneller zijn dan al het andere dat op de markt is."

En met prijzen die nVidia goedkoop laten lijken. Ze zullen wel weer gaan voor een hoog winstpercentage per product bij een relatief kleine afzet, ipv een hoge afzet met een kleiner winstpercentage.
Ik denk juist geheel andersom, ze gaan een product positioneren zonder al teveel grote marketing (banners, plaatjes van gamers etc etc), kaarten verkopen zichzelf wel vanwege prijs/ prestatie verhouding.

Vergelijking Matrox en Via gaat hier niet echt op, Intel is een "big boy" die al heel lang GPU's produceert, zodoende dat zij binnenkort wel kan bepalen en schalen waar deze GPU tussen valt of zelfs erboven.

Als zij roepen dit is "snelste GPU" kan je ervan uitgaan dat zij vanwege hun naam geen gebakken lucht verkopen, daar zorgt directie wel voor (anders leiden ze gezichtsverlies en worden de rest van hun producten "ook" in twijfel genomen).

mark my words:

Intel heeft processoren, moederborden, hardeschijven (SSD), videokaarten, enige wat nog ontbreekt is "speciaal" Intel geheugen en ze hebben een eigen systeem, fully Intel.

Oftewel een directe concurrent voor Apple en kunnen uiteindelijk roepen dit is de enige echte PC2 aangezien IBM nog steeds de enige echte PC is en de rest IBM compatible.

[Reactie gewijzigd door Sm0k3r op 4 juni 2009 13:06]

Oh ja. Apple is natuurlijk ook een bedrijf wat compleet afhankelijk is van hun eigen ontwikkelde hardware-architecturen, en iedere fabrikant baalt er tegenwoordig nog van dat ze slechts IBM compatible zijn. :?
Intel ontwikkeld al die onderdelen zelf, Apple niet. Intel richt zich ook tot alle marktsegmenten (meestal wel eerst lancering van highend producten en vervolgens mid en low) terwijl Apple zich enkel richt op nichekopers. 'K zou dus zeker geen direct concurrent noemen.
Ik bespeur hier oogkleppen, kijk eens naar de big picture en aangezien ik hier het over marketing heb, hoe zou jij dit als bedrijf de markt inhelpen???

Ik zou mezelf, indien ik "zogenaamd" een eigen platform heb mij positioneren tegenover een andere gigant, oftewel Apple, zowel MaZeS als jij weten dat Apple ook afhankelijk is van producenten maar weten jouw ouders, buren, neefjes, nichten dit of is volgens hun Apple een product op zich itt de Dells en HP en Lenovo...

Kijk eens simpelweg naar waar een pad naar toe kan leiden ipv jouw eigen bekende pad te bewandelen.

Dat doen grote bedrijven ook, zodoende dat zij marktsegment kunnen innemen, want ze kijken waar smaak en kennis op is gebaseerd van hun klanten.

Voorbeeld van auto merken, een Opel een Toyota en een Mazda is voor normaal publiek een simpele auto, maar een Lamborghini niet of een Ferrari, daarentegen is Mazda voor een kenner zoals jullie op ICT niveau wel revolutionair met hun wankel motor en is opel een van de eerste die een "normale" auto heeft lopen testen op waterstof, waar blijft Lamborghini dan met wat hun speciaal maakt, niks, wat de meerderheid weet telt.
Dat iNtel er geen bombarie van gaat maken lijkt mij ook wel als je de markt betreed als nr3 in top performance prestege en imago kroon. Wat nu nV gefixeerde doelstellig altijd al was en AMD dat heeft laten varen voor de performance volumesales target audience.
iNtel prefereerd mogelijk ook AMD aanpak. En mischien een volgende gen LRB gaat misschien verder. Als de emulatie en driver optimalisatie zodanig uitpakt dat ze de topper aankunnen. Maar dat betwijvel ik. In deze early stage of driver emulatie status lijkt GT300 maar ook RV870 te ver weg.

Ze zijn van GTX280 naar GTX285 gegaan als we berichten volgen.
Ik denk geen nummer 3 positie, zowel AMD als Nvidia had te kampen met economische crisis en moesten inspelen op kapitaal van consumenten, dus "best bang for buck", 2 honden die vechten en 3de gaat er met bot (nr.1 positie) ervandoor.

Wat grappig is is dat volgens Tomshardware de Larrabee net zo krachtig is als een GTX285, waar halen ze dat vandaan, welke Larrabee, die met 1 core, die met 16 cores, die met 48 cores??!!!

Hij is zo schaalbaar als de pest dat ding, dat is waarom Intel "nu" al zo groots erover praat.

Komt Nvidia eind dit jaar met de GT300, nou zegt Intel "prop eens 48 kernen in dat ding en verkoop hem voor 600 euro, net zoals de GT300" etc etc etc.

Nvidia heeft 2 bronnen van inkomsten, GPU en Chipset (correct me if i'm wrong),
Intel heeft er 10+, dus als het een wedstrijd wordt van geld smijten, en dat zal het niet worden, wint Intel het van Nvidia.

[Reactie gewijzigd door Sm0k3r op 4 juni 2009 14:35]

Vooralsnog blijft het echter vooral giswerk naar de prestaties van Larrabee, aangezien deze op een compleet andere wijze werkt dan de huidige videokaarten.
Nou nou, dat is ook wel heel overdreven. Ja, Larrabee ondersteunt x86, en ja, bepaalde taken worden in software gedaan in plaats van in hardware, maar verder is het ook gewoon een multicore SIMD processor, net als RV770 en G200, alleen met een andere ISA.
Volgens mij heb jij je nog niet genoeg in de werking van Larrabee verdiept, want je statements kloppen niet helemaal.

1) Larrabee "ondersteunt" x86 net zo als een i7 920 x86 "ondersteunt". Het verschil is alleen dat er waarschijnlijk iets minder extra instructies beschikbaar zijn.

2) Het zijn niet bepaalde taken die in software worden gedaan, maar bepaalde taken die in hardware worden gedaan. Het grootste gedeelte van Larrabee wordt volledig programmeerbaar en slechts een klein deel(zoals de rasterizer) niet.

3) De "multicore" van de NV en Ati GPU's is toch iets heel anders dan die van Larrabee. Larrabee krijgt minder cores die complexere (op x86 gebaseerde) instructies aankunnen.

Je kan de twee technieken dus net zo goed vergelijken als appels en peren.
Larrabee "ondersteunt" x86 net zo als een i7 920 x86 "ondersteunt". Het verschil is alleen dat er waarschijnlijk iets minder extra instructies beschikbaar zijn.
Klopt, het is gewoon een native x86 manycore processor met wat extra instructies en een flinke SIMD unit per core. So what, ik vind de ISA van een GPU alles behalve voldoende reden om te stellen dat de GPU "compleet anders" werkt. RV770 en G200 hebben gewoon een andere ISA en de cores zelf zijn niet programmeerbaar, maar de "manycore/MIMD met SIMD units" aanpak blijft.
2) Het zijn niet bepaalde taken die in software worden gedaan, maar bepaalde taken die in hardware worden gedaan. Het grootste gedeelte van Larrabee wordt volledig programmeerbaar en slechts een klein deel(zoals de rasterizer) niet.
Ja, dat is wat ik zeg. Een aantal zaken die G200 nog in hardware doet, zoals texture filtering wordt nu in software gedaan op LRB. Ja, dit is nieuw, maar nog steeds niet compleet anders. Het is gewoon taken verschuiven. Het levert veel extra ruimte op de chip op, maar kost weer flink performance.
Laten we trouwens ook even afwachten wat de volgende (twee) generatie(s) NVIDIA en AMD chips op dit gebied gaan doen. Zou me niets verbazen als zij dat ook al lang van plan waren.
3) De "multicore" van de NV en Ati GPU's is toch iets heel anders dan die van Larrabee. Larrabee krijgt minder cores die complexere (op x86 gebaseerde) instructies aankunnen.
Wat is het grote verschil dan, behalve dat de LRB cores direct aan te spreken zijn? G200 en RV770 zijn ook gewoon grote multicore processors met een SIMD unit per core. Ja, LRB's cores kunnen ook zelf een flinke set aan operaties uitvoeren, maar aangezien dit niet heel veel effect heeft op 3D performance zie ik hier nog steeds niet het voordeel van.


Dus ja, ik ben het absoluut met je eens als je zegt dat LRB flink wat innovatie met zich mee brengt. Ik vind het echter veel te ver gaan om te spreken van "compleet andere wijze van werken", want dat is het gewoon niet. Het is een enorme evolutie, maar voor een revolutie lijkt het nog veel te veel op G200/RV770.
Tja het gokken op de performance van RV870 en GT300 is al vaag laat staan LRB.
Er spelen bij ATI vs nV al te veel factoren mee. Bij LRB nog meer.
Vind het wel een gewaagde hoge inzet om zo een kaart neer te zetten, of wordt dit een vervolg van de maxtrox series (pharelia ofzo)? (leuk voor de heb, weinig voor de prestaties). Het is maar 'een bron', eerst die hele kaart maar eens zien.

Beetje tegenstrijdig is nog dat ze eerst gelijktijdig met de nieuw Ati kaarten zouden komen met deze videokaart, maar ze zouden nu nog 1 en ander gaan veranderen aan het chipontwerp? Hebben ze uberhaubt al een werkend model (en die ook voor mass productie beschikbaar is)?
De Matrox Parhelia was een mooie kaart, echter was het Matrox zelf die de kaart de das om gedaan heeft, door een focusshift weg van VGA cards.

Er is al lang werkend silicon, ik denk dat het wachten vooral is op fatsoenlijke drivers. Een x86-based GPU aan DirectX en OpenGL vastknopen is wel meer werk dan een paar donkere nachtjes programmeren.
Hebben ze uberhaubt al een werkend model (en die ook voor mass productie beschikbaar is)?
Ja (en waarschijnlijk nee). De eerste borden gaan pas eind dit jaar de deur uit naar partners ed, en pas in 2010 zal Larrabee daadwerkelijk op de markt verschijnen. AMD en NVIDIA hebben dus nog wel even de tijd om hun verdediging op te bouwen.
Ik vraag me dan ook af waarom het bovenstaande bericht het heeft over een release gelijk met de nieuwe AMD kaarten, want Intel's roadmap denkt daar heel anders over. Verkeerd het originele artikel vertaald wellicht?
Eerst zien en dan geloven ;)
Overigens denk ik dat de echte gamers nog altijd grafische kaarten gaan blijven kopen van ati of nvidia.
'echte gamers' kopen wat het snelste is, (als de prijs-prestatieverhouding daar naar is). Als deze larrabee rondjes rent om de rest zullen er zat gamers zijn die daar op overstappen.
define 'echte gamer'
Ik ga bijvoorbeeld geen 400 euro neer leggen voor een videokaart.
gamer zijn heeft echt helemaal niets met budget te maken.
En niet iedereen kan even 200/300euro ophoesten.

Zeg dan liever, gamer met de teveel geld en willing to spend it.
Zoieso, ik heb ook geen idee wat Intel hier voor een prijsstelling aan gaat geven; indien die ook market dominating gaat worden zal die wel op een eurotje of duizend zitten.

Dan zal een AMD quadcore (of tegen die tijd misschien een Core i5) met een een goeie ATI videokaart nog altijd de koning van de prijs/prestatie blijven.
Het enige duidelijke verschil over langere periode die er vandaag overblijft zijn drivers. Als Intel op prestaties en prijs concurreerd ga ik dus meteen vaarwel zeggen aan NVidia en ATI om de drivers van Intel voor mijn product te hebben.
Intel heeft dan dankzij zijn cpu en gpu een veel grotere ondersteuningsrol voor developers waardoor ze toch voordelen krijgen tegenover NVidia en ATI die elkaar in slaap begonnen te wiegen.

edit: Inderdaad ATI heeft ook cpu's van AMD maar spijtig dat die het geld niet vinden om de gamesindustrie even veel te helpen als Intel zal kunnen.

[Reactie gewijzigd door Rizon op 4 juni 2009 10:56]

Dan zal Intel toch echt iets aan de ondersteuning van de drivers moeten doen. Ze staan er niet om bekend met grote regelmaat nieuwe drivers uit te brengen. Het is met een videokaart toch echt wel noodzakelijk om snel in te spelen op nieuwe games en snelheidsverbeteringen en fixes.

[Reactie gewijzigd door Bosmonster op 4 juni 2009 11:22]

Hoeft ook niet bij hun huidige producten om elke maand nieuwe drivers te brengen of gaan we Intel op voorhand veroordelen? Ze zijn als een van de weinigen die bij lancering afgewerkte drivers leveren en als Intel zijn uitstekende reputatie van drivers doorvoert gaan we uiteraard regelmatige updates krijgen voor de markt.
iNtel zal voor IGP niet zo'n uitgebreide driver team hebben dan ATI nV.
Voor IGP is belangrijk dat de functionaliteit en robustheid behaald wordt. Performance dus aggressief optimaliseren is niet nodig.
Nu met larrabe zijn de Driver team need gigantisch hoger dan van ATI/nV.
Want LRB driver is ook meteen OpenGL en DX Emulatie. De reden dat ze ASM guru machal ambrash in hun team hebben. Dat is eerder noodzaak dan een extra.
Dus de kennis zal ondertussen al ingekocht zijn jaar of meer geleden. En hebben nu aardig wat werk acher de rug maar nog jaren te gaan.

Ik verwacht dan ook dat LRB mogelijk kan tegenvallen en met de tijd er meer wordt uitgehaald. Maar is geen wonder middel om zo maar even fix functie performance te evenaren.

Dus ben benieuwed.
Idd voor de drivers zou ik in 1e instantie juist NIET overstappen, daar mag nog wel een flink aantal man mee aan het werk want momenteel is het een stuk, neej een heel stuk slechter als de concurrentie.
Toch wel grappig die term "market dominating".
Intel is al jaren market dominating met hun geintegreerde grafische chips. Die zijn erg langzaam voor het echte 3D-geweld, maar voldoen ruimschoots voor het overgrote deel van de consumenten. M.a.w. "market dominating" zegt niets over de snelheid, maar meer over de prijs en marktafzet.
Die 'markt dominating' lijkt me niet dat ze die bedoelen, aangezien ze al markt dominating zijn met het product bij de introductie, en bij de introductie zal niet de overgrootte meerderheid al op larrabee draaien.

Dus zelf denk ik wel dat het om snelheid gaat.
Dan nog kan je bij introductie market dominating zijn als je een processor uitbrengt die voldoet aan de wensen van het gros van de markt.

Anders had Intel volgens mij zijn Larrabee heel graag "performance dominating" of "unrivaled performance" e.d. genoemd ;)

[Reactie gewijzigd door Fireshade op 4 juni 2009 15:07]

Ik ben erg benieuwd naar de performance van (real-time) ray tracing op Larrabee. Het lijkt erop dat daar specifiek aan gedacht is tijdens het design. Misschien (hopelijk?) gaan we dan een shift meemaken van rendering naar ray tracing. En Intel heeft ruime ervaring heeft met het optimaliseren van ray tracing op CPUs, dus ze zouden precies moeten weten wat de bottlenecks daar zijn op x86 architecturen.

[Reactie gewijzigd door Zoijar op 4 juni 2009 10:55]

Het lijkt erop dat daar specifiek aan gedacht is tijdens het design.
Ik snap niet waarom iedereen dat idee heeft. LRB is nog steeds gewoon een SIMD architectuur en lijdt dus net zoveel onder incoherente (secundaire) rays als G200 of RV770. Aangezien dat de grootste bottleneck is voor GPU-raytracing zie ik niet waarom LRB opeens zoveel beter zou zijn.
Ik heb het er met een van de leidende realtime-raytracing experts over gehad(Jacco Bikker. Degene die de raytracer(Arauna) voor "Let there be Light" schreef.) en hij gaf aan dat het schrijven van een raytracer voor de huidige GPU's veel te moeilijk is en niet genoeg prestaties oplevert. Hij was echter zeer enthousiast over Larrabee, waar hij direct bij betrokken was, omdat het programmeren daarvoor gemakkelijker zou zijn(x86) en de mogelijkheden per "core" heel veel groter zou zijn dan de huidige "cores" op GPU's. Het is echt een totaal ander systeem dan de huidige GPU's hanteren, het lijkt er niet op.
Uiteraard, het is makkelijker programmeerbaar, maar laten we niet vergeten dat LRB pas in 2010 op de markt komt, en NVIDIA en AMD tegen die tijd minstens 1, zo niet 2 generaties verder zijn. LRB is meer programmeerbaar, maar dat is ook gewoon omdat NNVIDIA en AMD niet de moeite hebben genomen om de cores op hun GPUs direct programmeerbaar te maken.
De volle rekencapaciteit die de SIMD units op de LRB cores bieden zullen echter nog steeds niet zomaar gebruikt kunnen worden bij raytracing wegens incoherente rays.
De LRB opzet is general purpouse. Maar dan met massive parralelisatie.
Dat is niet raytrace specifiek. Je kan elke methode nu toepassen en het gaat als de brandweer als het massive parralelistatie goed gebruiken kan. iig tov traditionele CPU.
GPU vooral die DX11 hebben ook zooi shaders die je op een wat beperkte manier voor zoiets kan gebruiken. En shader worden met elke DX en openGL generatie steeds meer general purpouse.

Ben benieuwed of we de Voxelengine weer terug gaan zien. of hybride daarvan.
En nu maar hopen dat ze hardware documentatie geven net zoals met de gma-reeks? Voor linux

Dan zijn we eindelijk verlost van nvidia drivers
Dat heb je toch al. LRB is vooral EMT64 op ouwe instructies inline tech met zooi vectorunits en unieke instructie extentie set SSE4A.
Nog wat restantje fix funtion.
En that it.
Dus 'n linux LRB compiler en je bent dan al ver.
Intel heeft dit al zo vaak geroepen over hun grafische kaarten/chips dat het niet geloofwaardig is.
Eerst zien, dan geloven.
Heeft Intel dan ooit al eens grafische kaart gemaakt met de opzet om alles in de markt te overtoeven? Kan me niet herinneren wanneer.
Die lag qua prestaties in de buurt van de Nvidia Riva128TNT, De S3savage en de Ati Rage128, was een middenmoter, meer niet.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True