Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 100, views: 19.340 •

Tijdens de SC09-conferentie heeft Intel een demonstratie gegeven van de rekenkracht van zijn Larrabee-gpu. De chipgigant heeft nu bekendgemaakt dat de nieuwe processor daarbij de grens van 1 teraflops heeft doorbroken.

Tijdens de jaarlijkse Supercomputing-conferentie in november gaf Intel een demonstratie van de rekenkracht van Larrabee. Met deze gpu wil Intel de high-end videokaartenmarkt veroveren. Tijdens de demonstratie werd een zogenaamde SGEMM-benchmark gedraaid, waarin Larrabee met de helft van zijn cores 417 gigaflops wist te behalen. Met alle cores ingeschakeld werden er 825 gigaflops behaald. Vervolgens wisten de engineers van Intel de gpu dusdanig over te klokken, dat de grens van één teraflops werd doorbroken.

Deze snelheid lijkt weinig indrukwekkend in vergelijking met de cijfers die Nvidia en AMD voor de GTX 285 en vooral de HD 5870 opgeven: deze kaarten zouden respectievelijk 993Gflops en 2700Gflops halen. Dat zijn echter theoretische getallen die alleen onder ideale omstandigheden behaald kunnen worden. Van een overgeklokte GTX 285 is bekend dat deze in de SGEMM-benchmark 425Gflops neerzette. Daarmee is Larrabee ruim 2,3 keer zo snel als Nvidia's snelste gpu. Over het energieverbruik van de Larrabee is nog niets bekend.

Reacties (100)

Reactiefilter:-1100097+177+25+30
Ik ben niet bekend met de term, maar wat is een flop?
Floatingpoint Operations (per second geloof ik)
floating point operations per second

maar dat had je ook zelf met Google kunnen vinden
Dat is 't broertje van Succes. En de buurvrouw van Floatingpoint Operation.
flop = Floating Point Operation

825 Gflops is dus 825 milljard floating point operations per second das een heleboel berekeningen....
Floating point operation. Een operatie (optellen, vermenigvuldigen) op een komma getal dus
Floating P.... oh, 't was al gezegd. :|
Een floating point operation volgens mij !!!!!!!!!!!
Deze snelheid lijkt weinig indrukwekkend in vergelijking met de cijfers die Nvidia en AMD (...) opgeven:
(...)Daarmee is Larrabee ruim 2,3 keer zo snel is als Nvidia's snelste gpu.
eh.... Dat is dus wel indrukwekkend?
ja maar het LIJKT niet zo indrukwekkend als je de cijfers puur gaat vergelijken
Vandaar het stukje ertussen ;).

Hoe zit het trouwens met de prijzen van dit ding?
Gezien de vooruitgang in processor gebied normaal met een x aantal procenten gaat (10% sneller is al veel), is 230% een behoorlijke sprong, wat het indrukwekkend maakt.
dit is ook geen cpu maar een gpu... en dan is het dus niet echt zo verbazingwekkend aangezien tussen een oude en een nieuwe generatie gpu's meestal wel zo'n 50% toename in prestaties is...
Het is een x86 GPU. :P
Een tot GPU omgebouwde Pentium.
Ho ho! Dit is niet 230% sneller he! Dit is 130% sneller, nogal een verschil!
Is maar hoe je het bekijkt. Vul maar eens voor 230% = 2,3 in, dan klopt de zin wel. En ook dat is een waarheid, wiskundig gezien. 10% sneller zou in die redenatie eigenlijk gewoon betekenen dat het 10 keer zo langzaam is. Dus normaliter moet hier inderdaad 130% worden gebruikt (100% + x), maar beter is gewoon de procenten weg te laten als je zoiets bedoelt en aangeven dat het 2,3 keer zo snel is :) -compleet off-topic-
10% sneller is nooit langzamer. 10% zo snel is langzamer.
2.3x sneller = 130% sneller = 230% zo snel.
Het is een met C++ programmeerbare x86 GPU :)
En dus is de Larabee ongeveer net zo snel (of minder) als een HD 5870.
Echter is over de featureset weinig bekend, net zo min als dat we nu weten hoe de drivers zijn. Als we even bekijken hoe lang (tot de Radeon 9000 serie) het heeft gebeurt totdat ATI als 'nieuwe' speler de drivers in orde had (Rage en de Radeon 8000 waren rampzalig). Intel IGP drivers zijn, als ze een voorbode zijn van Larrabee, niet positief.
Ik heb ergens een keer gelezen dat er een compleet ander team achter de ontwikkeling van de larrabee drivers zit... Of dat goed of slecht is weet ik niet, maar het zou dus niet te vergelijken moeten zijn.
Dat zou verstandig zijn van Intel. Nu worden de drivers voor hun IGP's gemaakt door een externe partij die verder helemaal niet de hardware ontwikkeld. Dat is garantie tot falen, dat maakt voor IGP's weinig uit omdat daar weinig bijzonders van wordt verwacht maar bij larrabee moeten de drivers natuurlijk optimaal zijn.

Een ander puntje waarom we larrabee niet direct met de GPU's van AMD en NVidia kunnen vergelijken: we weten nog niet wat de prijs gaat zijn, wat het verbruik gaat zijn en hoe de markt ervoor staat als larrabee daadwerkelijk in de verkoop gaat. Dat 'ie het goed doet tegenover een GTX285 is leuk maar als dan inmiddels al lang en breed de GT400 uit is is een GTX285 ook maar een oud en krachteloos ding...
Waarom is dat een garantie om te falen? Is een goede hardwareontwikkelaar vanzelf ook een goede driverontwikkelaar?

Trouwens, veel Voodoo-bezitters gebruikten vroegah de WickedGL-drivers omdat die beter dan de 3dfx-drivers waren. Wat jij zegt is dus zeker niet altijd waar.
WickedGL drivers waren in feite net zo min 3DFX drivers als dat de Omega drivers geen AMD of nVidia drivers zijn: in feite waren het alleen mild getweakede drivers.
Wat ik begrepen had was dat een deel van het voormalige 3D labs team aan Larrabee werkt. Het lijkt me dat die wel weten wat ze doen, gezien de markt die ze voorheen bedienden. En dan nog, de tijd zal het uitwijzen, succes in het verlden is geen garantie voor de toekomst.
Wat ik begrepen heb is dat ze Michael Ambrash aangestrokken hebben voor driver ontwikkeling en uiteraard zooi anderen.
Wat deze man moet doen is niet alleen maar drivers maken maar drivers die software matig met specialistische hardware moet concureren. Gezien deze factor moeilijk is in te schatten. En voor games deze synthetische flop bench ook niet veel zegd. Dan wat groffe flops potentie.
Weten we eigenlijknog steeds te weinig.

Totdat die uitkomt en realgames gebenched zijn.
Daarnaast zal met elke driver release er ook performance stappen omhoog kunnen komen. Vooral omdat ze afhankelijkzijn van optimale emulatie van DirectX en openGL Driver implementatie.

Daarnaast behaald deze multi core zoveel flops doordat elke core 16 vectorunits heeft. Dat is iets wat andere x86 juist niet hebben. Op SSE-n+n1.... etc verschillen ze ook met gewone cpu's.
Voor 'n basic instructie set op x86 compile is het allemaal hetzelfde. Totdat je die vectorunit en GPU specifieke SSE extensies gaat gebruiken. Dan is het anders
Ja en nee.
Ja:
1) Dit is de eerste echte GPU van Intel. Het is zeker indrukwekkend dat ze enigszins mee lijken te kunnen komen met de topkaarten van veteranen op dit gebied.
2) Het is maar de vraag of Intel wel het achterste van de tong laat zien. We weten niet of dit daadwerkelijk de beste chip is die ook op de markt komt qua hoeveelheid cores en clocks.

Nee:
1) Het is maar de vraag of Intel wel het achterste van de tong laat zien. We weten niet of dit daadwerkelijk de echte chip is die ook op de markt komt qua hoeveelheid cores en clocks.
2) Dit is een synthetische test. Het zou best kunnen dat Intel meerdere benchmarks heeft genomen, de beste heeft uitgekozen en deze nu demonstreert. Synthetische benchmarks zijn lang niet altijd een indicatie voor daadwerkelijke performance, net als dat theoretische GFLOPS niks zeggen over echte performance (RV770 had bv meer theoretische GFLOPS, terwijl G200 overduidelijk sneller was)
3) Die 2,3 keer zo snel is vergeleken met een GPU die al bijna anderhalf jaar op de markt is. Terwijl het nog minstens tot half 2010 duurt voor we de eerste LRB chips op de markt gaan zien. Tegen die tijd is de qua specs minimaal 2 keer betere Fermi chip van NVIDIA op de markt, en misschien ook al wel de nieuwe generatie AMD GPU's.
1) Dit is de eerste echte GPU van Intel. Het is zeker indrukwekkend dat ze enigszins mee lijken te kunnen komen met de topkaarten van veteranen op dit gebied.
Dit is niet waar dat was de i740.
Ik zei niet voor niets de eerste "echte" ;) i740 is straks 12 jaar oud als LRB uitkomt. Dat telt echt niet meer mee

EDIT: Natuurlijk hebben jullie een punt, maar waar een CPU van 12 jaar geleden nog steeds een klein beetje overeenkomst vertoont met een moderne CPU is een GPU van 12 jaar geleden zo compleet anders qua ontwerp dat je die niet kan meetellen als "ervaring". Een autoontwerper die in 1910 bij Ford werkte zou ook niet mee kunnen werken om een moderne auto te ontwerpen, en zo zou de ervaring van een GPU-designer die aan i740 heeft gewerkt net zo goed nutteloos blijken bij een moderne GPU. Daarom telt i740 "niet mee".

[Reactie gewijzigd door Snoitkever op 4 december 2009 10:00]

We zijn heel blij met onze nieuwe dochter, ons eerste echte kind! Ja ok 12 jaar geleden hebben we ook een zoon gekregen, maar die is zo oud die telt al niet meer. :+
Dit soort opmerkingen maken 't gewoon jammer dat je als user niet meer zelf posts mag raten. Alhoewel zwaar offtopic schoot ik hier toch behoorlijk van in de lach, en das ook wat waard.

Hallo mods, laat de -1 ongewenst maar komen...
Als je igp niet laat meetellen. Maar de i740 is toch een echte retail GPU.
Heb hem zelf gehad 'n Asus en er uiteraard mee gegamed.
Als ik ooi een LRB G'kaart koop kan het niet mijn eerste iNtel based Gkaart meer zijn.

Wat je wel kan zeggen is dat iNtel op GPU retail gebied zeer innovatief te werk gaat. Maar dan vooral put uit hun andere core bussness CPU. Dus niks nieuws op chip architectuur maar zeer nieuw op GPU gebied.
Innovatie is geen garantie voor sucses. Het kost vooral juist veel meer R&D je neemd grote risiko. En op driver gebied begin je helemaal opnieuw.
Ik kan het niet meer terug vinden maar de GPU was min of meer per ongeluk ontdekt in die zin dat ze ontwerpen aan het testen waren en de geschiktheid als GPU zagen

Het was in 2007 dat de melding kwam dat hij minstens 16 x sneller dan de toen huidige high end kaarten was

Ondertussen heb ik de indruk dat Larrabee al veel fases achter de rug heeft, vermoedelijk zullen ze een sterk ontwerp neer zetten wat ze nog lang kunnen uitmelken zoals Nvidia, (een paar extra pipelines en transistors 0.1 % verbetering en 150 EUR meer betalen)

http://www.hardware.info/...ieuwe_Intel_videokaarten/

http://hothardware.com/Ne...-To-Give-Us-16-Core-GPUs/

http://www.nvnews.net/vbulletin/showthread.php?t=117328
Die laatste alinea heb ik nu ook wel 10 x gelezen en nog kom ik er niet uit.
Blijf dat gedoe hier met die : hoogst irritant vinden.

Die 993Gflops en 2700Gflops zijn weinig indrukwekkend tov 447 en 825gigaflops.

Is gigaflops anders dan Gflops?
Een Gflop is exact hetzelfde als een gigaflop, net zoals een km exact hetzelfde is als een kilometer. Het verschil zit 'em erin dat de gigaflops van Intel van een test vandaan komen (ook al is dat een synthetische benchmark en zit het er dik in dat ze, zonder publiek, een heleboek benches gedraaid hebben en alleen de beste laten zien), terwijl de gigaflops van ATI en nVidia een theoretisch (best-case) maximum zijn.
Het is niet helemaal hetzelfde, maar vergelijk het ongeveer met dit: een "gewone" auto kan, in theorie (perfecte weg, één inzittende, geen bagage, wind mee), maximaal 300 km/uur halen. Dan is het best indrukwekkend als een Ferrari 250 km/uur haalt (bergop, met een aanhanger erachter).
De kern van het verhaal is dit.

De theoretische GFlops van GPU zoals de oudgediende GTX285 is al veel hoger dan LRB. De 5870 is een heel stuk meer.
Maar in de synthetische bench wordt er meer uit LRB gehaald.
Dus deze synthetic praktische resultaat vs Theorie loopt extreem anders.

Maar kan zijn dat deze synthetische bench LRB prefereerd.

Totdat er echte games op draaien die meer FPS dan GTX285 halen.

Enige wat ik kan bedenken dat LRB sterk kan zijn een "GPGPU" toepassingen.
Maar nV Fermi is daar ook sterker op gericht.

Ben dus benieuwd.
Waarom niet gewoon wat realworld benchmarks ... dit is weer zo über synthetisch dat het bijna niks zegt...Maar een Tflop is opzich niet verkeerd natuurlijk!
wat voor een realworld benchmarks wil je dan draaien?
het gaat hier om een demonstratie van een videochip, niet van een volledig pakket (dus processor, mobo, geheugen en videochip). Wil je enkel de videochip benchmarken, dan moet je dus naar de synthetische benchmarks toe, omdat er geen programma is dat realworld is, en enkel op een videochip draait.

Je processor benchmark je trouwens ook met synthetische benchmarks. een runnetje van superPI zit er meestal wel tussen. Maar, er zijn legio realworld programma's die enkel gebruik maken van de combo processor mobo geheugen. Dat trio is dus goed te testen met realworld programmas.
Het quatro viertal proc mobo mem en videokaart gaat ook uitstekend. Maar voor de afzonderlijke benchmarks ben je simpelweg aangewezen op synthetische benchmarks. (en zelfs dan is niet alles zo zwart / wit, want je hebt nu eenmaal een processor nodig in een systeem, en zonder systeem kun je ook niets benchmarken.

[Reactie gewijzigd door M2M op 3 december 2009 16:04]

zucht...wat dacht je van gewoon 3Dmark bijvoorbeeld met een representatieve setup is dat veel beter te vergelijken voor een eindgebruiker dan dit :P maarja dat wist je zelf ook wel
Dan ga je er vanuit dat er al een grafische kaart is die dit chipje gebruikt.

Larabee is een soort omtovering van het oude x86 platform (met veeeeeel cores) tot moderne GPU. Er komt een software laag tussen (in de drivers) die DirectX calls omtovert tot instructies die op de Larabee kunnen draaien.

Ze hebben hier laten zien wat de rekenkracht is van de chip, die chip zelf wordt pas een 'video chip / gpu' als de software laag klaar is en dat is hij nog (lang) niet.
test het thuis dan maar eens: 3dmark06 draaien met een underklokte CPU en een overgeklokte CPU. Vergelijk het verschil.
De enige test uit de 3dmark serie die niet puur synthetisch is, is de nature test. Die schaalt nog steeds redelijk goed met de performance van een videokaart, en is slechts weinig afhankelijk van de snelheid van de processor.

Maargoed, videokaarten van tegenwoordig worden niet enkel en alleen meer gebruikt om spelletjes mee te spelen. Floating point operations zijn berekeningen die ook nuttig kunnen zijn in andere sectoren waar computers aan te pas komen. Voorspellingen van het weer, proteïnes draaien, molecular modelling. Allemaal leuke voorbeelden waar de teraflops erg goed van pas komen :)

Ps. ik wacht natuurlijk nog wel met smacht naar een degelijke (onafhankelijke) review van het larrabee concept. Ik ben ook wel benieuwd hoe die zich verhoud tot de huidige videokaarten.
Enige reden wat ik kan bedenken is dat ze nog niet zo ver zijn met hun monster taak om LRB emulatie drivers te maken voor OpenGL en DirectX. En dat ze kwa performance nog in een te prille toestand zijn. En je will je verwachtingen niet verklooten met 20% van de praktische haalbare uiteindelijke performance.
Met GPGPU toepassing en Gflops benchen is al eerder haalbaar en bij deze dus.

Monster taak, je ziet dat bij nv en ATI hun drivers op release nog lang niet finished zijn, soms niet eens feature compleet. LRB vereist veel meer werk,
Verder is het juist wel een realworld-benchmark, maar dan eentje die meer gebruikelijk is voor High Performance Computing, dan voor jan en alleman, die er spelletjes mee wilt spelen. Persoonlijk zie ik het bericht als positief. Ben niet overtuigd dat Larrabee ook ECHT 2,3x zo snel is als een GTX 285, maar ik geloof wel dat ie ruim sneller is.
True, ik vind 1Tflop, hoe getweaked en geoptimaliseerd voor deze benchmark misschien dan ook, toch een hele prestatie!
sorry maar die quatro heb je dat op het moment verzonnen ? ;)
of moet dat het italiaanse quatTro zijn ?
Zeker niet waar. Als je maar een real-life test neemt waarbij de GPU de bottleneck is worden je resultaten totaal niet merkbaar beïnvloed van je RAM, CPU en mobo. Doe crysis maar eens met alle settings op zijn hoogst (inclusief 8xAA en op 2560x1900). Dan maakt het bij het testen van deze GPU tegenover de GTX285 en HD5870 echt niet uit of je dat nou doet met een athlon II dualcore of een overgeklokte corei7...
Dit is een meer een beetje show off voor supercomputing e.d. Er is helaas nog niets concreets op de markt van Intels Larabee wat zelfs maar een beetje te maken heeft met super computing. GPU's worden ook zoiezo niet echt gebruikt daarvoor tot zover ik weet. Ik ben meer benieuwd naar real life computing scores als deze uit en dan vergelijken met overige gpu powered super computers
GPU's niet gebruikt voor supercomputing? De nieuwe serie van NVidia wordt er speciaal voor ontwikkeld (tesla) en in de top10 van supercomputers zit er één bij die zijn power haalt uit HD4870's! :D

zie hier

[Reactie gewijzigd door bwerg op 3 december 2009 17:07]

En hoeveel Gflops heeft de HD 5870 dan in SGEMM? Iemand?
"Radeon 5870 / FireStream 9370 should give out 600 GFLOPS in SGEMM benchmark but we don't know if that number is correct."

bron http://www.brightsideofnews.com (zelfde als artikel)
Ongeveer 1.8TFlops

Dit wilt zeggen dat de kaart bijna 2x zo snel is, maar niet dat ze 2x zo snel een beeld heeft berekend. Intern kan het perfect mogelijk zijn dat een ATI kaart voor een beeld op te bouwen 50% meer berekeningen nodig heeft dan nvidia. (Ik weet geen echte cijfers hierover, deze zijn maar een voorbeeld)
Die 1.8 zijn de theoritische waardes die AMD meegeeft. Rond de 600 GFlops is er gehaald in de SGEMM benchmark, waar ook deze waardes van Larabee vandaan komen.
there is post there saying this 'Anyways I've read that SGEMM on AMD/ATI 5870 has reached 67 % of theoretical performance.

This would mean that the 5870 is doing 0.67*2.72 TFLOPs ~= 1.8 TFLOPs on SGEMM. Almost twice the peformance of LRB.'

don't know if its true or note though
gerucht op gerucht. Niet echt betrouwbaar
Het is wel indrukwekkend..

Betaalbaar?
wss niet
high-end segment he... dus vanaf zo'n 3 a 400 euro in principe...
Gaat Intel dan toch echt met een betere processor komen dan de GPU's van AMD en Nvidia? Het lijkt me nog steeds niet echt mogelijk dat ze zo in een keer de gehele GPU markt op zijn kop zetten maar aan de andere kant als iemand in staat mag worden geacht zo iets te doen dan is het Intel wel. Met hun kennis op het gebied van halfgeleiders en chip design zijn ze in de unieke positie om echt een kans te maken op een groot markt aandeel in deze markt.
en vergeet vooral niet het te besteden budget...
Vergeet niet wat ze met de ssd-markt gedaan hebben een jaar geleden. Intel kwam ook plots out of the blue met zijn x25 aanzetten die de concurrentie gewoonweg van tafel veegde op vlak van random read/write.
Onmogelijk is het dus zeker niet
Ja, maar een SSD bestaat uit een relatief simpele controller en een hele lading zo klein mogelijke flash-chips. Dat is heel wat anders dan de complexe GPU chips met miljarden transistoren waar jaren en jaren aan research en ervaring in zit.

EDIT: En vergeet niet dat Intel al jaren bezig is met microcontrollers en flash geheugen. Ze hadden alleen nog geen echte SSD zelf op de markt gezet.

[Reactie gewijzigd door Snoitkever op 3 december 2009 16:32]

Vergeet daarbij ook niet dat intel ook al wat jaartjes meespeelt op de CPU (en zelfs GPU) markt, en de larrabee toch aardig CPU-achtig is (ontzettende multicore).
Op de CPU markt is het zeker de grootste, maar op GPU-gebied lopen ze honderd jaar achter, als je ziet hoe bedroevend hun IGP's presteren t.o.v. de IGP's van NVidia en Ati.
Dat klopt, maar het is een grote gok van Intel. Ze gokken er op dat ze er mee "weg komen" als ze zoveel CPU elementen gebruiken in een GPU. Op zich is er natuurlijk een reden waarom NVIDIA en AMD dat nog niet hebben gedaan. We zullen zien of Intel de goede gok heeft gewaagd of dat ze probeerden teveel een CPU te maken.
Ze gokken er op dat ze er mee "weg komen" als ze zoveel CPU elementen gebruiken in een GPU. Op zich is er natuurlijk een reden waarom NVIDIA en AMD dat nog niet hebben gedaan.
Omdat ze (nVidia en ATI) nou eenmaal geen ervaring hebben met CPUs (en AMD pas sinds, relatief, kort ATI overgenomen heeft), zodat ze (net als Intel voor Larrabee moest doen), helemaal vanaf scratch een nieuw ontwerp zouden moeten maken.
Het is een radicaal nieuw ontwerp, er is maar één manier om erachter te komen of het een goed idee is: een bedrijf (in dit geval Intel) er een absurde hoeveelheid dollars aan op laten branden en dan in de praktijk kijken hoe het uitpakt.
Voorlopig ligt AMD dan nog wel even voor 2700 GFlops = 2,7 TFlops, terwijl Intel er nu pas 1 heeft weten te behalen met een overclock...

(ok, ok, wel puur theoretisch, maar dat zijn de cijfers van Intel ook (geen real-world benches))

[Reactie gewijzigd door renskoenraadt op 3 december 2009 15:30]

Nee, dat is dus niet zo. Een HD 4870 / FireStream 9270 haalt in die benchmark 300gflops. Terwijl een HD 4870 in theorie 1 teraflop kan halen. De HD 5870 zou efficienter zijn, maar van die 2,7 teraflop blijft misschien de helft over in de sgemm-benchmark? Dat moet nog blijken.
Op google staat dat een HD5870 ongeveer 1,8 TFlops zou halen, dus ongeveer 2/3 van de theoretische snelheid en ruwweg het dubbele van de overclockte Larrabee.
Naar het schijnt zal de larrabee echter wel ontzettend schaalbaar zijn. Veel flexibeler dan SLI of Crossfire. (Enkel kaartjes bijprikken) (echter heb ik dit echter van horen en moet ik het eerst nog zien.)
Nee, dat ging alleen om schaalbaarheid van het chipontwerp. Ze kunnen vrij makkelijk cores toevoegen of weghalen om zo verschillende configuraties voor verschillende marktsegmenten te maken. LRB zal zeker in het begin absoluut geen multi-chip/multi-card rendering gaan ondersteunen, het driverteam is al druk genoeg met de drivers voor 1 enkele chip.
En wanneer laat Intel eens wat GPU-taken zien als een 3DMark-score?

Deze score is een bewijs dat Intel processoren kan maken, er iets weinig GPU-achtigs nodig om dit soort scores te kunnen neerzetten. Dat de Larrabee goed in HPC-taken zou zijn wisten we al vanaf het begin, dat hij in HPC met GPU's kan concurreren is heel mooi voor Intel, het is geen onaardige markt. Maar Intel beweerde wat anders: Dat de GPU overbodig was.

Om ATi en Nvidia van de troon te stoten zijn Direct3D- en OpenGL-prestaties nodig, en Intel heeft tot nog toe weinig overtuigends op dit gebied laten zien. Het vermenigvuldigen van een enorme matrix (wat SGEMM inhoudt) zegt helemaal niets over grafische prestaties, daar gaat het om vectoren en matrixen van 4 bij 4, da's totaal andere koek.

[Reactie gewijzigd door dmantione op 3 december 2009 15:34]

De ontwikkeling van de Larrabee ging absoluut niet vlekkeloos en het is maar afwachten wat we werkelijk te zien krijgen op de markt over 1-2 jaar.

Een interessant artikel: An Inconvenient Truth: Intel Larrabee story revealed
en niet te vergeten, hoe goed de software gaat zijn die de DirectX en OpenGL calls om gaat zetten naar iets x86's wat op de Larabee draait.
Processoren doen +/- 100GFlops. Tenzij Intel de techniek klaar heeft liggen om 10x zo snelle CPUs te maken denk ik dat ze toch wel wat werk hebben moeten doen. Daarnaast is een GPU niets meer dan een chip die veel Floating points operations tegelijk kan doen. En ja, matrix operaties zijn belangrijk voor een GPU.

Ik denk wel dat het voor Intel makkelijker is om de chip in de HPC en CAD markt te zetten. De consumentenmarkt is toch andere koek. Daar gaat het voor een groot deel om optimalisatie voor games in de drivers en dat is toch een apart spel.
Sinds wanneer bestaat er een teraflopgrens? Er is toch helemaal geen obstakel om van 999G naar 1000G te gaan?
Er is ook geen obstakel om de grens met Duitsland over te steken

[Reactie gewijzigd door rbtje1 op 3 december 2009 20:40]

Niet in de techniek, wel in de hoofden van mensen. Kijk maar eens hoe hard de beurshandelaren juigen als de index van 499 naar 500 gaat. Voor Spock is dat even interessant als een index die van 500 naar 501 gaat, maar mensen zijn nou eenmaal niet 100% rationeel. Die teraflopgrens mag dan puur psychologisch zijn, in de praktijk is het wel degelijk belangrijk omdat "sneller dan 1000 Gflop" nou eenmaal veel lekkerder klinkt dan "sneller dan 1037 Gflop".

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013