Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties, 19.360 views •

Tijdens de SC09-conferentie heeft Intel een demonstratie gegeven van de rekenkracht van zijn Larrabee-gpu. De chipgigant heeft nu bekendgemaakt dat de nieuwe processor daarbij de grens van 1 teraflops heeft doorbroken.

Tijdens de jaarlijkse Supercomputing-conferentie in november gaf Intel een demonstratie van de rekenkracht van Larrabee. Met deze gpu wil Intel de high-end videokaartenmarkt veroveren. Tijdens de demonstratie werd een zogenaamde SGEMM-benchmark gedraaid, waarin Larrabee met de helft van zijn cores 417 gigaflops wist te behalen. Met alle cores ingeschakeld werden er 825 gigaflops behaald. Vervolgens wisten de engineers van Intel de gpu dusdanig over te klokken, dat de grens van één teraflops werd doorbroken.

Deze snelheid lijkt weinig indrukwekkend in vergelijking met de cijfers die Nvidia en AMD voor de GTX 285 en vooral de HD 5870 opgeven: deze kaarten zouden respectievelijk 993Gflops en 2700Gflops halen. Dat zijn echter theoretische getallen die alleen onder ideale omstandigheden behaald kunnen worden. Van een overgeklokte GTX 285 is bekend dat deze in de SGEMM-benchmark 425Gflops neerzette. Daarmee is Larrabee ruim 2,3 keer zo snel als Nvidia's snelste gpu. Over het energieverbruik van de Larrabee is nog niets bekend.

Reacties (100)

Reactiefilter:-1100097+177+25+30
Moderatie-faq Wijzig weergave
En wanneer laat Intel eens wat GPU-taken zien als een 3DMark-score?

Deze score is een bewijs dat Intel processoren kan maken, er iets weinig GPU-achtigs nodig om dit soort scores te kunnen neerzetten. Dat de Larrabee goed in HPC-taken zou zijn wisten we al vanaf het begin, dat hij in HPC met GPU's kan concurreren is heel mooi voor Intel, het is geen onaardige markt. Maar Intel beweerde wat anders: Dat de GPU overbodig was.

Om ATi en Nvidia van de troon te stoten zijn Direct3D- en OpenGL-prestaties nodig, en Intel heeft tot nog toe weinig overtuigends op dit gebied laten zien. Het vermenigvuldigen van een enorme matrix (wat SGEMM inhoudt) zegt helemaal niets over grafische prestaties, daar gaat het om vectoren en matrixen van 4 bij 4, da's totaal andere koek.

[Reactie gewijzigd door dmantione op 3 december 2009 15:34]

De ontwikkeling van de Larrabee ging absoluut niet vlekkeloos en het is maar afwachten wat we werkelijk te zien krijgen op de markt over 1-2 jaar.

Een interessant artikel: An Inconvenient Truth: Intel Larrabee story revealed
Processoren doen +/- 100GFlops. Tenzij Intel de techniek klaar heeft liggen om 10x zo snelle CPUs te maken denk ik dat ze toch wel wat werk hebben moeten doen. Daarnaast is een GPU niets meer dan een chip die veel Floating points operations tegelijk kan doen. En ja, matrix operaties zijn belangrijk voor een GPU.

Ik denk wel dat het voor Intel makkelijker is om de chip in de HPC en CAD markt te zetten. De consumentenmarkt is toch andere koek. Daar gaat het voor een groot deel om optimalisatie voor games in de drivers en dat is toch een apart spel.
en niet te vergeten, hoe goed de software gaat zijn die de DirectX en OpenGL calls om gaat zetten naar iets x86's wat op de Larabee draait.
Nounou, ik kan merken dat ik oud aan het worden ben. Vroeger wist een Tweaker gewoon wat een FLOP was en luidde de firstpost anders dan:
Ik ben niet bekend met de term, maar wat is een flop?
Dat het antwoord op de vraag vervolgens een gok is, vind ik een blamage voor een platform als deze.
En vroeger vond ik hier nog weleens echte uiteenzetting van technisch jargon, maar tegenwoordig hoeft dat niet, want je linkt gewoon naar een Wikipedia pagina.
Daarna wordt de teleurstellende vraag gesteld wat het ding kost. Het antwoord op deze vraag kan alleen maar zijn dat er nog geen prijs bekend is.

Graag wil ik van de gelegenheid gebruik maken om u te vertellen dat FLOPS op zichzelf weinig zeggen over perfomance, omdat het I/O-gebeuren, communicatie tussen processoren, samenhang van cache en de opbouw van het geheugen hierin allesbepalend zijn.
Dat de Larrabee de TeraFLOPS grens doorbreekt is helemaal niet spectaculair, want dat konden we al geruime tijd. ATI heeft welliswaar een dualcore in haar 5970 kaart zitten, maar die is wel goed voor 4.64 functionele TeraFLOPS (single precision). En ja, dat is een synthetische benchmark geweest, dat zal ik onmiddelijk toegeven, maar hey, je moet het toch ergens mee kunnen meten?!

Maargoed. Lekker belangrijk. Wat voor de gebruiker eigenlijk veel interessanter is, maar waar je nooit iemand over hoort, is hoeveel polygonen je per seconde kunt doorrekenen, hoeveel data fetches je kunt doen per seconde, de texel- en pixel fill rate, en hoeveel pixels je kunt anti-aliassen per seconde...
Flops zeggen inderdaad weinig over de totale performance.

Daarvoor is het ook het floating broertje van de MIPS, wat staat voor

Meaningless Instructions Per Second.

Ofwel hoe snel kan ik onzinnig rekenen.
Waarom niet gewoon wat realworld benchmarks ... dit is weer zo über synthetisch dat het bijna niks zegt...Maar een Tflop is opzich niet verkeerd natuurlijk!
wat voor een realworld benchmarks wil je dan draaien?
het gaat hier om een demonstratie van een videochip, niet van een volledig pakket (dus processor, mobo, geheugen en videochip). Wil je enkel de videochip benchmarken, dan moet je dus naar de synthetische benchmarks toe, omdat er geen programma is dat realworld is, en enkel op een videochip draait.

Je processor benchmark je trouwens ook met synthetische benchmarks. een runnetje van superPI zit er meestal wel tussen. Maar, er zijn legio realworld programma's die enkel gebruik maken van de combo processor mobo geheugen. Dat trio is dus goed te testen met realworld programmas.
Het quatro viertal proc mobo mem en videokaart gaat ook uitstekend. Maar voor de afzonderlijke benchmarks ben je simpelweg aangewezen op synthetische benchmarks. (en zelfs dan is niet alles zo zwart / wit, want je hebt nu eenmaal een processor nodig in een systeem, en zonder systeem kun je ook niets benchmarken.

[Reactie gewijzigd door M2M op 3 december 2009 16:04]

zucht...wat dacht je van gewoon 3Dmark bijvoorbeeld met een representatieve setup is dat veel beter te vergelijken voor een eindgebruiker dan dit :P maarja dat wist je zelf ook wel
Dan ga je er vanuit dat er al een grafische kaart is die dit chipje gebruikt.

Larabee is een soort omtovering van het oude x86 platform (met veeeeeel cores) tot moderne GPU. Er komt een software laag tussen (in de drivers) die DirectX calls omtovert tot instructies die op de Larabee kunnen draaien.

Ze hebben hier laten zien wat de rekenkracht is van de chip, die chip zelf wordt pas een 'video chip / gpu' als de software laag klaar is en dat is hij nog (lang) niet.
test het thuis dan maar eens: 3dmark06 draaien met een underklokte CPU en een overgeklokte CPU. Vergelijk het verschil.
De enige test uit de 3dmark serie die niet puur synthetisch is, is de nature test. Die schaalt nog steeds redelijk goed met de performance van een videokaart, en is slechts weinig afhankelijk van de snelheid van de processor.

Maargoed, videokaarten van tegenwoordig worden niet enkel en alleen meer gebruikt om spelletjes mee te spelen. Floating point operations zijn berekeningen die ook nuttig kunnen zijn in andere sectoren waar computers aan te pas komen. Voorspellingen van het weer, proteïnes draaien, molecular modelling. Allemaal leuke voorbeelden waar de teraflops erg goed van pas komen :)

Ps. ik wacht natuurlijk nog wel met smacht naar een degelijke (onafhankelijke) review van het larrabee concept. Ik ben ook wel benieuwd hoe die zich verhoud tot de huidige videokaarten.
Enige reden wat ik kan bedenken is dat ze nog niet zo ver zijn met hun monster taak om LRB emulatie drivers te maken voor OpenGL en DirectX. En dat ze kwa performance nog in een te prille toestand zijn. En je will je verwachtingen niet verklooten met 20% van de praktische haalbare uiteindelijke performance.
Met GPGPU toepassing en Gflops benchen is al eerder haalbaar en bij deze dus.

Monster taak, je ziet dat bij nv en ATI hun drivers op release nog lang niet finished zijn, soms niet eens feature compleet. LRB vereist veel meer werk,
Verder is het juist wel een realworld-benchmark, maar dan eentje die meer gebruikelijk is voor High Performance Computing, dan voor jan en alleman, die er spelletjes mee wilt spelen. Persoonlijk zie ik het bericht als positief. Ben niet overtuigd dat Larrabee ook ECHT 2,3x zo snel is als een GTX 285, maar ik geloof wel dat ie ruim sneller is.
True, ik vind 1Tflop, hoe getweaked en geoptimaliseerd voor deze benchmark misschien dan ook, toch een hele prestatie!
sorry maar die quatro heb je dat op het moment verzonnen ? ;)
of moet dat het italiaanse quatTro zijn ?
Zeker niet waar. Als je maar een real-life test neemt waarbij de GPU de bottleneck is worden je resultaten totaal niet merkbaar beïnvloed van je RAM, CPU en mobo. Doe crysis maar eens met alle settings op zijn hoogst (inclusief 8xAA en op 2560x1900). Dan maakt het bij het testen van deze GPU tegenover de GTX285 en HD5870 echt niet uit of je dat nou doet met een athlon II dualcore of een overgeklokte corei7...
Beetje rare vergelijking
Vervolgens wisten de engineers van Intel de gpu dusdanig over te klokken, dat de grens van één teraflops werd doorbroken.

Deze snelheid lijkt weinig indrukwekkend in vergelijking met de cijfers die Nvidia en AMD voor de GTX 285 en vooral de HD 5870 opgeven: deze kaarten zouden respectievelijk 993Gflops en 2700Gflops halen. Dat zijn echter theoretische getallen die alleen onder ideale omstandigheden behaald kunnen worden.
Een overclock vergelijken met een "theoretische" ideale omstandigheid.... 8)7 8)7
Even vraag/veronderstelling die tenminste hout snijdt...., wat haalt dan die nvidia en of ATI met een overclock?
Daar naast wordt een niet uitgebracht product vergeleken met een product dat al meer dan een jaar op de markt is.

Ik ben wel benieuwd naar wat de HD5870 of een HD4890 in die benshmark zou halen. En Gflops is leuks maar dat zegt niets over performance in game.

Larrabee zou DX gaan emuleren misschien levert dat een behoorlijk performance hit op.


Edit heb wel wat kunnen vinden:
But as of SC09, the top five performing products for SGEMM 4K x 4K are as follows [do note that multi-GPU products are excluded as they don't run SGEMM]:
1. Intel Larrabee [LRB, 45nm] - 1006 GFLOPS
2. EVGA GeForce GTX 285 FTW - 425 GFLOPS
3. nVidia Tesla C1060 [GT200, 65nm] - 370 GFLOPS
4. AMD FireStream 9270 [RV770, 55nm] - 300 GFLOPS
5. IBM PowerXCell 8i [Cell, 65nm] - 164 GFLOPS

If you're wondering where products such as Intel Harpertown-based Core 2 Quad or Nehalem-based Core i7 stand, the answer is quite simple - i7 XE 975 at 3.33 GHz will give you 101 GFLOPS, while Core 2 Extreme QX9770 at 3.2 GHz gives out 91 GFLOPS.
De Firestream 9270 is vergelijkbaar met een HD4870 op 750 MHz. Dus een HD5870 zal zeker iets van 600 gflops halen. Ik weet niet hoeveel AMD nog getweaked heeft om GPGPU performance te verbeteren. En aangezien de HD5870 ook op 850 MHz draait kan het nog wel eens zijn dat hij richting de 650 gflops gaat.

Daar naast hebben we het hier volgens mij wel over een bensh die meer gemaakt is voor CPU's dan GPU's. En Larrabee is een soort van CPU/GPU fusion. Hij kan ook X86 draaien.

Des al niet te min zet hij een erg mooie prestatie neer. Ik ben alleen wel benieuwd wat die kaart verbruikt op stock 2.0 GHz en overclocked.

Maar gezien de performance van de i7 kunnen we wel concluderen dat deze code niet optimaal is voor video kaarten. Anders hadden we veel grotere verschillen gezien. Als in 10-20% hogere performance voor de video kaarten.

Edit 2:

De Larrabee op 2.0 GHz zou een 150 watt TDP hebben. Dit is vergelijkbaar met een HD5850 en een GTX275.

Maar nogmaals. Een kaart die nog niet uit is vergelijken met iets wat al op de markt is. Tegen de tijd dat LRB er is is nVidia bijna klaar of klaar met de GT400 en heeft AMD al een HD6xxx serie klaar staan. Die waarschijnlijk de performance tov de vorige generatie weer verdubbelen.

Ik gok dat Fermi gezien de performance van de GTX285 ook wel rond die 1 Tflop kan komen alleen dan op stock speeds. En wellicht meer want die wordt echt gemaakt voor GPGPU. GT200 ook al maar GT300 nog meer.

[Reactie gewijzigd door Astennu op 4 december 2009 10:02]

Deze snelheid lijkt weinig indrukwekkend in vergelijking met de cijfers die Nvidia en AMD (...) opgeven:
(...)Daarmee is Larrabee ruim 2,3 keer zo snel is als Nvidia's snelste gpu.
eh.... Dat is dus wel indrukwekkend?
Gezien de vooruitgang in processor gebied normaal met een x aantal procenten gaat (10% sneller is al veel), is 230% een behoorlijke sprong, wat het indrukwekkend maakt.
dit is ook geen cpu maar een gpu... en dan is het dus niet echt zo verbazingwekkend aangezien tussen een oude en een nieuwe generatie gpu's meestal wel zo'n 50% toename in prestaties is...
Het is een x86 GPU. :P
Een tot GPU omgebouwde Pentium.
Het is een met C++ programmeerbare x86 GPU :)
Ho ho! Dit is niet 230% sneller he! Dit is 130% sneller, nogal een verschil!
Is maar hoe je het bekijkt. Vul maar eens voor 230% = 2,3 in, dan klopt de zin wel. En ook dat is een waarheid, wiskundig gezien. 10% sneller zou in die redenatie eigenlijk gewoon betekenen dat het 10 keer zo langzaam is. Dus normaliter moet hier inderdaad 130% worden gebruikt (100% + x), maar beter is gewoon de procenten weg te laten als je zoiets bedoelt en aangeven dat het 2,3 keer zo snel is :) -compleet off-topic-
10% sneller is nooit langzamer. 10% zo snel is langzamer.
2.3x sneller = 130% sneller = 230% zo snel.
Ja en nee.
Ja:
1) Dit is de eerste echte GPU van Intel. Het is zeker indrukwekkend dat ze enigszins mee lijken te kunnen komen met de topkaarten van veteranen op dit gebied.
2) Het is maar de vraag of Intel wel het achterste van de tong laat zien. We weten niet of dit daadwerkelijk de beste chip is die ook op de markt komt qua hoeveelheid cores en clocks.

Nee:
1) Het is maar de vraag of Intel wel het achterste van de tong laat zien. We weten niet of dit daadwerkelijk de echte chip is die ook op de markt komt qua hoeveelheid cores en clocks.
2) Dit is een synthetische test. Het zou best kunnen dat Intel meerdere benchmarks heeft genomen, de beste heeft uitgekozen en deze nu demonstreert. Synthetische benchmarks zijn lang niet altijd een indicatie voor daadwerkelijke performance, net als dat theoretische GFLOPS niks zeggen over echte performance (RV770 had bv meer theoretische GFLOPS, terwijl G200 overduidelijk sneller was)
3) Die 2,3 keer zo snel is vergeleken met een GPU die al bijna anderhalf jaar op de markt is. Terwijl het nog minstens tot half 2010 duurt voor we de eerste LRB chips op de markt gaan zien. Tegen die tijd is de qua specs minimaal 2 keer betere Fermi chip van NVIDIA op de markt, en misschien ook al wel de nieuwe generatie AMD GPU's.
1) Dit is de eerste echte GPU van Intel. Het is zeker indrukwekkend dat ze enigszins mee lijken te kunnen komen met de topkaarten van veteranen op dit gebied.
Dit is niet waar dat was de i740.
Ik zei niet voor niets de eerste "echte" ;) i740 is straks 12 jaar oud als LRB uitkomt. Dat telt echt niet meer mee

EDIT: Natuurlijk hebben jullie een punt, maar waar een CPU van 12 jaar geleden nog steeds een klein beetje overeenkomst vertoont met een moderne CPU is een GPU van 12 jaar geleden zo compleet anders qua ontwerp dat je die niet kan meetellen als "ervaring". Een autoontwerper die in 1910 bij Ford werkte zou ook niet mee kunnen werken om een moderne auto te ontwerpen, en zo zou de ervaring van een GPU-designer die aan i740 heeft gewerkt net zo goed nutteloos blijken bij een moderne GPU. Daarom telt i740 "niet mee".

[Reactie gewijzigd door Snoitkever op 4 december 2009 10:00]

Als je igp niet laat meetellen. Maar de i740 is toch een echte retail GPU.
Heb hem zelf gehad 'n Asus en er uiteraard mee gegamed.
Als ik ooi een LRB G'kaart koop kan het niet mijn eerste iNtel based Gkaart meer zijn.

Wat je wel kan zeggen is dat iNtel op GPU retail gebied zeer innovatief te werk gaat. Maar dan vooral put uit hun andere core bussness CPU. Dus niks nieuws op chip architectuur maar zeer nieuw op GPU gebied.
Innovatie is geen garantie voor sucses. Het kost vooral juist veel meer R&D je neemd grote risiko. En op driver gebied begin je helemaal opnieuw.
We zijn heel blij met onze nieuwe dochter, ons eerste echte kind! Ja ok 12 jaar geleden hebben we ook een zoon gekregen, maar die is zo oud die telt al niet meer. :+
Dit soort opmerkingen maken 't gewoon jammer dat je als user niet meer zelf posts mag raten. Alhoewel zwaar offtopic schoot ik hier toch behoorlijk van in de lach, en das ook wat waard.

Hallo mods, laat de -1 ongewenst maar komen...
Ik kan het niet meer terug vinden maar de GPU was min of meer per ongeluk ontdekt in die zin dat ze ontwerpen aan het testen waren en de geschiktheid als GPU zagen

Het was in 2007 dat de melding kwam dat hij minstens 16 x sneller dan de toen huidige high end kaarten was

Ondertussen heb ik de indruk dat Larrabee al veel fases achter de rug heeft, vermoedelijk zullen ze een sterk ontwerp neer zetten wat ze nog lang kunnen uitmelken zoals Nvidia, (een paar extra pipelines en transistors 0.1 % verbetering en 150 EUR meer betalen)

http://www.hardware.info/...ieuwe_Intel_videokaarten/

http://hothardware.com/Ne...-To-Give-Us-16-Core-GPUs/

http://www.nvnews.net/vbulletin/showthread.php?t=117328
En dus is de Larabee ongeveer net zo snel (of minder) als een HD 5870.
Echter is over de featureset weinig bekend, net zo min als dat we nu weten hoe de drivers zijn. Als we even bekijken hoe lang (tot de Radeon 9000 serie) het heeft gebeurt totdat ATI als 'nieuwe' speler de drivers in orde had (Rage en de Radeon 8000 waren rampzalig). Intel IGP drivers zijn, als ze een voorbode zijn van Larrabee, niet positief.
Ik heb ergens een keer gelezen dat er een compleet ander team achter de ontwikkeling van de larrabee drivers zit... Of dat goed of slecht is weet ik niet, maar het zou dus niet te vergelijken moeten zijn.
Dat zou verstandig zijn van Intel. Nu worden de drivers voor hun IGP's gemaakt door een externe partij die verder helemaal niet de hardware ontwikkeld. Dat is garantie tot falen, dat maakt voor IGP's weinig uit omdat daar weinig bijzonders van wordt verwacht maar bij larrabee moeten de drivers natuurlijk optimaal zijn.

Een ander puntje waarom we larrabee niet direct met de GPU's van AMD en NVidia kunnen vergelijken: we weten nog niet wat de prijs gaat zijn, wat het verbruik gaat zijn en hoe de markt ervoor staat als larrabee daadwerkelijk in de verkoop gaat. Dat 'ie het goed doet tegenover een GTX285 is leuk maar als dan inmiddels al lang en breed de GT400 uit is is een GTX285 ook maar een oud en krachteloos ding...
Waarom is dat een garantie om te falen? Is een goede hardwareontwikkelaar vanzelf ook een goede driverontwikkelaar?

Trouwens, veel Voodoo-bezitters gebruikten vroegah de WickedGL-drivers omdat die beter dan de 3dfx-drivers waren. Wat jij zegt is dus zeker niet altijd waar.
WickedGL drivers waren in feite net zo min 3DFX drivers als dat de Omega drivers geen AMD of nVidia drivers zijn: in feite waren het alleen mild getweakede drivers.
Wat ik begrepen had was dat een deel van het voormalige 3D labs team aan Larrabee werkt. Het lijkt me dat die wel weten wat ze doen, gezien de markt die ze voorheen bedienden. En dan nog, de tijd zal het uitwijzen, succes in het verlden is geen garantie voor de toekomst.
Wat ik begrepen heb is dat ze Michael Ambrash aangestrokken hebben voor driver ontwikkeling en uiteraard zooi anderen.
Wat deze man moet doen is niet alleen maar drivers maken maar drivers die software matig met specialistische hardware moet concureren. Gezien deze factor moeilijk is in te schatten. En voor games deze synthetische flop bench ook niet veel zegd. Dan wat groffe flops potentie.
Weten we eigenlijknog steeds te weinig.

Totdat die uitkomt en realgames gebenched zijn.
Daarnaast zal met elke driver release er ook performance stappen omhoog kunnen komen. Vooral omdat ze afhankelijkzijn van optimale emulatie van DirectX en openGL Driver implementatie.

Daarnaast behaald deze multi core zoveel flops doordat elke core 16 vectorunits heeft. Dat is iets wat andere x86 juist niet hebben. Op SSE-n+n1.... etc verschillen ze ook met gewone cpu's.
Voor 'n basic instructie set op x86 compile is het allemaal hetzelfde. Totdat je die vectorunit en GPU specifieke SSE extensies gaat gebruiken. Dan is het anders
ja maar het LIJKT niet zo indrukwekkend als je de cijfers puur gaat vergelijken
Vandaar het stukje ertussen ;).

Hoe zit het trouwens met de prijzen van dit ding?
Die laatste alinea heb ik nu ook wel 10 x gelezen en nog kom ik er niet uit.
Blijf dat gedoe hier met die : hoogst irritant vinden.

Die 993Gflops en 2700Gflops zijn weinig indrukwekkend tov 447 en 825gigaflops.

Is gigaflops anders dan Gflops?
Een Gflop is exact hetzelfde als een gigaflop, net zoals een km exact hetzelfde is als een kilometer. Het verschil zit 'em erin dat de gigaflops van Intel van een test vandaan komen (ook al is dat een synthetische benchmark en zit het er dik in dat ze, zonder publiek, een heleboek benches gedraaid hebben en alleen de beste laten zien), terwijl de gigaflops van ATI en nVidia een theoretisch (best-case) maximum zijn.
Het is niet helemaal hetzelfde, maar vergelijk het ongeveer met dit: een "gewone" auto kan, in theorie (perfecte weg, één inzittende, geen bagage, wind mee), maximaal 300 km/uur halen. Dan is het best indrukwekkend als een Ferrari 250 km/uur haalt (bergop, met een aanhanger erachter).
De kern van het verhaal is dit.

De theoretische GFlops van GPU zoals de oudgediende GTX285 is al veel hoger dan LRB. De 5870 is een heel stuk meer.
Maar in de synthetische bench wordt er meer uit LRB gehaald.
Dus deze synthetic praktische resultaat vs Theorie loopt extreem anders.

Maar kan zijn dat deze synthetische bench LRB prefereerd.

Totdat er echte games op draaien die meer FPS dan GTX285 halen.

Enige wat ik kan bedenken dat LRB sterk kan zijn een "GPGPU" toepassingen.
Maar nV Fermi is daar ook sterker op gericht.

Ben dus benieuwd.
En hoeveel Gflops heeft de HD 5870 dan in SGEMM? Iemand?
Ongeveer 1.8TFlops

Dit wilt zeggen dat de kaart bijna 2x zo snel is, maar niet dat ze 2x zo snel een beeld heeft berekend. Intern kan het perfect mogelijk zijn dat een ATI kaart voor een beeld op te bouwen 50% meer berekeningen nodig heeft dan nvidia. (Ik weet geen echte cijfers hierover, deze zijn maar een voorbeeld)
Die 1.8 zijn de theoritische waardes die AMD meegeeft. Rond de 600 GFlops is er gehaald in de SGEMM benchmark, waar ook deze waardes van Larabee vandaan komen.
there is post there saying this 'Anyways I've read that SGEMM on AMD/ATI 5870 has reached 67 % of theoretical performance.

This would mean that the 5870 is doing 0.67*2.72 TFLOPs ~= 1.8 TFLOPs on SGEMM. Almost twice the peformance of LRB.'

don't know if its true or note though
gerucht op gerucht. Niet echt betrouwbaar
"Radeon 5870 / FireStream 9370 should give out 600 GFLOPS in SGEMM benchmark but we don't know if that number is correct."

bron http://www.brightsideofnews.com (zelfde als artikel)
Gaat Intel dan toch echt met een betere processor komen dan de GPU's van AMD en Nvidia? Het lijkt me nog steeds niet echt mogelijk dat ze zo in een keer de gehele GPU markt op zijn kop zetten maar aan de andere kant als iemand in staat mag worden geacht zo iets te doen dan is het Intel wel. Met hun kennis op het gebied van halfgeleiders en chip design zijn ze in de unieke positie om echt een kans te maken op een groot markt aandeel in deze markt.
Vergeet niet wat ze met de ssd-markt gedaan hebben een jaar geleden. Intel kwam ook plots out of the blue met zijn x25 aanzetten die de concurrentie gewoonweg van tafel veegde op vlak van random read/write.
Onmogelijk is het dus zeker niet
Ja, maar een SSD bestaat uit een relatief simpele controller en een hele lading zo klein mogelijke flash-chips. Dat is heel wat anders dan de complexe GPU chips met miljarden transistoren waar jaren en jaren aan research en ervaring in zit.

EDIT: En vergeet niet dat Intel al jaren bezig is met microcontrollers en flash geheugen. Ze hadden alleen nog geen echte SSD zelf op de markt gezet.

[Reactie gewijzigd door Snoitkever op 3 december 2009 16:32]

Vergeet daarbij ook niet dat intel ook al wat jaartjes meespeelt op de CPU (en zelfs GPU) markt, en de larrabee toch aardig CPU-achtig is (ontzettende multicore).
Dat klopt, maar het is een grote gok van Intel. Ze gokken er op dat ze er mee "weg komen" als ze zoveel CPU elementen gebruiken in een GPU. Op zich is er natuurlijk een reden waarom NVIDIA en AMD dat nog niet hebben gedaan. We zullen zien of Intel de goede gok heeft gewaagd of dat ze probeerden teveel een CPU te maken.
Ze gokken er op dat ze er mee "weg komen" als ze zoveel CPU elementen gebruiken in een GPU. Op zich is er natuurlijk een reden waarom NVIDIA en AMD dat nog niet hebben gedaan.
Omdat ze (nVidia en ATI) nou eenmaal geen ervaring hebben met CPUs (en AMD pas sinds, relatief, kort ATI overgenomen heeft), zodat ze (net als Intel voor Larrabee moest doen), helemaal vanaf scratch een nieuw ontwerp zouden moeten maken.
Het is een radicaal nieuw ontwerp, er is maar één manier om erachter te komen of het een goed idee is: een bedrijf (in dit geval Intel) er een absurde hoeveelheid dollars aan op laten branden en dan in de praktijk kijken hoe het uitpakt.
Op de CPU markt is het zeker de grootste, maar op GPU-gebied lopen ze honderd jaar achter, als je ziet hoe bedroevend hun IGP's presteren t.o.v. de IGP's van NVidia en Ati.
en vergeet vooral niet het te besteden budget...
Voorlopig ligt AMD dan nog wel even voor 2700 GFlops = 2,7 TFlops, terwijl Intel er nu pas 1 heeft weten te behalen met een overclock...

(ok, ok, wel puur theoretisch, maar dat zijn de cijfers van Intel ook (geen real-world benches))

[Reactie gewijzigd door renskoenraadt op 3 december 2009 15:30]

Nee, dat is dus niet zo. Een HD 4870 / FireStream 9270 haalt in die benchmark 300gflops. Terwijl een HD 4870 in theorie 1 teraflop kan halen. De HD 5870 zou efficienter zijn, maar van die 2,7 teraflop blijft misschien de helft over in de sgemm-benchmark? Dat moet nog blijken.
Op google staat dat een HD5870 ongeveer 1,8 TFlops zou halen, dus ongeveer 2/3 van de theoretische snelheid en ruwweg het dubbele van de overclockte Larrabee.
Naar het schijnt zal de larrabee echter wel ontzettend schaalbaar zijn. Veel flexibeler dan SLI of Crossfire. (Enkel kaartjes bijprikken) (echter heb ik dit echter van horen en moet ik het eerst nog zien.)
Nee, dat ging alleen om schaalbaarheid van het chipontwerp. Ze kunnen vrij makkelijk cores toevoegen of weghalen om zo verschillende configuraties voor verschillende marktsegmenten te maken. LRB zal zeker in het begin absoluut geen multi-chip/multi-card rendering gaan ondersteunen, het driverteam is al druk genoeg met de drivers voor 1 enkele chip.
Jammer dat er SGEMM gedraaid is. Voor de huidige GPU's is bekend dat deze zeer goed zijn in single precision, maar de prestaties kelderen bij double, vaak blijft er maar 1/10e over.

Het zou interssant zijn om te zien hoe Larrabee omgaat met doubles, wat ik me van de architectuur kan herinneren (wat er tot nu toe bekend is) zou larrabee weinig prestaties moeten verliezen bij doubles.

[Reactie gewijzigd door knirfie244 op 3 december 2009 16:39]

SGEMM is enkele precisie, de dubbeleprecisievariant is DGEMM. Dat is inderdaad de meest gebruikte in HPC, maar de vergelijking met een GPU die vooral goed is in SGEMM is dan moeilijk te maken.
dan is fermi alsnog interessant.

aangezien DP daar ook flink snel is
alsnog denk ik dat voor mij (ik doe eel met rendering enzo)
LRB interessant is.

fryrender op Larrabee 8-)
Dit is een meer een beetje show off voor supercomputing e.d. Er is helaas nog niets concreets op de markt van Intels Larabee wat zelfs maar een beetje te maken heeft met super computing. GPU's worden ook zoiezo niet echt gebruikt daarvoor tot zover ik weet. Ik ben meer benieuwd naar real life computing scores als deze uit en dan vergelijken met overige gpu powered super computers
GPU's niet gebruikt voor supercomputing? De nieuwe serie van NVidia wordt er speciaal voor ontwikkeld (tesla) en in de top10 van supercomputers zit er één bij die zijn power haalt uit HD4870's! :D

zie hier

[Reactie gewijzigd door bwerg op 3 december 2009 17:07]

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True