Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Submitter: mieJas

Intel heeft zijn plannen om een losse videokaart op basis van Larrabee-technologie uit te brengen, op de lange baan geschoven. Het bedrijf wil zich voorlopig met name richten op de gpu's die het bedrijf in zijn nieuwste cpu's integreert.

Intel deed de uitspraak bij monde van pr-medewerker Bill Kircos. Volgens hem is het bedrijf momenteel meer gebaat bij de ontwikkeling van geïntegreerde graphics en hardware voor multimedia en mobiele technologie. Eind 2009 maakte Intel al bekend dat zijn eerste Larrabee-product was geschrapt en dat de hardware alleen als onderdeel van een software development kit zou worden uitgebracht, zodat ontwikkelaars kennis konden maken met de nieuwe architectuur.

Daar voegt Kircos nu aan toe dat het bedrijf 'in elk geval op korte termijn' geen losse videokaart zal uitbrengen. Volgens AnandTech kon de hardware van Intel simpelweg niet concurreren met de 3d-gpu's van AMD en Nvidia op het gebied van DirectX- en OpenGL-toepassingen. Wel heeft Intel nog altijd plannen om de geparallelliseerde x86-technologie van Larrabee voor zakelijke toepassingen als hpc te gebruiken.

Al vier jaar geleden verschenen de eerste berichten over Intels plannen om een op de x86-architectuur gebaseerde videochip te ontwerpen. De gpu zou uit een groot aantal cores worden opgebouwd en de concurrentie met de chips van Nvidia en ATI moeten aangaan. Het afgelopen jaar hield Intel vol dat de chip zou worden uitgebracht; het bedrijf liet zelfs wafers zien en demonstreerde vroege proefversies. Het lijkt echter onwaarschijnlijk dat de Larrabee-technologie nog in consumentenproducten zal verschijnen.

Moderatie-faq Wijzig weergave

Reacties (53)

Met x86 een gpu bouwen is zoiets als met gewone x86 processors een FPGA benaderen.

Een gewone (x86) processor is een Von Neumann machine met de typische fetch-decode-execute. Het kost enige tijd om door de vele stappen te gaan en instructies worden achter elkaar uitgevoerd. Je kan een gewone processor hoog klokken in de hoop dat het nog vooruit gaat.

In FPGA kan je poortjes aan elkaar hangen totdat je een schakeling hebt en je maakt er een hoop schakelingen naast elkaar. Aan elke schakeling kan je een inputwaarde geven en de output komt na het snel schakelen van de poortjes eruit. FPGA is niet zo hoog geklokt, maar je loopt niet in fetch-decode-execute rondjes en het is parallel.

Bij fetch-decode-execute rondjes heb je het gevaar dat er nog andere code uitgevoerd moet worden en je bent niet zeker dat de code dat je nodig hebt binnen de gespecificeerde tijd uitgevoerd is. Een integer aan een hoop poortjes plaatsen en je weet hoelang de schakeltijd is en je weet exact wanneer je het antwoord aan de uitgang hebt.

GPU's zijn van vaste schakeling tot programmeerbaar geëvolueerd. Lekker parallel en geen fetch-decode-execute rondjes.

Intel probeert dan toch nog fetch-decode-execute rondjes voor GPU te gebruiken. Verkeerde visie levert een dood geboren kind op? Tel dan nog de beroerde drivers voor Intel graphics die op papier niet zo slecht zijn.
Ben ik het toch niet helemaal mee eens... Ook een CPU is een serie schakelingen achter elkaar, die misschien iets minder lang is dan in het FPGA-voorbeeld, maar daarom ook sneller. Eigenlijk kun je je FPGA beter als CISC zien, terwijl de gemiddelde CPU RISC is. Fetch-decode-execute zul je toch moeten doen als je met grotere omgevingen werkt, en bij een CPU gaat het allemaal mooi achter elkaar de pijplijn in. Daarnaast zijn lineaire schakelingen misschien wel heel mooi om bepaalde taken uit te voeren (continue aanpassingen etc), maar voor bijvoorbeeld bestandsmanipulatie zijn ze minder geschikt.

ps. GPUs zijn wel degelijk Fetch-decode-execute ;) Hoe anders wou jij z-matrix-bewerkingen uitvoeren?
pps. Intel heeft 50% van de GPU-markt in handen... Ik denk niet dat je ze hoeft te vertellen hoe ze een chip moeten bouwen. Wellicht een high-end chip, maar dat is nooit hun doel geweest
En al vier jaar roep ik dat het Intel niet zomaar zal lukken om met hun radicale design de performance van AMD en nVidia grafische kaarten te benaderen, toch geloofden velen er heilig in dat Intel het wel even voor elkaar zou krijgen. Het is blijkbaar nog best lastig om een goede grafische kaart te bouwen!
Hoe kan iedereen dit nou weer mis lezen, conclusies van het bericht dat Larabee dood is klopt ook van geen kant.

Larabee 1 is mislukt en Larabee 2 is gecanceld en het hele ontwerpteam is op Larabee 3 gezet (Larabee 3 is nu 2)

Doel van Larabee is niet om ATi en NV te verslaan op GPU gebied (hoewel dat wel leuk bijkomstigheid zou zijn voor Intel), maar om een GPGPU te maken zo als Fermi, maar dan gebaseerd op x86 core en dus voor veel programmeurs makkelijker te begrijpen.

Intel heeft hier op ingezet, en heeft zich het als een echt doel voor zich zelf gezet, en heeft hier ook het geld voor de langen adem.
larabee werkt als massive paralism engine heel goed, maar als GPU is hij gewoon te duur voor de prestaties die hij (zou kunnen) bieden.
wat dat betreft lijkt hij idd veel op fermi, maar dan nog veel verder naar de GPGPU kant opgeslagen ten kosten van 3d performance/buck

probleem voor intel is dat GPGPU vooral interessant is omdat je iets dat je toch al hebt ineens kan gebruiken voor veel meer dingen.
larebee gaat het echter niet redden als stand alone videokaart en is daarom ook niet interessant voor GPGPU voor de consumenten markt.

het bedrijfsleven is wat anders natuurlijk, daar zie ik zeker een toekomst voor larabee. maar dat zal ook de enige plek zijn wat larabee met nv of ATI gaat concurreren voor de voorzienbare toekomst.

[Reactie gewijzigd door Countess op 26 mei 2010 13:41]

net als bij NV je verschillende GPU's kan gebruiken voor GPGPU zal je bij Larabee vast ook verschillende grote van core's hebben.

Meeste mensen vergeten dat naast hele goede hardware engineering, zo ook het beste x86 software compiler ontwikkelingsteam hebben dat er bestaat op het moment.

Dus als zij naar software ontwikelaars gaan, en dat maakt niet uit of dit nu voor game physics of voor simulatie software is, en zeggen hier is Larabee 3 uhh 2 hardware en hier is de compiler en lib's om gebruik van te maken, en Ooooooooooo hier is ook nog eens een zak met geld als het nodig is, wat denk je dat er gaat gebeuren?

Voor game physics zal een kleine versie zal voldoen, bij aerodynamica simulatie software voor een vliegtuig of zo zal men waarschijnlijk een grote multi GPGPU versie hebben.

[Reactie gewijzigd door player-x op 26 mei 2010 14:28]

mijn punt was eigenlijk dat larrebee gewoon te veel transistors kost per geleverd FPS zeg maar, en zich daarom niet zal kunnen meten met ATI of Nvidia op dat gebeid
en dat veranderd niet door de chip groter of kleiner te maken.

dat sluit larrebee gelijk uit van 99% van de consumenten markt, want extra insteek kaarten zijn weinig populair gebleken, zeker ook omdat een larrabee insteek kaart weinig extras zou bieden boven een GPGPU enabled videokaart, maar een hoop extra kosten met zich mee zou brengen.
... om een GPGPU te maken zo als Fermi, maar dan gebaseerd op x86 core en dus voor veel programmeurs makkelijker te begrijpen.
Wat maakt mij dat als programmeur uit: ik programmeer beide in (een variant van) C. Laat de compiler maar kijken wat hij er van maakt, daar hoef je je als programmeur niet druk om te maken. Code die niet parallel is opgezet zal op beide niet ineens magisch heel snel worden, ook al doe je een deel automatisch, dus je moet als programmeur toch anders denken.
Sure. En je compiler doet ook automatisch de handigste indeling in work units? Geheugenfetches? Zorgen dat je work units zo min mogelijk op verschillende manieren branchen omdat ze anders serieel worden uitgevoerd? Etc., etc. etc. Er zijn echt wel een boel verschillen tussen programmeren voor een GPU of een CPU, zelfs als je OpenCL gebruikt. Larabee ging over een heleboel in principe onafhankelijke x86 cores. Dat is toch echt een andere benadering dan wat je op NVidia en AMD GPU' s vindt.
Tsja, als je de termen van wat een overwinning betekend telkens bijstelt, verlies je natuurlijk nooit hé.

Larabee werd weldegelijk neergezet als de Nvidia en ATI killer: dé technologie die het aanzicht van de grafische kaarten markt voor altijd zou veranderen. Wel, dat is nu wel wat anders gebleken.
Maar in tegenstelling van nVidia, heeft Intel gewoon gezegd dat Larabee 1 gewoon is geflopt en door de dingen die ze hebben geleerd van L1 ze L2 hebben geschrapt en nu alles op L3 zetten.

Een ander voordeel van L2 te schrapen is dat de software geen rekening hoeft te houden met oudere ontwerpen, want L1 en L2 zijn een ander ontwerp dan L3
Ik ben er van overtuigd dat zodra Paul S. Otellini niet meer CEO van Intel is de Larrabee de prullenbak in gaat net als bij het verlaten van Craig R. Barrett de P4 de prullenbak in ging.

x86 en GPU c.q. vector besprekingen is IMO een verkeerde combinatie.

IMO zet veel te veel in op de x86 Paul S. Otellini. De Atom en de Larrabee die het afleggen tegen hun IMO betere concurrenten.
De Atom? Die legt het nergens tegen af, dat is 1 van de succesvolste Intel producten van de laatste 2 jaar!
Intel heeft gewoon domme keuzes gemaakt.

Als ze nou Imagination Technologies hadden overgenomen konden ze deze markt makkelijk instappen.

Zelfs Nvidia kopen is een optie maar ze doen het niet terwijl ze het geld wel hebben.

Ondertussen pompen ze geld in het Larrabee project.
Zelfs Nvidia kopen is een optie maar ze doen het niet terwijl ze het geld wel hebben.
Weinig kans dat die overname goedgekeurd wordt door de US-FTA, EU mededingingsautoriteit etc. Die bui zien ze zelf ook wel hangen.
Ik denk ook niet dat nVidia dat zelf ziet zitten, ze hebben zich behoorlijk tegen Intel gekeerd en zelfs een heuse online comic erover hen gemaakt:

http://www.intelsinsides.com/page/home.html

Naast de website die meer info biedt over de anticompetatieve dingen die Intel zoal doet:

http://www.nvidia.com/object/nv_ftc.html

Die twee samenvoegen lijkt me dus echt een "recipe for disaster". :P
Geld voor de lange adem, ja, dat wel. Maar Larrabee werd tijdenlang gebracht als de grote winnaar in de strijd die AMD en Nvidia nu al jaren voeren. Allemaal grootspraak dus. Ze kunnen het duidelijk niet waarmaken.
Volgens mij was de grootste reden voor het vertrouwen dat Intel er zoveel geld en mankracht tegenaan smeet. Blijkbaar is dat niet altijd genoeg, en daar waren inderdaad ook van te voren al redenen voor te bedenken. Ze hebben er gewoon weinig ervaring mee - met graphics en ook met de enorm snelle ontwikkelingen op dat gebied - en ervaring koop je niet zomaar.

... Tenzij je een zeker graphics bedrijf opkoopt, zij het voor heel veel geld... ;)

Als Intel AMD daar te snel mee af was, weet ik niet hoe de toekomst er voor AMD had uitgezien.
... Tenzij je een zeker graphics bedrijf opkoopt, zij het voor heel veel geld... ;)
Dat heeft Intel ooit gedaan met Chips and Technologies dat zeker geen slechte GPU producent was. Waarna ze met de i740 op de proppen kwamen, die zwaar onder de maat van Chips and Technologies was.

Mijn gevoel zegt dat als Intel ooit op de GPU markt wil doorbreken (zonder de huidige koppelverkoop) zullen ze waarschijnlijk een afdeling moeten starten die helemaal autonoom mag en kan opereren zonder bemoeienis van de CPU afdelingen.
Intel is al de grootste speler op de GPU markt, puur en alleen op de integrated graphics. Ik denk dat veel Tweakers zich verkijken op het feit dat losse VGA kaarten helemaal niet zo'n ubergrote markt is in vergelijk met het totale PC aanbod. Dus doorbreken hoeven ze niet meer te doen.

achteraf bekeken was het een goede zet dat AMD ATI heeft gekocht, deze 2 partijen hebben elkaar in leven gehouden, houden ze Nvidia op gepaste afstand en weten ze nog enigszins tegenwicht te bieden aan het totale Intel aanbod.

Voor de concurrentie hoop ik echter dat Nvidia niet ondergaat, de chipset markt zijn ze flink op achteruit gegaan en als ze niet bijblijven op de VGA markt, zie ik het donker voor ze in en zal wss ook de innovatie op deze markt snel inzakken.
Ik denk dat het intel best zal lukken alleen is het simpel een koste bate analyse.

Men heeft nu al een groot aandeel in deze markt. Als ze als 3de aanbieder in de ati en nvidea markt komen zet dat de prijzen onder druk en kunnen ze hun investering misschien niet terugverdienen.

Intel heeft veel goed winstgevende andere producten, cpu's en ssd dus waarom investeren in een markt waarbij het maar de vraag is of ze er geld uit terug gaan zien.
LRB is niet helemaal van de baan. De huidige versie is van de baan. Maar een nieuwe LRB3 wordt niet uitgesloten. (die zou dan LRB2 gaan heten maar dat is eigenlijk al de 3e versie)
Het lijkt dan ook meer een strategische en marketing-technische keuze te zijn om de Larrabee-GPU nog niet in een daadwerkelijk product om te zetten. Intel doet het goed met de Atom-reeks en kan waarschijnlijk nog genoeg interesses wekken voor deze reeks, door de grafische functionaliteiten meer uit te breiden. Wat dat betreft zou Intel dus kunnen hebben besloten om de Atom-reeks nog door te ontwikkelen, totdat er niets meer in het vat zit. Dit zou ook meer samenvallen met de trend die bij AMD te zien is, waarbij processor en GPU samen verpakt worden.

Intel zegt verder in de blogpost dat zij het uitbrengen van een discrete GPU op de lange baan hebben gezet. De titel van dit nieuwsbericht is dan ook meer suggestief, door te spreken dat de Larrabee-GPU echt van de baan lijkt. Verder spreekt Intel in hun blogpost over dat zij "key product milestones" missen. Dit lijkt dan ook te wijzen op het feit dat Intel de Larrabee-GPU nog niet vindt passen in hun huidige productaanbod.

En als laatste: de blogpost wordt natuurlijk niet voor niets door de PR-director geplaatst ;)
Klopt. De huidige versie zou niet goed genoeg mee kunnen komen. Daarnaast zullen ze ook nog veel werk aan de drivers hebben aangezien dit toch heel wat anders is dan de IGP's die ze nu gebruiken.

Maar in de toekomst kan het wellicht wel interessant zijn. Ze weten ongeveer ook in wat voor een stappen de GPU's van de concurrentie sneller worden. Want dat is bijna altijd een performance verdubbeling per 1,5-2 jaar.

Daarnaast was 45nm nog niet klein genoeg. 32nm en kleiner maakt het ook makkelijker om meer LRB cores op een kaart te zetten.
Dat klopt maar de concurentie gebruikt de zelfde verkleining van de productie ook om meer cores op de processor te plaatsen.
Intel had die plannen gewoon moeten opschorten. Het gaat gewoon nergens over. Het komt ook niet geloofwaardig over als je het zolang uitstelt. Van uitstel komt immers afstel.
Hmm, ik geloof toch eerder dat Intel donders goed weet wat ze doen, aangezien zij al een aantal jaartjes actief zijn in chip-land, dus aan je statement hecht ik verder weinig tot geen waarde.

Het punt dat een ontwerp niet in productie komt wil absoluut niet zeggen dat het verloren moeite is, nutteloos en meer van die soort kreten.

Fabrikanten testen vaak nieuwe ideeen door prototypes te maken, testcases, designstudies, etc. De meest prachtige en innovatieve wagens kun je zien op auto-salons, maar slechts een enkele komt (in die vorm) tot productie. Wat je ziet zijn ideetjes, en met een show wordt de reactie dan getoetst bij het publiek.

Wat Intel uit Larabee heeft geleerd, zal vanzelf terugkomen in de GPCPU modellen van de toekomst.
Het feit dat ze al jaren actief zijn in chipland wil nog niet zeggen dat je alles weten en kunnen voorspellen.
Ze zijn ook jaren actief geweest in de ARM architecteur Xscale en dit is ook niet het succes geworden. Ze zouden het wel in x86 oplossen. Toch duurt het nog jaren voordat ze met Atom in de buurt komen.
Ook hebben ze al miljarden in de Itanium gestopt maar dat heeft ook nog niet gebracht wat ze daar van gehoopd hebben.
Wellicht gaat Larrabee zelf het levenslicht niet zien (ook editie 2 niet), maar de geleerde lessen over parallellisatie zal men bij Intel echt niet vergeten. Ik verwacht ook dat het een en ander terug gaat komen zodra de volgende generatie Atoms opduikt, gewoon omdat ook daar heel veel cores gecombineerd gaan worden (gokje : 4 'CPUs', en een stuk of wat GPU-achtige dingen... wellicht al gedeeltelijk cross-over, hoewel dat ook door de software afgehandeld kan worden.
Daarnaast : waarom zou men vanuit GPU-land concurreren (waar intel 50% van de markt heeft, be it bottom), als ze op CPU-gebied weinig te vrezen hebben? Zodra de software er geschikt voor is, vermoed ik dat er gewoon 32 Atom-cores op 1 die geplakt worden, dat geeft ook veel processing power ;) Something quite, but not entirely unlike Larrabee.
Het team achter Larrabee is voor een groot deel onder de IGP-tak geplaatst. Intel wil daar een stuk meer mankracht in steken. Geen idee als we hoge prestaties mogen verwachten. Om met de grote jongens mee te kunnen, zal er veel meer bandbreedte moeten beschikbaar zijn naar die IGP. Dit wil zeggen dat er minder PCIe-lanes naar de overige plaatsen op het mobo kunnen gaan. Tenzij Intel de lanes op hun CPU's verdubbelt, maar dan zit je ook weer met een heel wat complexere en duurdere chip...
Het grote probleem bij de afweging voor en tegen Larrabee is: kun je met x86 architectuur de dedicated GPU's zo na komen dat de lagere ontwikkelingskosten die de bekende architectuur met zich meebrengt de lagere efficiency van de architectuur voldoende compenseert. Dan heb je die extra rekenkracht ook vrij voor andere dingen en zelfs als de oplossing niet zo krachtig is als de dedicated grafische kaarten is hij voor velen goed genoeg.

Gekoppeld aan de grotere bekendheid en efficiency van de compilers en een leuk budget om je processors, inclusief grafisch deel, verder te ontwikkelen kun je het dan toch heel goed winnen. Zie de x86 - RISC oorlog, waar de laatste efficienter zouden zijn, maar het toch niet gered hebben. Natuurlijk waren daar de issues met progerammeerbaarheid belangrijker, maar iets dergelijks zou hier op den duur ook kunnen.

Als over een paar jaar mijn intel i-zoveel mijn desktop, videos en b.v. CAD en WoW leuk draait, dan hoef ik geen aparte kaart.

Op korte termijn hoop ik daar echter op betere en economischer oplossingen van AMD.
jammer, had er wel veel van verwacht, leek me leuk om een 3e grote speler op de mainstream CPU markt te hebben.... en dan niet met integrated gpu's. ging ook al weer positiever zijn voor de concurrentie !
Dit nieuws is toch al een half jaar oud ?

Intel kondigde al eerder aan niet verder te ontwikkelen met Larabee met als argument dat het commecieel nog niet haalbaar zou zijn en ze geen interesse hadden een SDK en overige ondersteuning te moeten verlenen aan kaartbouwers.

Dat begreep ik tenminste. Wazig dit dit nu hier pas opduikt.
Misschien een beetje off topic, maar ik ben een erg tevreden gebruiker van de on-board grafische eigenschappen van de intel i3!
Inderdaad off-topic. Maar kijk die i3 dingen, nah dat lijkt me niets. Ik hoop dat er ooit nog eens dikke performance van komt. Misschien met Llano.
Wat is dikke performance, je kan natuurlijk nooit verwachten dat zo een integrated chipje ook maar een beetje in de buurt komt van een dedicated oplossing. Voor huis tuin en keuken gebruik is het al voldoende :9

Verder jammer dat intel hiervan afziet, had graag wat meer concurrentie gezien nu Nvidia het allemaal niet meer zo bij lijkt te benen. Elke concurrent is er weer een

[Reactie gewijzigd door Wlie op 26 mei 2010 13:06]

Nou, zeg dat maar niet te hard, de IGP die waar AMD nu mee bezig is voor de volgende generatie GPU's lijkt qua specs gewoon een mid-range GPU te worden (in plaats van de 80 shader van de huidige AMD IGP's, 480 shader cores). Intel heeft nu net de grote achterstand van hun IGP's goed gemaakt met de core i's, maar dat gat zal dan gewoon weer terugkomen.
480 is al lang niet meer mid-range, de HD5770 bijvoorbeeld heeft er al 800. En tegen de tijd dat Fusion er is (eind 2011), zitten we minimaal 1½ generatie verder en is zelfs 800 shaders waarschijnlijk alweer low-end.

Als je een beetje logisch nadenkt kan je ook gewoon nooit een high-end GPU en high-end CPU integreren. Een beetje mid-end GPU gebruikt al snel 100W, de high-ends nog een factor 2 meer. Dat valt nooit te integreren op een CPU die zelf ook al 100W verbruikt.

[Reactie gewijzigd door knirfie244 op 26 mei 2010 14:55]

Als je een beetje logisch nadenkt kan je ook gewoon nooit een high-end GPU en high-end CPU integreren.
Echter geloof ik er wel in dat het dichter bij de CPU brengen van de GPU wel positief kan zijn. Maar je hebt gelijk, de warmteproductie van de CPU en de GPU bij elkaar en de kosten van het maken van een grotere chip (lees: meer risico op uitval) wegen niet op tegen het gebruiken van 2 losse onderdelen.
High end CPU en high end GPU niet nee. Maar wat is een highend CPU? Een i7? Of een Power6? Beide zijn in ieder geval veel sneller dan een i3. Toch kopen meer mensen een i3 dan een Power6.....

Er is vraag naar high end CPUs en GPUs, maar veel meer naar low/mid end CPUs en GPUs En die kun je waarschijnlijk wel integreren. Voor de 10% mensen die graag een snelle GPU heeft blijven er losse GPUs maar de rest gaat gewoon over op IGPs. Nu de i3, over een tijdje de i5 en uiteindelijk vast ook de i7. En hopla, Intel drukt nVidia bijna compleet het graf in.
Over dat concurrentie gedoe, ATI is toch echt van AMD.
En dus gaat het nog steeds tussen Nvidia en AMD.
Maar AMD concurreert op de IGPmarkt net zo hard met Intel. Dat is de grote speler op de IGPmarkt en AMD heeft ook daar een paar erg leuke chipsets (de 785G bijvoorbeeld).
Toch wel, je ziet tegenwoordig heel vaak dat laptops (dus niet netbooks en ultra-portables) een Mobility HD 5xxx hebben. Intel zit dan meestal in de goedkope variant.

edit: typo

[Reactie gewijzigd door Br4mmie op 26 mei 2010 17:10]

Ze concureren met zowel intel als nvidia!
Je moet je afveagen hoeveel % van de gebruikers een echte snelle videokaart nodig heeft. Je hebt hem nodig voor het spelen van spelletjes dat is het enige.

Voor de zakelijke markt heb je ze niets nodig en veel consumenten spelen ook geen spelltjes op hun pc of hebben er gewoon een xbox, ps3 of nintendo voor.

Heb zelf ook pc's met ingbouwde gpu en voor normaal werk zijn ze snel genoeg. Met de vraag naar steeds zuiniger zijn ze dat ook, zeker in vergelijking tot een dedicated 3d kaart.

Intel heeft als je naar de cijfers kijkt al het grootste aandeel op de gpu markt en op zich is het geen onverstandige keuze die ze nu doen.
Ook het decoderen van video (h264) zonder dat je CPU hoeft te lopen zweten is mooi meegenomen, en steeds meer software (je browser bijvoorbeeld!) is in staat om gebruik te maken van de kracht die een grafische kaart bied.
Maar alle huidige IGP's doen ook H.264 decoding: de meegebakken gpu in de Clarkdales, de 785G van ATi en de ION/9300 van nVidia, dus daar hoef je het niet voor te doen.
Photoshop kan gebruik maken van hardware versnelling ;)
Oh nee? AMD wil in zijn Fusion chips namelijk 480 stream cores bakken. Dan hebben we het gewoon over een integrated HD 5670.

Zeker als dergelijke performance in laptops ook mogelijk zou zijn dan staat dat gewoon keihard gelijk aan de huidige top van mid-range laptop kaarten van ATI.

[Reactie gewijzigd door GENETX op 26 mei 2010 13:12]

Nou, je gaat lachen als AMD komt met hun Integrated chips. Ik heb wat specs gezien en die zijn echt niet langzaaam hoor. :p

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True