Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties
Submitter: schumiintel

AMD heeft het eerste die-shot van zijn Llano-apu getoond. De chip krijgt naast vier x86-cores ook 480 streamprocessors, maar geen L3-cache. Llano wordt op 32nm geproduceerd, zal uit ongeveer 1 miljard transistors bestaan en in 2011 uitkomen.

AMD FusionDe eerste accelerated processing unit of apu van AMD bestaat uit een processor met een architectuur die lijkt op die van de Phenom II. Ook is er een grafische core aanwezig met zes simd-engines, waarbij elke engine 80 streamprocessors bevat, wat het totaal op 480 zet. De videochip zal DirectX 11 ondersteunen en gelijkenis vertonen met de Evergreen-gpu die momenteel voor de Radeon HD 5800-kaarten gebruikt wordt, al is deze volgens 40nm-procedé geproduceerd, terwijl Llano op 32nm wordt gebakken.

In tegenstelling tot wat eerder gedacht werd, bevat de apu geen 4MB L3-cache, maar slechts 2MB L2-cache, oftewel 512kB per core. Dit is waarschijnlijk gedaan om kosten te besparen. Llano zal deel uit gaan maken van het eerder genoemde Sabine-platform voor notebooks en gecombineerd worden met de AMD 900-chipset, die onder andere usb 3.0- en sata 6Gbps-ondersteuning krijgt.

Bij desktops wordt Llano onderdeel van het Lynx-platform voor mainstream-desktops, zoals eerder al bekend werd. Volgens AMD ligt de ontwikkeling van Llano op schema en zal deze volgens planning in 2011 uitkomen. De high-end-markt voor desktops moet tegen de tijd bediend worden door Scorpius; dit platform zal uit Zambezi-quadcores en octocores op basis van de nieuwe Bulldozer-architectuur bestaan. De Zambezi's, die ddr3 ondersteunen, kunnen op moederborden met een AM3-socket geprikt worden.

Na Llano zal er jaarlijks een nieuwe apu komen, belooft AMD, en dit streven is onderdeel van de strategie die het chip-bedrijf 'Velocity' noemt. Dit is de tegenhanger van Intels tick-tock-strategie, maar AMD richt zich op de jaarlijkse gpu-vernieuwingscyclus. Hoewel de cpu-architectuur van de Fusion-apu's niet elk jaar hoeft te veranderen, zal het gpu-onderdeel dat dus wel gaan doen.

AMD Fusion AMD Fusion AMD Fusion AMD Fusion AMD Fusion AMD Fusion AMD Fusion
Moderatie-faq Wijzig weergave

Reacties (82)

Als ik naar de die shot kijk, zou ik zeggen dat deze chip 1 MB L2 cache CPU core heeft. Anders moet je maar even naar de die shots kijken van Propus (Athlon II X4) en een Athlon II X2: http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3638 (in het midden van de pagina)
Dat komt dus neer op in totaal 4 MB aan L2 cache per chip. Waarschijnlijk is dat ook waar die speculatie van '4MB L3 cache' vandaan komt.
Zo Zo, amd is goed bezig. Ze lopen volgens mij toch wel aardig in op Intel en zijn Nvidia al voorbij. Als AMD dit volhoud zullen ze ongetwijfeld flink wat marktaandeel afsnoepen van zowel intel als nvidia. Nu nog een "consument-vriendelijk" prijskaartje en ik ben helemaal blij :)
AMD/ATi is als het aankomt op de mainstream markt al een tijdje marktleider de beste keuze qua bang-for-your-buck. Nvidia en Intel scoren nog altijd beter met de top gpu's en cpu's, maar de midrange markt (wat de grootste markt is), is qua prijs/kwaliteit al een aantal jaartjes in handen van AMD. Het is alleen zo jammer dat het grote publiek AMD/ATi toch nog altijd als 'budget-merk' ziet. Die ouwe van mij wil bijvoorbeeld bij voorbaat geen AMD... want 'dat is niet zo goed' zegt een collega :S Zo ken ik er meer die zonder goede onderbouwing, spullen van AMD/ATi al bij voorbaat afschrijven omdat de kwaliteit minder zou zijn.

edit: domme woordkeuze :)

[Reactie gewijzigd door MicGlou op 12 november 2009 19:20]

Kom kom. Voor de zakelijke markt is intel al jaren de beste keus qua IGP, laptops = intel, 1/2 weg servers ook intel, highend desktops: Intel. Netbooks? Enkel in de low tot midend desktops (en de paar 8-weg servers die per jaar verkocht worden) heeft AMD op CPU gebied op dit moment een goede deal. Maar de conclusie moet zijn dat voor heel veel marktsegmenten Intel gewoon de beste optie is. Ja, in de midrange desktop markt kan AMD concurreren, maar de gevolgen voor de winstcijfers zijn bekend. Het lijkt me niet dat AMD blij is met de marge die ze op de CPUs maken. De Intel chips zijn simpelweg te krachtig waardoor Intel ongestoort de markt af kan romen met snelle i7s en xeons en AMD kan enkel toekijken.

Qua discrete GPU lijkt AMD wel degelijk de beste prijs/prestatie te hebben, maar nVidia heeft toch nog het overgrote deel van die markt in handen, blijkbaar zijn de deals die nVidia met OEMs afsluit toch nog aantrekkelijker. Lastig te bepalen waarom de goede reviews van de 4xxx en 5xxx series niet goed in marktaandeel kan worden omgezet.

Dat AMD als budget merk gezien wordt is jammer maar helaas. AMD is natuurlijk ook begonnen als budget merk (goedkope i286 chips produceren zonder R&D maar met een licentie van Intel) en de kwaliteit van met name de K5/K6 was nou niet echt fantastisch.

AMD heeft dus als (ex) b-merk de uitdaging om hun producten steeds hoger in de markt te positioneren. Met de opteron is dat goed gelukt en AMD wordt nu weer een stuk serieuzer genomen dan in de K5/K6 tijd. De problemen met de Phenon (vertraagd en buggy) heeft de zaak dan weer geen goed gedaan net als het feit dat AMD nu qua prestaties achterblijft bij Intel. Maar goed, er zijn genoeg voorbeelden van bedrijven die van b-merk groeien naar een a-merk imago (bv samsung) maar ik denk dat AMD op dit moment niet zozeer aan hun imago denkt. Eerst maar eens de CPU divisie winstgevend maken en wat aan het marktaandeel van de GPUs doen.
Lastig te bepalen waarom de goede reviews van de 4xxx en 5xxx series niet goed in marktaandeel kan worden omgezet.
de 4xxx serie komt omdat nvidia er voor heeft gekozen om marktaandeel te kopen door (bijna) geen winst op hun eigen GPU's te maken (waardoor de veel te hogen productie kosten van die GPU's niet zichbaar waren voor de consument) . de 5xxx serie is nog niet lang genoeg uit om al in de marktaandeel cijfers terug te komen.

[Reactie gewijzigd door Countess op 13 november 2009 09:10]

Tja, als grote pc en laptop leveranciers alleen maar deals sluiten met intel en nvidia, zoals jaren gebeurt is, dan is zo een groot marktaandeel gewoon een logisch gevolg.

En doordat elke kantooryup met een intel of nvidia machine werkt of kado krijgt bij zijn baan...tja...die gaat thuis geen amd/ati meer aanschaffen.

Als ik zelf een pc in elkaar zet, kijk ik altijd naar prijs/kwaliteit verhouding: ik draai al jaren een intel-cpu, maar eigenlijk alleen maar ati kaarten, vanwege de bang for buck. Steeds weer weet na een paar maanden ati Nvidia te overtroeven door hun lagere prijzen.
Waarvan? Van "marktleider" of van de perceptie als "budget-merk"? Van dat laatste is moeilijk een bron te geven, maar ik merk soms ook dat mensen (niet-tweakers) bij een keuze vaak toch voor Intel kiezen. Dat kennen ze van TV, "Intel Inside", en hoewel AMD ook reclame maakt zit de naam Intel toch bij veel mensen ingebakken.
Marktleider was geen beste woordkeuze van mij, beter gezegd: als het aankomt qua bang-for-your-buck is AMD al een aantal jaren niet te verslaan, maar helaas wil men gewoon niet aan AMD vanwege een zeer misplaatste slechte naam die het heeft bij computer-noobs.

Ik bouw en onderhoud regelmatig systemen voor familie, vrienden en bekenden en ik kan maar zeldzaam een AMD cpu slijten aan die mensen. Ik begin altijd met het voorstellen van een AMD systeem, want ik wil de meeste prestatie voor het minste geld. Helaas is het 9 van de 10 keer direct nee, want collega X en vriend Z vinden AMD niet goed, dat is goedkope troep... Ik durf dan niet eens meer door te zetten om ze over te halen toch voor AMD te gaan, want ik heb al een aantal keer gehad dat men daardoor gewoon een ander zoekt. Heb ik zelfs al eens gehoord; want een Pietje zegt dat Intel beter kan overklokken, dat is echt veel beter... 8)7 Maar wat overclocken nou precies is weten ze niet |:( Laat staan dat ze er ooit iets mee (kunnen) doen.

Normaal gesproken zit het budget zo tussen de €600,- en €800,- waarvoor ik een systeem mag bouwen, dan heb je in alle gevallen van AMD/ATi altijd een beter systeem dan met spulletjes van Intel & Nvidia. Probeer dat maar eens uit te leggen aan iemand die totaal geen verstand heeft van de techniek en met vreselijke opmerkingen komt opgepikt van mensen uit hun omgeving... :'(

[Reactie gewijzigd door MicGlou op 12 november 2009 20:35]

Is het jouw primaire inkomen of is het naast je standaard inkomen? Wanneer het jouw primaire inkomen is, is het een beetje lastiger. In onderstaand verhaal ga ik uit van het andere.

Ik heb altijd computers gebouwd omdat ik daar een leuk extraatje voor kreeg en het gedeeltelijk deed voor 'die ander'. Als iemand in die situatie aan mijn expertise gaat twijfelen is het heel simpel; toedeledokie.

Serieus; als ik voor iemand een computer moet bouwen en iemand zonder kennis denkt mij de les te kunnen leren over iets wat die van iemand anders gehoord heeft, laat die ander het lekker bouwen. En dat is echt niet alleen met computers zo. Als iemand die stelling heeft ga ik graag in discussie met die personen, en zelfs met de personen waar ze het van gehoord hebben. Maar het laatste wat ik in die gevallen zal doen is zo simpel toegeven. Ok, toegeven wil ik nog wel eens doen, ik weet ook niet alles, maar op die manier?

Qua advies ben ik niet merkgebonden (dat is bijna het slechste wat je in de computerwereld qua advies kan doen). Er is een periode geweest dat ik C2D's heb gepromoot, Q6600's en nu weer X3's. Maar om nou, wanneer iemand advies vraagt aan mij, het 'advies' van juist diegenen te volgen is een beetje crux

[Reactie gewijzigd door three2five op 13 november 2009 01:17]

AMD/ATi is als het aankomt op de mainstream markt al een tijdje marktleider.
Bedoel je die 35% (AMD) vs 64% (NVIDIA) marktaandeel in discrete GPU's, het 27.4% (AMD) vs 72.2% (Intel) in desktop CPU's, of de 11.9% vs 88% in mobiele CPU's? Want ik zie weinig marktleiderschap om eerlijk te zijn. En wat betreft je claim op "mainstream markt", met dergelijke cijfers is of je claim onzin, of jouw definitie van "mainstream" heel beperkt ;)

[Reactie gewijzigd door Snoitkever op 12 november 2009 18:07]

[...]

Bedoel je die 35% (AMD) vs 64% (NVIDIA) marktaandeel in discrete GPU's, het 27.4% (AMD) vs 72.2% (Intel) in desktop CPU's, of de 11.9% vs 88% in mobiele CPU's? Want ik zie weinig marktleiderschap om eerlijk te zijn. En wat betreft je claim op "mainstream markt", met dergelijke cijfers is of je claim onzin, of jouw definitie van "mainstream" heel beperkt ;)
Hij bedoelt wsl qua prijs/prestatie -verhouding, en niet de echte marketing-cijfers. Daar gaat de rest van de discussie ook over ;)

Ik geef ze daar boven overigens ook groot gelijk. Ik kan echter een "klant" volledig ompraten als het daarom gaat. Ik promoot AMD ook echt heel erg veel, gewoon omdat het cheap, zuinig, en meer dan genoeg prestatie biedt voor een simpele en/of een gamePC.

Als er echter gevraagd wordt naar het snelste van het snelste, dan is de Core i7 toch echt de winnaar. Ik wordt hier alleen nooit voor gevraagd, dus het is altijd AMD voor mij ;)
Bedoel je die 35% (AMD) vs 64% (NVIDIA) marktaandeel in discrete GPU's
Waar haal je dit vandaan?

Ik kan alleen deze link vinden, geeft alle GPU's weer inclusief IGP's..
http://digital.venturebea...aphics-chip-sales-boomed/

Op zich is dit een zorgwekkende ontwikkeling. Als de Larrabee van Intel een succes wordt en NVidia nog meer marktaandeel verliest zouden AMD en Intel zo goed als de enigste leveranciers van PC chips kunnen worden. Waardoor het risico van prijs afspraken ontstaat. Daar zouden ze namelijk beide bij gebaat zijn.

[Reactie gewijzigd door worldcitizen op 13 november 2009 10:35]

De John Peddie Research Q2 2009 AIB report samenvatting, en wel hierzo: http://jonpeddie.com/publications/add-in-board-report/
Yep maar heb toch steeds meer het gevoel dat de PC gamers markt aan het dood gaan is. Een aantal jaar geleden geloofde ik dat nooit als iemand dat zei. Maar ik zie het nu toch wel voor m'n ogen gebeuren. Dus de markt voor snelle grafische kaarten wordt erg snel kleiner. Dus dit soort integrated opties zijn dus de toekomst. En dan heeft AMD het helemaal niet slecht gedaan door ATI over te nemen.

Maar ik denk dat ze zich toch meer druk moeten gaan maken en gaan vechten voor de console markt. Dat zullen ze op de achtergrond overigens vast wel doen.
Of de PC game-markt nou minder wordt of niet, in consoles zitten ook GPU's en die moeten ook ergens vandaan komen natuurlijk.
Ja, maar hoe denk je dat die ontwikkeld worden? Ati en Nvidia hebben niets aan een nieuw ontwerp iedere 5-6 jaar voor apparaten die ook zo lang mee moeten gaan. Ze moeten een geleidelijke markt hebben die iedere 12-18 maanden klaar is voor een nieuwe generatie en iedere 3-4 jaar voor een upgrade.

Zo niet dan komen ze in de problemen wanneer hun eerste productiemodel in 6 jaar gebaseerd moet worden op technologie die 6 generaties verder is dan hun vorige model. Daarbij zullen ze veel minder geld gaan verdienen, want een deal met MS, Sony of Nintendo zal nooit zoveel opleveren als meerdere deals met computerfabrikanten + losse verkopen. Ook gezien het feit dat consoles niet na 3-4 jaar een GPU upgrade vereisen, maar pas na 5-6 jaar vervangen worden.

Nee het lijkt me heel lastig om de console-markt te bedienen zonder de geleidelijke ontwikkeling voor de PC-markt.
Denk dat ze blijer zijn met eens per 6 jaar nieuw architectuur ontwikkelen en al die tijd gewoon te verkopen, dan elke 12 maanden R&D kosten maken om niets nieuws neer te zetten wat over 12maanden weer vervangen moet worden.

Gaat ATI en Nvidia niet om het ontwikkelen, maar om het geld. Stel dat er net zoveel console zijn als pc's dan doen ze denk liever zaken met de console markt. En elke console heeft een gpu van ATI of Nvidia, pc hebben dat niet, meeste pc's hebben een intel oplossing.
als je een PC wil waarop je wilt gamen, dan zit je bi nvidia en ati...
Je snapt de post van Mad_max234 volgens mij niet. Hij bedoelt dat tegenwoordig vrijwel elke "betaalbare" pc een intel IGP bevat ipv een losse videokaart van bijvoorbeeld Nvidia of ATi. Ook de IGP's van ATi of Nvidia kom je niet eens zo heel gek veel tegen.
Inderdaad een echte game bak zal een Nvidia kaart of ATi kaart bevatten, maar die worden bij lange na niet zoveel verkocht als consoles waar ook een ATi (xbox) of Nvidia (ps3) GPU in zit.

Dus ik denk dat zowel ATi en Nvidia er inderdaad meer aan hebben om gewoon een leuk GPUtje te ontwerpen voor een console en deze 6 jaar lang te blijven gebruiken.
Uiteraard zullen ze in die theoretische 6 jaar het design nog wel iets aanpassen en een of twee keer een die-shrink uitvoeren om het allemaal wat energie zuiniger te maken, maar heel veel R&D kosten zullen ze niet hebben. Meer winst dus. :)
Hoe dan ook zal de pc markt nooit verdwijnen.

Daar je dit soort dingen niet alleen kan gebruiken voor games maar ook voor veel meer andere en nuttige toepassingen.

Anders dan dat zullen er altijd games blijven die op een console gewoonweg niet speelbaar zijn.

Noem een game zoals Silent Hunter of een Total War of een andere game met veel input.

Consoles zijn goed voor de games met weinig input maar zodra je veel functionaliteiten tegelijkertijd dient te bedienen valt het voordeel van de console weg.

Call Of Duty is bijvoorbeeld een prima console spel.

Rennen/ lopen
Links / Rechts / Naar voren / Naar achteren
Schieten
Scope / No scope
Wapen wisselen
Granaat
Dat niet alleen maar ik vind de grafische weergave van een console ook een stuk minder.

En COD vind ik geen console spel, want ik kan echt niet mikken met die joystick zoals ik dat met de muis kan doen.

Ik vind een console leuk voor voetbal en racespellen, die je tegen elkaar kunt spelen op de televisie, maar een beetje veeleisende gamer die vooral shooters speelt zal toch al snel bij de PC uitkomen.

De consoles hebben nu even het voordeel van de prijs (je hoeft niet elk jaar een nieuwe videokaart te kopen) maar de ontwikkelingen op PC gebied gaan zo snel, ik denk dus dat de PC vanzelf wel weer populairder zal gaan worden, zeker met het soort technieken waarbij geen losse videokaart meer nodig is.
Natuurlijk zijn consoles inmiddels weer grafisch minder, dat heb je wanneer hardware niet vooruit gaat, maar het voordeel is wel dat daardoor de hardware kosten omlaag gaat. Toen ik mijn systeem pas geleden in elkaar zette, koste mij dat zo'n 800 als ik de monitor en OS niet meereken, mijn 360 Pro was 177,50 (met 2 spellen destijds bij een actie van Intertoys) en mijn PS3 60GB 180,- (met Infamous bij Bart Smit), als je die prijzen vergelijk met een systeem van 800 dan mag het ook wel grafisch minder zijn.

Nou weet ik alle verschillen wel, maar het simpele feit is dat consoles veel goedkoper zijn en met de komst van HDTV's enz. lopen consoles niet zo enorm ver achter, de hardware mag inmiddels een stuk ouder zijn, maar 1 worden spellen "perfect" daarvoor geprogrammeerd (ik weet nog dat Test Drive Unlimited perfect op de 360 liep terwijl mijn broers computer met betere specs dat niet deed) en 2 worden spellen voor alle platforms geprogrammeerd en richten zij zich hoofdzakelijk op consoles, spellen die echt de limieten van een PC pushen zijn er niet veel.

De PC zal nooit doodgaan, maar de populariteit is wel een heel stuk minder.

Schietspellen gaan trouwens goed op de 360 (ik vind de PS3 controller persoonlijk niet fijn daarvoor), het is zeker wennen maar als je het eenmaal kan dat speelt het lekker, zo lekker dat ik MW2 voor mijn 360 heb gekocht en dat terwijl mijn PC het toch echt helemaal max zou draaien, maar ik speel het toch liever op mijn bank en ach, ik heb een handicap door de controller, maar de rest ook.
Als je zo'n mooie PC hebt zou ik die op de TV aansluiten, kan je net zo goed met de xbox 360 controller spelen als het goed is. Heb je iig beter graphics.
Als ik echt voor graphics ga dan blijf ik wel bij mijn PC, mijn TV is een 720p 32inch terwijl mijn monitor een 24inch 1920x1200 scherm is. Maargoed toetsenbord en muis op mijn salontafel vind ik nou niet echt lekker spelen, dan ga ik echt liever aan mijn bureau zitten.
Ik dacht vroeger ook dat een FPS echt niet op een console kan. Maar na enige tijd FPS spelen op consoles en gewend raken aan de besturing is het eigenlijk hetzelfde als met een muis. Het is gewoon een kwestie wat je kan (zo kan ik bijvoorbeeld racegames echt niet met een stuurtje doen).
Ja met halve auto aim en wat andere trucjes om het op en console ook nog leuk te laten zijn, en je niet te gefrustreerd raakt door het richten. FSP kunnen wel op een console (controller), maar speelt toch altijd veel lekkerder met een muis achter een bureau met goed scherm voor je neus.

Muis voelt gewoon veel beter aan en komt de snelheid van het spel vaak te goede, bent vaak sneller met de muis als dat het spel toelaat, bij console passen ze het spel aan omdat de gamers het met de controller de snelle actie niet bij kunnen houden.
het valt mij juist op dat dit soort 'uitvindingen' geen doorgang vinden in de game-scene:
http://www.youtube.com/watch?v=7Ym0tZSWGMc

Richten als met een muis, dus erg nauwkeurig, maar de fun van een wii/console.

Maar ff ontopic:
Als ik kijk naar de pc waarmee ik game: die heb ik samengesteld in 2002. pentium 4, 2,8ghz, 1,5 gb en een agp x1950 pro. Na 5 jaar ben ik overgestapt van een gemodde 9800se/x800 naar een x1950pro.

En nu pas loop ik tegen spellen aan die ik niet meer kan spelen, zoals cod5/6, crysis 2 enz. Dat bewijst gewoon dat de huidige 'huis tuin en keuken'-multimedia pc gewoon genoeg kracht in huis heeft om moderne games te spelen. en dus gaan steeds meer mensen dingen zoals graphics verwachten van normale pc's. En daar speelt AMD gewoon heel goed op in, voor de toekomst. lage kosten voor het creeren van multimedia.
Maar het kan alsnog beter op de PC. Bij een shooter laat ik mijn rumblepad liggen hoor, ondanks dat ik dan ook op een bureaustoel moet gaan zitten.
Yep maar heb toch steeds meer het gevoel dat de PC gamers markt aan het dood gaan is.
dit is een APU niet alleen een 3d renderen.
je kan er ook video en audio mee encoderen bijvoobeeld, sneller in en uit pakken misschien wel, sneller encrypte, en sneller encryptie kraken.

dit word dus echt een toevoeging aan de CPU, ook voor mensen die geen 3d kaart in hun systeem hoeven.
De meeste verkochte GPU's zijn nog altijd de IGP van Intel.
Deze markt is al jaren ontzettende groot ivm die van de losse kaarten.

En de monsterkaarten zoals de radeon 5970 zullen altijd wel gemaakt worden.

Dit soort kaarten zijn echter meestal vooral paradepaardjes. Zo van kijk eens wat ik kan maken. Niemand is sneller.

Marketing heet dat geloof ik in een woord.
hoe kunnen ze nou goed bezig zijn als het produkt nog niet eens op het markt is en ze draaien al heel lang verlies(zie andere bericht)
AMD de ontwerp tak maakte vorige kwartaal al winst. alleen met globalfoundries erbij maken ze nog verlies maar dat komt goed zodra die meer klanten heeft.
En ATI maakt winst. Geen probleems dus...
AMD doet het goed op "budget" gebied waar een gemiddelde consument toch voor gaat, same power, voor mider geld. (voorall in deze "crisis" tijden :+ ) Ik ben heel erg benieuwd.
En laat AMD nu bekend staan om
een "consument-vriendelijk" prijskaartje
inderdaad GO amd! *cheer*
Wat is de meerwaarde van een IGP in deze processor?
Zal een dedicated GPU niet voor betere prestaties zorgen, en daarom eerder gekozen boven een onboard GPU?
Of snap ik het nou helemaal niet?
Omdat het in hetzelfde pakket zit zijn de latencies, productiekosten en stroomverbruik lager.
Lijkt mij goed genoeg om dit boven een dedicated GPU te verkiezen, vooral als het om laptops en nettops gaat.
De meerwaarde is lagere prijs en kleinere formfactor. Beiden heel belangrijk voor mobiele toepassingen.
Uiteindelijk bespaart het flink wat kosten (een moederbord kan erg simpel worden). Aan de andere kant staat het ook nieuwe toepassingen toe. De GPU kun je ook zien als een co-processor en doordat deze in de CPU zit kunnen beide erg snel samenwerken. Voor huidige GPUs gaat communicatie over PCI-Express wat grote latencies heeft en nu kan het vele malen sneller. Zaken als 3d audio, physics, video encoding en nog meer taken kun je nu veel eenvoudiger door de GPU laten doen. Vergeet niet dat beide nu bij hetzelfde geheugen kunnen.
Dat er OpenCL applicaties zonder vertraging op de CPU gedraaid kunnen worden.
Zie net dat het aandeel AMD +23% doet op de beurs. Ik vraag me af of dit AMD gerelateerd is of meer gedreven wordt door de vooruitgang die ATI momenteel boekt (hoewel een combo natuurlijk ook niet is uit te sluiten)
Een nieuwe chip aankondigen gaat echt niet zo'n grote sprong veroorzaken.

http://www.marketwatch.co...legal-disputes-2009-11-12
Dit komt omdat Intel en AMD de strijdbijl begraven...
http://www.tijd.be/nieuws...trijdbijl.8258289-436.art

[Reactie gewijzigd door licen op 12 november 2009 17:04]

misschien domme opemrking, maar is het niet een idee om je chipset er dan ook meteen in te verwerken :D
Dat zal zeker weten de volgende stap zijn. Uiteindelijk zal de hele computer inclusief ram en wellicht SSD in een chip komen. Transistoren zijn erg goedkoop en hoe minder losse onderdelen hoe goedkoper een printplaat te maken is en hoe minder er stuk kan. Daarnaast is allles in een chip hebben ook veel zuniger aangezien databussen veel energie kosten.
Dat bestaat al lang en heet SOC (System On a Chip). AMD heeft deze chip ook al lang onder de naam Geode.

Wikipedia: http://en.wikipedia.org/wiki/System-on-a-chip
ik ben heel erg benieuwd of AMD het met die Zambezi echt voor elkaar zal krijgen dat ze bijvoorbeeld ook op de eerste generatie AM3 borden zullen werken, dat zou ik wel vet vinden.
Dat dmv een bios update die dingen op mijn bordje draaien.

Voor de rest vind ik het een goede ontwikkeling dat AMD het jaarlijks wil updaten.
Een Cpu + Gpu + 128 bits instructies onder 1 kap, ziet er goed uit :)
[al is het waar dat 64 bits pas een tijdje populair is onder ontwikkelaars.]
geweldig dat ze nu een overeenkomst hebben intel & AMD, dan breekt de tijd van innoveren voor beide partijen weer aan :)

maar voorlopig brult mn Phenom II X4 955 BE nog wel een paar jaar. tegen die tijd word t zowat een 8-core blijkbaar.. hopelijk houd de game-industrie het ook een beetje bij. (wat ik dus betwijfel.) ik denk dat de vraag naar rekenkracht toch wel afneemt na quad-core.
Interessante ontwikkeling.

Door dit soort ontwikkelingen wordt het interessant om eens serieus OpenCL te gaan leren, waarmee je de kracht van die 480 streamprocessors kunt aanspreken.

Hier een reeks videotutorials: http://www.macresearch.org/opencl

[Reactie gewijzigd door jj71 op 12 november 2009 20:02]

480 SPU's op de GPU! Dat is een geintegreerde GPU met 50% meer shaders dan een Radeon HD4670, die kan communiceren met de CPU zonder noemenswaardige geheugenbandbreedte problemen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True