Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties

AMD heeft tijdens de Isscc meer details vrijgegeven over zijn zogenaamde Llano-apu. De processor wordt op 32nm geproduceerd en heeft behalve vier cpu-kernen, ook een DirectX 11-gpu aan boord. De 'apu' zal in 2011 uitgebracht worden.

AMD noemt de processor een apu, oftewel accelerated processor unit, omdat deze over zowel cpu-kernen als een gpu-kern beschikt. De gpu wordt gemaakt op basis van de Evergreen-architectuur, zoals die in de huidige 5000-serie wordt gebruikt. Over de gpu is verder alleen nog bekend dat deze over 480 streamprocessors beschikt. Op de International Solid State Circuits Conference werd dan ook alleen het cpu-gedeelte besproken.

De processor, met codenaam Llano, zal door Global Foundries op het 32nm soi-procedé worden geproduceerd, waarbij  de fabrikant voor het eerst ook de hkmg-techniek toepast. De cpu-kernen zijn gebaseerd op Phenom II-cores, maar er is geen gedeelde L3-cache aanwezig. Daardoor vertoont het cpu-gedeelte een grotere gelijkenis met de Athlon II-cpu's, maar de architectuur zou op enkele punten gewijzigd zijn. Elke kern krijgt de beschikking over 1MB L2-cache. AMD mikt op een kloksnelheid van 3GHz of hoger, terwijl het verbruik tussen de 2,5W en 25W per kern zou moeten liggen.

Het soi-productie-procedé stelt AMD in staat om op efficiënte wijze een kern uit te schakelen, zodat er zo min mogelijk lekstroom optreed. De lekstroom zou volgens AMD tien keer lager liggen dan bij voorgaande cpu's. De apu zou ook over een Digital APM Module beschikken, die mogelijkerwijs een vergelijkbare functionaliteit biedt als Intels Turbo Boost-technologie, waarbij cpu-kernen overgeklokt kunnen worden, zonder dat de tdp overschreden wordt. Verder zou AMD de energie die nodig is om de kloksnelheid te laten variëren, hebben gehalveerd.

De Llano-apu zal alleen gebruikt kunnen worden in combinatie met een nieuwe socket. De eerste testexemplaren worden nog in de eerste helft van 2010 verstuurd, maar of de apu in 2010 al op de markt komt, wil AMD niet kwijt. AMD liet alleen los dat pc-fabrikanten in 2011 systemen aan zullen bieden met de apu. Llano lijkt dan ook op tijd uit te komen om de strijd aan te gaan met Intels Sandy Bridge-architectuur, die ook over een on-die gpu gaat beschikken.

AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck AMD Llano-apu pressdeck
Moderatie-faq Wijzig weergave

Reacties (62)

Ziet er best leuk uit, best wat power.

Even een domme vraag; is het niet op een of andere manier mogelijk dat de CPU automatisch bepaalde instructies op zo'n GPU core laat berekenen? Of moet dit echt op applicatie niveau gebeuren?

Zitten deze CPU en GPU nou op dezelfde die?
Even een domme vraag; is het niet op een of andere manier mogelijk dat de CPU automatisch bepaalde instructies op zo'n GPU core laat berekenen? Of moet dit echt op applicatie niveau gebeuren?
Nee zo werkt het niet, een stuk code dat je op de GPU wilt draaien zal echt voor de GPU geschreven moeten worden. Andere instructies, andere manier van werken, andere prestatie-eigenschappen, andere alles eigenlijk.

Wat wel een mogelijkheid is en wat praktisch gesproken enigzins in de buurt komt van wat jij bedoelt is bepaalde stukken van je code tegen een API met meerdere target architecturen waaronder GPU's te schrijven. Bijvoorbeeld tegen zoiets als BrookGPU, RapidMind of OpenCL. Dan zou je in theorie dezelfde applicatie kunnen runnen met de bewuste stukken code op de GPU of op een andere core van de CPU, door de code voor verschillende targets te compileren en bij het runnen te kiezen of je de GPU backend of de CPU backend wilt gebruiken.

Maar in zijn algemeenheid is het antwoord dus: nee het is niet mogelijk (en ook niet zinvol trouwens) om automatisch een bestaand stuk computercode op een GPU uit te voeren. Sowieso zijn GPU's vrij beperkt in de set nuttige taken die ze heel erg snel kunnen uitvoeren, dus voor heel veel taken wil je echt niet eens de GPU gebruiken.

@sickyb
Ik ben geen expert maar als ik me niet vergis zal je altijd een speciale GPU-compiler moeten gebruiken en kan je sowieso op geen enkele manier een 'gewoon' C of C++ programma compileren zodat je het op een GPU kunt draaien. Wel een C/C++ programma dat gebruik maakt van een GPU-computing API zoals die ik hierboven al noemde natuurlijk, maar zelfs dan ben je wel heel erg specifiek bezig en eigenlijk stukken van je code 'speciaal voor een GPU' aan het schrijven. Maargoed dat is allemaal terminologie.

Ik ben zelf ook erg nieuwsgierig naar dit soort chips, hiermee kan je potentieel heel erg boeiende devices maken, zeker als het allemaal een beetje makkelijk te programmeren is, ook het GPU gedeelte. Computers beginnen volgens mij langzaamaan steeds meer te bewegen naar een architectuur waar je niet echt een GPU meer hebt, maar een CPU met dusdanig krachtige vector units dat je uiteindelijk weer terug bent bij sofware rendering, wat veel flexibeler en uitbreidbaarder is dan een dedicated GPU. De GPU's worden steeds programmeerbaarder en CPU's krijgen steeds meer GPU-achtige hardware op de chip, dit is een mooi voorbeeld hiervan maar de Larrabee van Intel is nog weer een stukje verder.

[Reactie gewijzigd door johnbetonschaar op 9 februari 2010 17:09]

strikt genomen hoeft het natuurlijk niet speciaal voor een GPU geschreven te zijn maar moet het gecompileerd worden tegen een andere instructieset.
resulteert natuurlijk wel in een enorm brak stukje code.
de instructieset van een GPU is gespecialiseerd in het verwerken van grafische zooi. vooral matrix en vector bewerkingen.

overigens ben ik erg nieuwsgierig waar dit heen gaat. zowel cpu cores als ook een gpu core op 1 chip. ideaal voor budget pc's en htpc's. maar als het aantal core's op 1 chip blijft toenemen en ook meerdere soorten core's op 1 chip gebakken worden zal dan uiteindelijk de grafische kaart helemaal verdwijnen?
Ja, als het goed is zitten de CPU en GPU op dezelfde die.
Llano lijkt dan ook op tijd uit te komen om de strijd aan te gaan met Intels Sandy Bridge-architectuur, die ook over een on-die gpu gaat beschikken.

[Reactie gewijzigd door Axelfoley007 op 9 februari 2010 15:33]

Ja de CPU en de GPU zitten op 1 die maar het offloaden van werk van de CPU naar de GPU zal waarschijnlijk net door de hardware gedaan worden. Zeker net bij een eerste versie van de APU.
De kans dat het later gebeurt in latere versies is voorlopig ook erg klein want wat je komt zo veel mogelijke problemen tegen. Het grootste probleem is nog wel dat de CPU de tijd zou moeten nemen om alle opdrachten in de pipeline te bekijken en te bepalen of ze wel of niet parallel uitgevoerd kunnen worden en ze op basis daar van naar de GPU te sturen iets wat ook weer tijd in beslag neemt. Dan is het volgende probleem dat als de GPU het werk flink wat sneller gedaan heeft maar de andere threads die normaal gesproken deze data weer zouden verwerken nog niet zo ver zijn omdat de developers nooit hadden gerekend op een mogelijkheid van het parallel aan de andere threads uitvoeren van parallelle berekeningen dan moet de data dus in een buffer of zelfs (extreem traag) het geheugen opgeslagen moeten worden. Als dat soort dingen allemaal door de CPU geregeld moeten worden voor dat het ding de data naar de GPU kan sturen dan kun je net zo goed een vijfde CPU core inzetten om die beslissingen te maken.

Ik denk dat met de komst van DirectX12 de GPU ook veel meer gebruikt kan worden voor het offloaden van de parallelle werklast. En dus tot die tijd zullen het alleen de programma's zijn die gebruik maken van Cuda en de ATI variant daar op die dit soort dingen doen. Gewoon omdat je niet zo maar willekeurige stukken code kunt "optimaliseren" als de rest van het programma er niet op berekend is gewoon omdat het risico dat het resultaat uiteindelijk slechter is dan zonder de "optimalisatie" te groot is.
Als dat soort dingen allemaal door de CPU geregeld moeten worden voor dat het ding de data naar de GPU kan sturen dan kun je net zo goed een vijfde CPU core inzetten om die beslissingen te maken.
Nou is voor de meeste gebruikers 4 cores vette overkill, en is 2 cores genoeg.

Als je nu 1 core hiervoor inzet heb je nog steeds 3 vrije cores over, lijkt me een ideaal compromis, zeker als je bedenkt dat de stap naar 6 cores ook al bijna klaar is. De opvolger van deze APU of de opvolger van 'Buldozer' gaat waarschijnlijk ook die 6 cores hebben of mischien wel meer.
Misschien wel een leuk idee voor een HTPC?
Als die inderdaad op een nieuwe socket wordt geleverd, zou je een mooi all-in-one systeempje hebben met degelijke prestaties.

Ik vraag me alleen af wat het nut is om er een DX11 GPU op te zetten, DX11 lijkt me toch niet worden benut als de prestaties gelijk zijn aan de normale IGP's
(met de lage performance verwachting, maar hopelijk niet :P)

Ik ben nieuwsgierig

@ C0llo

Kijk, dat is inderdaad veelbelovend. Natuurlijk nog geen 5850 :)
Maar als we een beetje 4600/4830 prestaties kunnen verwachten, zijn er inderdaad nog genoeg mogelijkheden :P

@ Rexxar
De Llano-apu zal alleen gebruikt kunnen worden in combinatie met een nieuwe socket. De eerste testexemplaren worden nog in de eerste helft van 2010 verstuurd
Het zou natuurlijk leuker zijn als het uit zou komen op AM2+/AM3 mATx boordjes.

[Reactie gewijzigd door H0lyGra1l op 9 februari 2010 15:33]

Ik vraag me alleen af wat het nut is om er een DX11 GPU op te zetten, DX11 lijkt me toch niet worden benut als de prestaties gelijk zijn aan de normale IGP's
Er zijn wel functionaliteiten met DX11 die ook bruikbaar zijn voor low-end GPU's, DX is niet alleen voor games gemaakt. Maar waarschijnlijk nog een belangrijkere reden om DX11 te implementeren: waarom zou je het niet doen? De techniek hiervoor heeft AMD al lang in huis en dit kan waarschijnlijk vrij gemakkelijk geimplementeerd worden. Want anders kun je ook wel zeggen dat DX10 niet veel toevoegt op IGPs, schrap dat dan ook maar. En OpenGL3.2 wordt ook niet veel gebruikt, hoppetee, doe maar weg. Met als gevolg dat als er een applicatie komt die hier leuk gebruik van kan maken, je je IGP´s minder aantrekkelijk hebt gemaakt.
Gaat ook om de API voor GPGPU die het belangrijk maakt om DX11 toe te voegen aan deze APU, dat is nu het hele voordeel van de fusion, de juiste code op de juiste kern. Code die sneller is op de GPU gaat naar de GPU en welke sneller of niet werkt op een GPU gaan naar de cpu.

Dat is de visie achter de fusion, amd heeft meer in gedachte dan alleen maar video verplaatsten onder de heatspeader van de cpu zoals intel. ;)

[Reactie gewijzigd door mad_max234 op 9 februari 2010 17:42]

Ik denk ook dat het efficiënter is om alles zoveel mogelijk gelijk te houden, dan alleen voor dit ding een afwijkende GPU te moeten gaan ontwerpen. Voor zover ik weer ondersteunt zo ongeveer alles wat ATi momenteel bakt DX11, dus waarom dan ineens terugpakken naar DX10?
480 streamprocessors,.. klinkt niet als een mainstream IGP (ik heb er hier 40 in m'n HD3200)
Klinkt meer als een bruut game pc'tje
ik denk dat je het eerder kan vergelijken met een HD5570. Die heeft 400 streamprocessors, 128 bit geheugenbus en GDDR3 geheugen. Een HD5670 heeft er ook 400, maar heeft GDDR5 geheugen en een hogere gpu snelheid.

Een HD5570 is net niet krachtig genoeg voor de nieuwste games, dus deze gpu wellicht ook niet.
Een HD5570 is net niet krachtig genoeg voor de nieuwste games, met alle grafische opties op de maximaal mogelijke instellingen, dus deze gpu wellicht ook niet.
There, fixed it for ya'.
Nogal een verschil ook. De meeste mensen beleven genoeg plezier aan 'de nieuwste games', ook al staan niet alle toeters en bellen aan.
Maar dan nog nu hebben ze 40 van die dingen in een IGP zitten. Dat is dan toch een aardige boost dacht ik zo. En 480 zijn er echt wel genoeg om een spelletje te spelen als je dat nu met 40 al kan. Ik zeg dan niets over de settings dat zal allemaal Low zijn. Maar er zijn genoeg mensen die niet veel geven om High en Ultra settings maar die willen het spel gewoon spelen.

[Reactie gewijzigd door Astennu op 11 februari 2010 07:43]

480 streamprocessors,.. klinkt niet als een mainstream IGP (ik heb er hier 40 in m'n HD3200)
Klinkt meer als een bruut game pc'tje
En de steam processors zijn ook nog eens sneller dan die van de hd3200, die is op de hd3400 gebaseerd. ;)

@H0lyGra1l

Verwacht maar dat deze sneller is dan wat we ooit hebben gezien en dan ook heel veel sneller dan wat we gewend waren van IGP's. Dit is de troef van de overnamen van ATI, vanaf het begin van de overnamen zijn ze dit al aan het plannen om intel weer eens een tijdje te snel af te zijn. Misschien lukt het dit keer niet alleen op cpu gebied keer omdat intel er bovenop zit met zijn tick tock strategie. Dan maar via een andere weg die intel maar moeilijk kan volgen en waar AMD/ATI heel wat voorsprong heeft.

Daarbij komt dan ook nog later de bullbozer kern, waar ze wellicht ook op cpu gebied weer een inhaal slag weten te behalen.

En met de komst van een algemene API voor GPGPU is het grootste probleem voor ontwikkelaars ook weg, puzzelstukjes vallen langzaam aan weer eens op de juiste plek voor AMD. :)
Zover ik weet is de HD 3200 niks meer dan een lichtelijk aangepaste HD 2400.

De architectuur van de SIMD units is uitgebreider (hull shaders, domain shaders), er is ook een aparte tessellator en kan de geheugencontroller ook GDDR5 aan.
Vergeet ook OpenCL 1.0 en DirectCompute ondersteuning niet.

En vergeet natuurlijk niet het feit dat er ook een nieuwere UVD revisie is, wat voor HTPC's zeer interessant is.

[Reactie gewijzigd door Pyronick op 9 februari 2010 21:34]

Desondanks is een HD3200 vele male beter als welke Intel IGP dan ook.
Dat was inderdaad een typo, moest HD2400 zijn, maar dat maakt op zich niet zoveel uit, mijn punt is dat de de APU op de nieuwere geoptimaliseerde stream processors draait van de 5000 serie en niet de oude, en dus stream processor voor stream processor sneller zijn dan de HD3200.

[Reactie gewijzigd door mad_max234 op 10 februari 2010 15:03]

valt nog wel mee, de HD5850/70 heeft er 1600
Maar dat is super high-end. HD4870 heeft er 800 dus ik denk dat het ding nog best aardige prestaties gaat krijgen.
Nee, alleen de HD5870 heeft 1600 sp's, de HD5850 heeft er 1440.
Algemeen gebruik lijkt me? Zie het als een Core i5 van AMD, maar dan met waarschijnlijk een snellere gpu (Het is ten slotte AMD, en DX11).

edit @ Holygrail; AMD kennende (en ik hopende) brengen ze deze cpu's gewoon op het am3 socket uit. Ik zie ook niet waarom ze een nieuw socket zouden moeten ontwikkelen om met deze cpu een moo isysteem neer te zetten.

[Reactie gewijzigd door Rexxar op 9 februari 2010 15:26]

misschien omdat er ook een gpu opzit, en je daar dus extra pinnen voor nodig hebt? ;)
In principe zou je de videodata die naar de monitor moet ook via de HyperTransport bus naar de chipset kunnen sturen. Uiteindelijk zal het waarschijnlijk toch de chipset zijn die met de monitor communiceert.
toch ontgaat het nut me enigsinds, waarom zou je
een qaudcore monster cpu combineren met een 'way above budget crap' GPU.

als ze nu een multi-core (dual / tripple / quad) 1,6ghz (atom anyone?) versie zouden bouwen, waar ECHT alles (dus een volledige chipset) bij inzit, zag ik er nog wel nut in.

Mits zo'n 'apu' dan natuurlijk niet te veel gaat verbuiken (zo rond de 69w (deze kennen we ook al) lijkt me wel zo'n beetje het maximum toelaatbare (maar ergens rond de 40 zou beter zijn)

zoiets kun je dan perfect op een uATX bordje plekken zonder in te hoven leveren op geheugenbankjes (tripple channel), en uitbereidings-sloten, half-heigt pci-(e)

terwijl alles nog steeds in een compact uAXT kastje past, waardoor extra geschikt voor HTPC's, of zeer compacte (zakelijke) desktops en all-in-one's

[Reactie gewijzigd door i-chat op 9 februari 2010 16:33]

een qaudcore monster cpu combineren met een 'way above budget crap' GPU
GPGPU

die 'way above budget crap' GPU loopt met de juiste software kringetjes om de snelste CPU's te koop als het aan komt op dingen als encoderen, in/uitpakken en encryptie om maar wat taken te noemen.

en niks weerhoud je ervan om ook nog een 'normale' (lees high end) GPU er in te zetten. heb je gelijk een extra GPU voor physics en AI ect.

[Reactie gewijzigd door Countess op 9 februari 2010 16:58]

AMD heeft nu al een prima Hybrid CrossFireX, dus dan plug je er toch gewoon een High-end videokaart naast voor de zwaarste games.
De Llano-apu zal alleen gebruikt kunnen worden in combinatie met een nieuwe socket. De eerste testexemplaren worden nog in de eerste helft van 2010 verstuurd, maar of de apu in 2010 al op de markt komt, wil AMD niet kwijt. AMD liet alleen los dat pc-fabrikanten in 2011 systemen aan zullen bieden met de apu. Llano lijkt dan ook op tijd uit te komen om de strijd aan te gaan met Intels Sandy Bridge-architectuur, die ook over een on-die gpu gaat beschikken.
Wordt dus een nieuwe socket, misschien handig om eerst het artikel te lezen voordat je reageert?
terwijl het verbruik tussen de 2,5W en 25W per kern zou moeten liggen.
Is dit het verschil tussen idle en load, spreiding in de productie, of weten ze gewoonweg nog niet waar het verbruik komt te liggen?

<10W per core zou heel mooi zijn. En 2,5W al helemaal, vooral voor mobiele toepassingen.
25W/core is niet echt bijzonder, want er komt natuurlijk ook nog het gebruik van de GPU (en eventueel de geheugencontroller) bij. Daarmee zou het totale verbruik hoger dan de huidige Athlon 2 lijn liggen en misschien zelfs hoger dan dat van de Phenom.

[Reactie gewijzigd door knirfie244 op 9 februari 2010 15:34]

32nm is nog in ontwikkeling bij AMD dus dat ze kunnen nog geen harde cijfers geven, maar het zal ook van je model af hangen natuurlijk.
Apart, volgens mij heeft Global Foundries voor volgend jaar 28nm op de roadmap staan. Maar kan aan AMD / x86 liggen.
28nm voor GPU's inderdaad ;)
dat is het zo geheten BULK process, bedoeld voor idd ook GPU's maar eigenlijk voor alle chips die niet hele hoge frequenties hoeven te draaien.
Daarmee zou het totale verbruik hoger dan de huidige Athlon 2 lijn liggen en misschien zelfs hoger dan dat van de Phenom.
Mogelijk hoger dan de CPU, maar ook hoger als een Athlon/Phenom 2 CPU en een HD5570 of HD5670 GPU samen? Laatste valt te betwijfelen. Daarbij, met 1 koeler is de luchtstroming in de kast ook beter.
zou je er ook een beetje mee kunnen gamen.
want anders heb je toch niet veel aan direct x 11 of zie ik dat fout?
Gezien de hoeveelheid steam processors en geheugenbandbreedte zou je de vandaag aangekondigde HD5570 denk wel als indicatie kunnen nemen voor de prestaties.

De ingebakken GPU zal waarschijnlijk op de huidige architectuur gebaseerd zijn, en zal ietsjes meer steam processors hebben als de HD5570. echter is de geheugenbandbreedte misschien een issue, uitgaande van dual channel DDR3 zal de totale bandbreedte vergelijkbaar zijn aan dat van de HD5570, alleen moet deze gedeeld worden met de CPU. Wat de prestaties van beide niet tengoede zal komen.

Dit is nou echt iets waarbij het voordeel van i7's triple channel controller naar voren zal komen, en zodra de CPU's meer cores en een IGP gaan krijgen gaan we dit ook wel terug zien in de benchmarks. Tevens zie ik in de slides alleen DDR3 staan, maar niets over het aantal kanalen, dus wie weet!

[Reactie gewijzigd door knirfie244 op 9 februari 2010 15:57]

Gebaseerd op de huidige 5000 serie van AMD dus een beetje game moet nog wel lukken alleen een meer hardcore game zo als deze tegen 2011 op de markt zullen komen zal denk ik wel een beetje lastig worden zeker als en ik heb toch sterk dat vermoeden de core niet de top of the line maar eeder een midde klasse of nog minder GPU core zal zijn.
Mij lijkt dit alleen handig voor HTPC en dergelijke, maar in een beetje gamepc wil je dit toch niet??
Alleen maar meer warmte dat je cpu koeler moet afvoeren, dus overklokken gaat ook nog moeilijker..
wat dacht je voor een leuk pctje voor je ouders, waarschijnlijk vlot zat, hardware (youtube) HD support .. wat hebben ze nog meer nodig?

Ik weet dat mijn ouders niet veel meer doen dan mailen, youtuben en een beetje met word enzo

[Reactie gewijzigd door Mannes op 10 februari 2010 00:06]

Er zijn inderdaad meer doeleinden voor een PC te bedenken dan alleen gamen. Mannes heeft daarin gelijk ;)
en vergeet niet dat gamen maar een klein gedeelte van de markt is.
Ik denk dat AMD echt wel een schitterende zet heeft gedaan door Ati over te nemen.
Nvidia doet pogingen om de grafische kaart processor taken te laten overnemen en intel doet poging om de grafische kaart in de processor te verwerken.
AMD heeft echter op beide fronten de nodige kennis! Dit kan toch alleen maar tot prachtige technologie leiden?
AMD heeft echter op beide fronten de nodige kennis! Dit kan toch alleen maar tot prachtige technologie leiden?
Even een nuancering: Intel is ook niet bepaald achterlijk als het aankomt op grafische chips, daar ze de welbekende Intel IGP's gemaakt hebben. Niet dat die nu zo geweldig zijn overigens, maar hiermee zijn ze wel (qua aantallen) de marktleider op het gebied van GPU's.
op technische gebied lopen ze bij intel gewoon mijlen ver achter bij AMD en Nvidia.
en hun integrated graphics in hun CPU's zullen hun hele CPU lijn er slechter uit kunnen laten zien als AMD hun GPGPU kaart goed weet te spelen.
Dat is toch wel nonsens, Intel is namelijk de eerste die een grafische chip in de processor heeft geïntegreerd (core i3 en i5). Bovendien is Intel nu ook met veelbelovende GPGPU technieken bezig (Larrabee)

Intel heeft in het verleden wel eens minder goede IGP's (vb GMA950) gemaakt, maar ook AMD heeft technisch gezien minder goede GPU's gemaakt. (De 2900XT kan ik namelijk ook niet echt als een groot succes afschrijven). De grootste GPU-bouwer kan je toch moeilijk technisch achterlijk noemen.
geintegreed? je bedoeld 2 chips in 1 package? weinig integratie aan.
eigenlijk is het zelfs gewoon de oude CPU <--> northbridge(en memcontroler) +IGP maar dan dus in 1 package.

en larrebee is erg goed in de zelfde taken als een GPU, en kan daarom toevallig ook nog net videobeelden op je scherm zetten, maar heeft daarvoor nogal wat transistors nodig, en ik betwijfel nog of dat goed te vertalen zal zijn naar een IGP voorlopig.
laat ze die trouwens eens maar eens uitbrengen en laten zien dat ze nu wel drivers ervoor kunnen maken.

[Reactie gewijzigd door Countess op 10 februari 2010 07:23]

Bovendien is Intel nu ook met veelbelovende GPGPU technieken bezig (Larrabee)
Dit valt te betwijfelen. Of er ooit een GPU komt op basis van de Larrabee?
nieuws: Intels Larrabee-gpu nog verder uitgesteld
De grootste GPU-bouwer kan je toch moeilijk technisch achterlijk noemen.
Het je je ooit afgevraagd waarom ze de grootste IGP bouwer zijn?

De reden is dat de meeste notebooks een Intel CPU en een Intel chipset hebben. OM kosten te drukken kies je dan voor een Intel IGP, die krijg je er zo goed als gratis bij.

Het is niet op de kwaliteit maar puur om de prijs.
Mooi iets vooral de directx11 gpu en snelheden boven de 3Ghz
Het verbruik valt ook nog niet tegen.

alleen jammer dat hij zo laat komt.
Leuk gedacht maar net als nu bijvoorbeeld de shader en de rest van de GPU op een andere snelheid draaien zullen ook vrijwel zeker de GPU en de andere cores niet op een zelfde snelheid draaien. Met andere worden de GPU zal waarschijnlijk gewoon op een stock snelheid draaien van ~800 tot 900MHz. En even je GPU overclocken is er ook niet zomaar bij omdat alles in een package op een die zit zal het overclocken een hele nieuwe tak van sport worden voor deze dingen.

Het enige echt voordeel dat ik hier zie is dat waarschijnlijk de TDP van de gehele package een stuk lager zal zijn als die van een quad core CPU en een losse GPU. Gewoon omdat de socket waarschijnlijk niet vrolijk zal worden van een ~300 Watt of meer die de combinatie nu in veel systemen weet op te slurpen als er hard gewerkt moet worden.

De nieuwe socket duid overgins wel op een nieuwe TDP die dan denk ik ergens rond de 200 tot 250W uit zal komen voor de combinatie.
een nieuwe socket is nodig voor de extra pins van het video signaal, en heeft dus niks met TDP te maken.
met 32nm zou hij juist zuiniger moeten zijn als de voorgaande.
die 200watt+ zuig je uit je duim.
Misschien is dat het probleem niet. Intels Core i3 processors werken ook op een P55 moederbord. De videosignalen worden dan gewoon uitgeschakeld.

200 W is inderdaad uit de duim gezogen, zoveel zullen ze ook niet gaan verbruiken.

[Reactie gewijzigd door StefanvanGelder op 10 februari 2010 07:45]

De nieuwe socket duid overgins wel op een nieuwe TDP die dan denk ik ergens rond de 200 tot 250W uit zal komen voor de combinatie.
8)7

Een vergelijkbare quadcore (Athlon II X4 635) doet nu een tpd van 95 watt. Een vergelijkbare gpu (Radeon HD 5570) doet 42.7 watt. Samen zou dat iets van 135 zijn.
Dat is op 65 en 40 nm. Doe er een jaar ontwikkeling van de productie bij en de overstap naar 32 nm, dan klinkt bijvoorbeeld 95 watt me aanzienlijk realistischer.

En in het nieuwsbericht staat:
terwijl het verbruik tussen de 2,5W en 25W per kern zou moeten liggen.
Met dit gegeven zie ik ook niet in hoe je op meer dan 125 watt kan komen, en is aanzienlijk minder en stuk aannemelijker.

En dan hebben we deze claim nog buiten beschouwing gelaten:
Verder zou AMD de energie die nodig is om de kloksnelheid te laten variëren, hebben gehalveerd.
Die nieuwe socket is waarschijnlijk gewoon voor het videosignaal.

[Reactie gewijzigd door Jesse op 10 februari 2010 10:45]

Klinkt allemaal wel goed en wel maar buiten een HTPC zie ik er niet veel nut in op dit moment. Wat is het nut van een goed rendement als je er niks mee kan doen.

Maar in ieder geval wel goed om weten dat nvidia niet alleen die markt gaat aansijden, dit zal het ontwikkelingsproces versnellen. Want één keer deze CPU's effectief deftige prestaties neerzetten, en vooral betaalbaar zijn, is dit een echte evolutie.

Maar nu, met een i3tje en een 5450 ben je ervan af voor 140-150 euro en heb je een heel mooi basissetje. dus zullen ze al heel scherp uit de hoek mogen komen met hun bang for buck.

Als conclusie, concurentie = goed en nog even afwachten en we hebben iets werkbaar.
persoonlijk leek het mij wel nuttig om in 2D op je APU te draaien en in 3D je Game GPU aan te zwengelen :). dus ook dat hij echt helemaal uitgaat.

dan worden Game systemen eindelijk eens echt stil(/en zuinig) als je in 2D omgeving aan het werk bent. (en kun je toch ook genieten van de voordelen van een GPU met DX11)

[Reactie gewijzigd door Toettoetdaan op 9 februari 2010 17:37]

Mijn 5850 en I7 860 verbruiken in idle zo een 60watt dankzij intel stepping en dat andere waar ik niet kan opkomen. Onder load wordt dat zo een aardig 250-300 watt. De grafische kaart kan dan al zoveel verbruik niet hebben in idle en dat is dan al een high end card. Een GPU equivalent van Lanu Apu zal dan toch wel nog lager liggen in idel verbruik. dus als je echt wil hebben van je 5-8watt idleverschil.
De Llano-apu zal alleen gebruikt kunnen worden in combinatie met een nieuwe socket.
Dit is volgens mij een open deur. De huidige AM sockets hebben geen enkele voorziening om video signalen naar buiten te voeren.

Op zich zou het wel ideaal zijn als de socket compatibel zou zijn, door een extra connectie rij, dan zou je hybride graphics kunnen gebruiken op een mainboard zonder IGP m.b.v. deze processor. Dan hoeven er niet twee verschillende mainboards gemaakt te worden.
Ik mag hopen dat ze toch wel iets aan de IPC hebben verandert. Of ze moeten dat jaar ook nog met een APU op basis van de bulldozer core komen. Echter lijkt me dat onwaarschijnlijk om al zo snel weer met een opvolger te komen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True