Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties, 19.439 views •

AMD heeft twee chipengineers ingehuurd die afkomstig zijn van Apple en Qualcomm, maar die eerder in dienst waren van AMD. Beide engineers hebben de nodige ervaring met het ontwerpen van energiezuinige apu's en soc's.

AMD heeft inmiddels de berichten over de overstap van de twee engineers bevestigd. Het gaat om Charles Matar, voorheen werkzaam bij Qualcomm en vooral deskundig op het gebied van embedded chipontwerpen, en Wayne Meretsky, afkomstig van Apple en betrokken bij het A5-soc-ontwerp. Beide chipdeskundigen zullen aan de slag gaan bij het ontwerpen van nieuwe energiezuinige cpu's en soc's bij AMD. Matar wordt vice-president bij de de afdeling System-on-Chip Development, terwijl Meretsky verantwoordelijk wordt voor de afdeling waar software wordt ontwikkeld.

Met de twee chipdeskundigen, die al eerder voor AMD werkten, wil het bedrijf naar eigen zeggen uitbreiden in 'nieuwe markten'. AMD is daar min of meer toe gedwongen door de terugloop van de pc-verkoop als gevolg van de populariteit van tablets en smartphones. De chipbakker zal zich met name gaan richten op soc's en energiezuinige cpu's. Zo wil het bedrijf nog dit jaar de Temash-apu uitbrengen, terwijl op de CES de Kabini- en Richland-apu's werden aangekondigd.

Reacties (52)

Reactiefilter:-152050+134+26+30
Moderatie-faq Wijzig weergave
X86=CISC =2^3 = 8
Arm=RISC=2^3 = 2*2*2 -2*2 = 4-4*2 = 8
Denk dat X86 hier het voordeel heeft en CISC vs RISC zal CISC altijd boven hand nemen als om performance gaat.
Medfield van intel doet het toch zo slecht niet.
ochja to be or not too bee toch :)
Grappig, waarom zijn x86 CPU's, die onder water eigenlijk gewoon RISC microcode uitvoeren, vandaag de dag dan zoveel sneller dan andere architecturen?
Dat is omdat die RISC core enorm geoptimaliseerd en goed is. Echter de microcode moet een vertaalslag maken van een rommelige instructieset naar microcode. Als diezelfde microcode had moeten vertalen van een net gestructureerde instructieset dan was het allemaal nog veel sneller geweest of op een lagere snelheid veel zuiniger of misschien met nog eenvoudiger RISC cores zodat er nog meer cores op een chip kunnen.

Wat ik zeg is dat die x86 instructies gewoon niet helpen voor een optimaal ontwerp. Het is gewoon een blok aan het been waar je mee leven moet om compatible te blijven. Die x86 instructie set vindt de basis in de 8080. De 8080 was nog een CPU die het zonder microcode moest doen en de instructies werden gerealiseerd met registers in hardware (net als de zeer succesvolle Zilog spin off Z80 die zelfs nu nog steeds word gebruikt als embedded CPU voor simpele taken).

De x86 instructie set (met het patchwork van alle aanvullingen en aangeplakte extra's die daarna zijn gemaakt) is niet alleen een blok aan het been voor de microcode, maar ook voor de native applicaties. Ook de native binaries zouden een stuk beter kunnen met een goede instructieset. Nu moet de code tijd verspillen met omwisselen van data in registers omdat je een bewerking wilt uitvoeren dat alleen met een specfiek register kan. Compilers zijn hierin heel slim geworden, maar met een goede instructieset was het allemaal veel gemakkelijker en ook compacter geweest.

Wat zou we gebeuren als je een ARM set zou kunnen implementen op een i7 core. Ik denk dat een x86 i7 geen schein van kans heeft tegen een ARM i7 versie als aan beide dezelfde ontwikkelenergie en moeite zou zijn besteed. De PowerPC is niet ten onder gegaan door een slecht ontwerp maar gewoon een te klein marktaandeel om de Intel investeringen bij te houden. Dat zie je ook bij AMD die dezelfde instrcuties implementeerd maar ook niet mee kan komen met de Intel CPU's. Gelukkig voor AMD hebben zij nog de betere GPU maar ook dat gat wordt snel kleiner.

Ik snap dat AMD nu ook naar andere markten kijkt, met x86 kunnen ze niet winnen maar hooguit een beetje bij blijven.
Voor zover ik weet is er nog niemand die zich teveel op ARM heeft gestort en daardoor heeft moeten stoppen.
Texas Instruments draait slecht, en ook ST-Ericsson gaat niet erg jofel. Beide zijn bezig om kopers te vinden voor hun ARM SoC business.

[Reactie gewijzigd door Dreamvoid op 23 januari 2013 09:32]

Volgens mij vergeet je dan even hoeveel de GPU daaraan bijdraagt.
Ik snap je punt, maar maakt dat de consument (of wie dan ook) iets uit wat voor chip er voor de snelheid zorgt? Als de GPU dat zuiniger kan dan de CPU, is dat toch een prima oplossing?

[Reactie gewijzigd door Grrrrrene op 23 januari 2013 08:34]

Tja ook in de console markt gaat het erg slecht...
Leuk dat Engels elke keer. Volgende keer dan maar zonder spelfouten?

ARM ontwikkelaars lijken het trouwens goed te doen. Voor zover ik weet is er nog niemand die zich teveel op ARM heeft gestort en daardoor heeft moeten stoppen.
Op de x86 markt alleen blijven lijkt me juist niets voor AMD. Intel is daar nog steeds vrijwel monopolist. Meer winstgevende markten = meer winst.
Dat lijken mij typisch technieken (als ze al exclusief in handen van Intel zijn) die onder een FRAND-licentie moeten worden uitgegeven. Zelfde principe als met 3G en 4G bij mobiele apparatuur.

Maar ik vraag me af of Qualcomm zich zorgen moet maken of juist Intel? De PC-markt is slinkende, de mobiele markt is groeiende. Qualcomm zit wat dat betreft exclusief in de juist markt, al probeert Intel daar ook al een tijdje binnen te komen.
En de GPU van de Wii U ;)
De slechte framerates van minecraft komen met name door de gebrekkige java code. Java vreet resources op de achtergrond.
De slechte framerate van minecraft komt voornamelijk door de complexiteit van de geometrie. Je zou het niet zeggen, want het zijn immers maar "simpele blokjes", maar het zijn wel héél véél simpele blokjes (of specifieker: heel veel polygonen tussen lucht en solid blokjes). Wat ook niet meehelpt is dat er totaal geen mipmapping gebruikt wordt, waardoor de blokjes in de verte enorme texture cache misses veroorzaken. Ook is occlusion culling niet zo'n heel erg simpel probleem in een dergelijke dynamische wereld. Nou is voor dat laatste wel wat voor te verzinnen (leuk research project), maar over dergelijke kwaliteiten beschikken ze bij dan weer niet bij Mojang ;)

[Reactie gewijzigd door .oisyn op 23 januari 2013 02:35]

Ik geloof namelijk dat hij het wel degelijk heeft gezegd.
En ik geloof in de tandenfee.

Dat geloof is nergens op gebaseerd. Er zijn totaal geen bewijzen van. En waarom zou Bill het ontkennen, terwijl hij tegelijkertijd wel toegeeft andere domme dingen te hebben gezegd (zoals dat het internet nooit zou gaan aanslaan)? Denk je dat hem het ook maar enigszins kan schelen mocht hij destijds gezegd zoiets gezegd hebben? Wat zou zijn reden zijn om erover te liegen dan?

[Reactie gewijzigd door .oisyn op 23 januari 2013 02:27]

Dat hij ontkende het gezegd te hebben wil nog niet zeggen dat hij het niet gezegd heeft. Ik geloof namelijk dat hij het wel degelijk heeft gezegd.

Dat niemand in de industrie dat soort uitspraken zou doen is onzin, getuige de goed-gedocumenteerde uitlatingen van managers :
- Er is een wereldmarkt voor ongeveer 5 computers (IBM).
- Ik zou niet weten waarom iemand een computer op zijn bureau zou willen hebben (DEC, de fabrikant van PDP & VAX).
nou is mw3 nauwelijks mooier dan minecraft, mijns inziens. Minecraft heeft meer kleuren dan alleen het groen geel en zwart van mw3 ;)


De slechte framerates van minecraft komen met name door de gebrekkige java code. Java vreet resources op de achtergrond.
Als consument heb je hier natuurlijk een keuze in, al wordt deze al beperkt door Intel met de ultrabooks.

Ik koop al jaren principieel geen intel producten meer. De ultrabook is weer een hype van een denderde kudde losgeslagen consumenten die graag veel teveel geld bieden voor een over gewaardeerde netbook met de grafische capaciteiten die niets anders toelaten dan hooguit een filmpje, en een bagger TN paneel met een resolutie waar de Nokia 3310 al mee werkte. Dit alles voor slechts om of tegen de 1000euro.

De AMD processors zijn vele malen geschikter voor een ultrabook achtig concept omdat de IGP's daarvan nog iets kunnen, dus allround is een AMD apu veel beter, wat toch het concept is van een ultrabook.

Maar de monopoly van intel hierop getuigt al van een ongezonde markt, jezelf inkopen bij fabrikanten en vervolgens woekerprijzen vragen. Dat is bij intel veel belangrijker dan daadwerkelijk een chip leveren die voorziet in de behoefte van de consument.
Zolang ze niet gefrustreerd worden door geheimhoudingsclausules.
ST-Ericsson heeft juist de allersnelste SoC (U8580) op 2.5 gHz met geintegreerde LTE. Deze draait nu ook al (tijdens CES) op 2.8 gHz en binnenkort nog meer.

Niemand, maar dan ook _niemand_ (en ook niet Intel) kan een dergeleijke FD-SOI smartphone-chip maken, en vooral niet voor die prijs (Intels TriGate met 26nm drawn gate length is vermoedelijk veel en veel duurder dan ST Micro's 28nm FD-SOI).

ed: http://semiaccurate.com/2...-out-a-2-5ghz-phone-chip/
http://www.eetimes.com/el...-production-ready-says-ST
http://www.eetimes.com/el...21/FDSOI-production-video

*TI draait natuurlijk helemaal niet (zo) slecht, maar het kan beter:
voor 2012 - 1,76 miljard winst op 12,8 miljard omzet,is ca. 14% winstmarge,
ter vergelijking.
Intel ca. 21% winstmarge voor 2012, Qualcomm ca. 26% voor Q4 2012.

TI's OMAP-divisie draait slecht, dat is een totaal ander verhaal. De DaVinci-video-processoren (ARM9) en ARM Cortex-M/Hercules Cortex R controllertjes lopen volgens mij wel heel erg goed, vandaar dat ze zich daar op gaan concentreren.

*http://www.nu.nl/economie/3010659/minder-winst-chipmaker-texas-instruments.html

[Reactie gewijzigd door kidde op 23 januari 2013 13:26]

De discussie was of de performance van een ARM te vergelijken was met die van een x86, met als point in case dat een ARM CPU een prima GUI kan neerzetten. Ik stel dat dat een ongeldig argument is omdat de GPU daar grotendeels voor verantwoordelijk is.

Dat een ARM zijn plaats heeft in de CPU branch lijkt me buiten kijf staan :). Ik zit niet te wachten op een energieslurpende x86 in mijn telefoon. Maar mijn telefoon draait dan ook geen zware software.

[Reactie gewijzigd door .oisyn op 23 januari 2013 11:42]

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True