Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 47, views: 16.228 •
Submitter: trm0001

Er is informatie verschenen over de komst van twee nieuwe zuinige AMD-dualcores die onderdeel uitmaken van de Kabini-apu's met Jaguar-cores. De chips in de E1-serie zouden de quadcores in de X4-lijn in juni moeten gaan vergezellen.

Kabini is de codenaam voor de serie apu's die AMD dit jaar gaat introduceren voor het zuinige low-end tot mainstream-segment van nettops, all-in-ones en laptops. De tdp's zouden volgens de roadmap op 9 tot en met 25W uitkomen, waarbij de zuinige varianten voor dunne notebooks met een dikte van 18 tot 24mm ingezet kunnen worden. Het platform kan gezien worden als de opvolger van Brazos en Brazos 2.0.

De productie van de apu's zal in maart en april van start gaan en de introductie vindt in juni plaats, beweert Fudzilla, dat er nog al eens naastzit met geruchten, maar sommige AMD-introducties correct vooraf gemeld heeft.

Er zouden twee quadcore-Kabini's op komst zijn: de X4 5110 en 4110, beide met tdp van 15W. Daarnaast zouden de twee dualcores E1 2210 en E1 3310 komende zomer verschijnen. Deze apu's hebben lagere tdp's maar verdere specificaties zijn niet bekend, behalve dat het gpu-deel de Radeon HD 8240G zou zijn.

AMD roadmap 2013 Kaveri Kabini Temash

 

Reacties (47)

Nu maar hopen dat ze de snelheid van een i3 kunnen halen, of beter nog een i5. Ik denk niet dat AMD écht veel heeft om nog te concurreren met Intel.
Ik ben _erg_ gecharmeerd van de huidige trinity-processoren. Helaas heeft Intel de naam wat teveel, maar voor veel consumenten zijn de trinity's meer dan geschikt, en door de snellere gpu veel minder in on-balans dan de i-series van intel. Pak een bordje met zo'n proc en wat ram, SSD en een kleine HDD voor opslag in een compacte behuizing en je hebt voor relatief weinig geld een erg fijne (ht)pc.

Bij de i-series moet je er al snel een gpu bij prikken voor net-iets-meer-dan-simpele taken.
Volgens mij is Kabini opvolging van Brasos. Brasos is begonnen als Atom concurrent. We willen natuurlijk van alles en zo, maar ik weet niet helemaal of we rekenkracht mogen verwachten dat in de Core range van Intel ligt. Het zou al verschrikkelijk mooi zijn als het uberhaupt in de buurt zou komen van de mobiele versie van i3...
@giovannik , je kunt 15 watt TDP niet gaan vergelijken met i5's die 4 echte cores hebben en zo maar tegen de 100 watt zouden kunnen gaan eten.

4 minicores zijn 2 modules. Dus ze vergelijken met intels downsized dual core ivy bridge die nog moet uitkomen is de juiste vergelijking. Die zullen ook zo rond de 15 watt gaan zitten.

In alle gevallen is verwachting dat de AMD's beter zullen zijn natuurlijk, daar de GPU mogelijk sneller is.

Intels gpu is niet bepaald snel. Zelfs Tegra4 van Nvidia fietst dit al factor 2+ voorbij in snelheid (voor de GPU).

Neemt niet weg dat de range 15-25 watt nog steeds erg veel is objectief. Het ligt net boven wat je een groot uitgevallen mobieltje wilt laten gebruiken.

Nu zit er nog wel veel rek in de meeste mobiele apparatuur, want de batterijen waren totdusverre niet best die ze erin stopten. Dus ze kunnen meer stroom leveren voor deze cpu's, terwijl deze cpu's natuurlijk zuinig zijn als ze niet zwaar belast worden.
this zijn geen bulldozers met modules. dit zijn de kleine zuinige cores van AMD, hun antwoord op de atom's.
Die hebben een hele andere opbouw als de bulldozer varianten.

hier zitten gewoon 4 normale onafhankelijke, niet geintegreerde cores in.

edit : zie net de de eerste op het plaatje wel een bulldozer variant is, maar het artiekel zelf gaat nogsteeds enkel over de brazo opvolgers.
daar komen dus versies van tussen de 3.6watt en de 25watt.

[Reactie gewijzigd door Countess op 1 januari 2013 13:33]

@ vegettokai. Een AMD module kan 4 instructies per clock decoden. Dan wordt dat door 2 minicores uitgevoerd.

Een enkele intel core kan 4 instructies per clock decoden. Dan wordt dat door 2 hyperthreads uitgevoerd.

Er is dus geen verschil qua performance in theoretisch opzicht tussen 1 core van intel en 2 minicores van AMD.

Om dezelfde reden spreken we bij ARM over "low power cores". Die zijn ook takketraag in vergelijking met een full blown AMD module of intel core. Gebruiken echter stevig minder prik.

Verder zijn van aantal instructies bij AMD de latencies verdubbeld. Dus er zit in elke minicore wel een vermenigvuldigingsunit, maar hij is 2x trager dan bij de vorige generatie AMD's (zoals de 1090T etc) het geval was. De performance bij vermenigvuldigen is dus voor 2 minicores hetzelfde als 1 oude AMD core.

Dus in alle opzichten zijn het minicores.

AMD's plan is het overigens om het decoden van 1 bundel van 4 instructies te veranderen naar 2 bundels van elk 2 instructies. Dit zou volgens insiders voordelen hebben voor de minicores.

In zo'n geval zijn het echter nog steeds minicores die elke module aanstuurt.

An sich hebben de meeste mobieltjes genoeg aan 2 cores. Dat AMD hier dus cpu's released die 2 modules en 4 minicores bevatten, alleen maar om niet trager te zijn dan de quadcore ARMs, dat is veelzeggend.
Module bestaat uit 1 core met extra integer unit, weet niet waar jij minicores vandaan heb gehaald maar die naam dekt niet de omschrijving van bulldozer module.

Strikt genomen bestaat 1 module uit 1 core met extra integer unit. OS ziet het als extra core, omdat OS kijkt naar hoeveel integer units er aanwezig zijn en daarmee het aantal cores bepaald. Wat uiteraard veel te kort door de bocht is, want is immers geen tweede core maar alleen extra integer unit.

Bij de steamroller module kan je al wat meer spreken over twee cores per module, moet dan ook 30% prestatie verbetering opleveren.

1 module heeft tot 1.6 x de prestatie van oude cores van amd die we kennen voor de bulldozer. En in ergste geval heeft 1 module 1 x de prestatie, als er nauwelijks integer berekeningen worden gedaan.

Edit/
Bulldozer module kan 2 threads niet 4. ;)

[Reactie gewijzigd door mad_max234 op 1 januari 2013 19:15]

"OS ziet het als extra core, omdat OS kijkt naar hoeveel integer units er aanwezig zijn en daarmee het aantal cores bepaald."

Helemaal niet.
Het OS kijkt naar wat het systeem hem vertelt via de CPUID-instructie en ACPI.
Het OS weet helemaal het verschil niet tussen een 'integer-core' en een 'gewone core', dat is ook helemaal niet gedefinieerd binnen CPUID of ACPI.

Door te kijken naar het merk ("AuthenticAMD") en de specifieke family-info, zou het OS kunnen achterhalen dat het specifiek een Bulldozer-achtige is, en dan een module-specifieke thread-scheduler kunnen laden.
Maar vziw doet alleen Windows 8 dat op dit moment.
En dat is natuurlijk nog steeds niet hetzelfde als kijken naar "hoeveel integer units er aanwezig zijn".

Verder heeft een module strikt gezien VIER extra integer units, volgens AMD. Namelijk 2 extra ALUs en twee extra address units.
Dat geeft al aan hoe arbitrair 'integer units' geteld worden. Verder zegt het aantal integer units sowieso niets over het aantal cores. Het aantal integer units is namelijk afhankelijk van de archtitectuur. Zo heeft Bulldozer bv dus 2 ALUs per core, waar Barcelona er 3 per core had.
Je kunt op een enkele Intel core met HT anders echt het vlgende doen:
Make -j2

J2 wil zeggen twee jobs, dit is een Linux command btw. Ik heb dit in de praktijk getest. Al is een AMD octocore sneller dan een i7 990x, maar dat terzijde
Countess, het zijn allemaal bulldozer generatie type cores.

Ze kunnen niet zomaar een nieuw design eventjes maken (helaas).

Idee van bulldozer was destijds dat ze de L3 eraf zouden knallen, dan 1 of 2 modules zouden pakken als low power core voor notebooks en tablets etc.

Het lijkt er echter sterk op dat men meer richting notebooks zich heeft zitten blindstaren waar de TDP's hoger liggen.

Bij al deze <= 15 watt type cpu's gaat het helemaal niet om hoe snel de core is. De GPU maakt het meeste verschil namelijk. Je koopt een tablet niet om te number crunchen, om een voorbeeld te geven. Hij moet snel zijn voor spelletjes en video - dus snellere GPU is wat telt - en nog meer de hoeveelheid watt.

In dat opzicht lopen AMD en Intel nog wat achter de werkelijkheid aan, want het aankondigen van een 'low power core' die 15-25 watt gaat vreten is gewoon nog niet super interessant voor de markt.

Die zoeken met name goedkope cpu's met snelle gpu die echt onder die 6 watt zitten. Liefst maximaal 3 tot 4 watt onder full load.

Een chip die onder full load tegen de 3 watt zit, moet je al passief koelen namelijk, anders wordt hij te heet. Passief koelen kost geld en met name ruimte.

Intel en AMD willen natuurlijk enorme marges op elke cpu verdienen, met name intel, dat is op de low power markt gewoon niet zo goed mogelijk.

Dus het oorspronkelijke idee van AMD om 1 generiek design te bouwen en die dan vervolgens continue te optimaliseren, dat loopt een beetje spaak.

Intel zit daar ook met een probleem natuurlijk. Ivy Bridge is stuk zuinigere cpu dan de voorgaande generaties, maar om de quadcore ARMs bij te benen is toch minimaal een dual core cpu nodig EN een goede gpu.

AMD zit daar minder in de nesten natuurlijk - gpu's zat die goed zijn.

Neemt niet weg dat zowel intel als AMD continue opereren in de markten waar veel geld per cpu gevraagd wordt, terwijl ze toch keer op keer verzaken pogingen te doen voor echte low power cpu's.

Ze hebben kennelijk de hoop verloren te kunnen concurreren met ARM daar.
Nee, Countess heeft weldegelijk gelijk: de Jaguar is weldegelijk de opvolger/doorontwikkeling van de Bobcat architectuur, dit is een heel andere architectuur als Bulldozer/Steamroller/etc.

De Jaguar gebruikt geen modules zoals de Bulldozer, maar heeft relatief simpele cores met hun eigen interger en floating point unit. Het enige dat de 2-4 cores delen is de L2 cache en de geheugencontroller.

T.o.v. Bobcat is bij Jaguard de instructieset uitgebreid, is de IPC een klein beetje verhoogd (vooral op het gebied van FP) en is er een hoop gedaan om de idle power nog verder te verlagen.

Als je naar Kabini vs Brazos 2.0 kijkt dan is naast de CPU core ook de klokfrequentie aangepast, is er Turbo support toegevoegd en is de GPU flink aangepakt, deze is 1 generaties omhoog gegaan.
Ondanks dat ze bij Brazos 2.0 er al een HD7000 naam op plakten was het eigenlijk gewoon precies dezelfde chip als de Brazos 1 (met HD6000 GPU). Bij Kabini zal er een echte HD7000 GPU (GCN architectuur) in de SoC zitten die hoogstwaaarschijnlijk de HD8000 naam zal krijgen.

[Reactie gewijzigd door knirfie244 op 2 januari 2013 00:03]

Je kan nog wel een tijdje door gaan met editen als je wilt ;)
kijk http://en.wikipedia.org/wiki/AMD_Fusion#Jaguar

en wat betreft de snelheid:

http://www.fudzilla.com/h...t-faster-than-28nm-bobcat


die weer een link maakt naar http://www.youtube.com/wa...mp;;v=_GXA38vFPXA#t=4048s

Waar er vertelt wordt dat dit een behoorlijke sprong voorwaarts is :) \veel plezier ;)
je kunt 15 watt TDP niet gaan vergelijken met i5's die 4 echte cores hebben en zo maar tegen de 100 watt zouden kunnen gaan eten.
Ik ben het met je eens dat het geen goede vergelijking is, maar de huidige desktop i5's zitten tussen de 45 en 77 watt, niet eens in de buurt van de 100 watt die jij noemt.
Die "zou kunnen" 100 watt is in ieder geval dichter in de buurt dan de 15 Watt waar men over spreekt.....dus wat is je punt?

[Reactie gewijzigd door ioor op 1 januari 2013 14:17]

Waar het om gaat natuurlijk is dat je iets wat tegen de 100 watt vreet, dat je dat niet eventjes in je broekzak meeneemt, terwijl een cpu die 15 watt vreet onder full load, daar kun je dat wel mee doen, al is het ook aan de ruime kant die 15 watt.

Te veel zou ik willen zeggen. Maar er zijn vast weer fabrikanten die 't willen verkopen daar ze nog nooit zijn aangeklaagd voor hardware die te heet zou worden under full load :)
In alle berichten hierboven me zie ik heel vaak dat TDP gelijk wordt getrokken met de hoeveel stroom die de CPU nodig heeft om te kunnen rekenen. Hier snap ik dus iets niet. Want wat heeft het vermogen dat gebruikt wordt om berekeningen uit te voeren nou ook maar iets te maken met de hoeveelheid warmte die wordt geproduceert? Bij mijn weten staat TDP voor Thermal Displacement Power: de hoeveelheid verwachte warmteproductie bij standaard gebruik.

Even een theoretisch denkertje: een CPU heeft 100W nodig om al zijn schakelingen 1x per seconde om te zetten. Hierbij wordt 10W aan warmte geproduceerd.

AMD/Intel kan dan zeggen: wij hebben hier een CPU waarvan we verwachten dat het koelsysteem 10W moet kunnen afvoeren; TDP = 10W. Toch gebruikt de CPU dan 100W en niet 10!
Dus, kan iemand mij is even duidelijk maken waarom hier zo gevochten wordt over die TDPs terwijl het eigenlijk veel belangrijker is om te weten hoeveel de CPU zelf gebruikt? Ik heb liever een CPU die 5W nodig heeft om te kunnen rekenen en 10W aan koeling nodig heeft dan een CPU die 100W gebruikt en maar 5W aan koeling nodig heeft.

Voor de goede orde: deze getallen zijn compleet uit de duim gezogen en dienen slechts ter illustratie.

Wiki link naar TDP: http://en.wikipedia.org/wiki/Thermal_design_power
Want wat heeft het vermogen dat gebruikt wordt om berekeningen uit te voeren nou ook maar iets te maken met de hoeveelheid warmte die wordt geproduceert?
*Alle* stroom die door de cpu getrokken wordt, wordt omgezet in warmte.
Alle? Onmogelijk. Dan blijft er geen vermogen meer over om de arbeid te verrichten dat nodig is om de schakelaars om te zetten. Dus je kan geen berekeningen uitvoeren, dus een CPU is dan niks anders dan een veel te duur verwarmingselement.

Ik snap best dat het omhalen van zoveel schakelaars een hele boel warmte oplevert en het is lovenswaardig om dit zo laag mogelijk te houden.

Ah, ik struikelde net over een mooie uitleg over TDP. Toevallig ook een Tweakers artikel: http://tweakers.net/revie...dp-en-stroomverbruik.html

Dit zo door lezende mis ik eigenlijk nog veel meer informatie in dit artikel en kan ik nog maar een conclusie trekken: schermen met TDP getalletjes is heel mooi en aardig maar om echt iets nuttigs te kunnen zeggen over het stroomgebruik (en de benodigde batterijcapaciteit) heb je toch echt daadwerkelijke verbruiksgetallen nodig.
Ik denk dat jouw probleem is dat je schakelaars als iets fysieks ziet.
Arbeid gaat over verplaatsing van massa.
Maar transistoren hebben geen fysieke bewegende delen.
Alleen de elektronen bewegen door het circuit. Maar, die hebben een verwaarloosbare massa, dus is er verwaarloosbaar weinig arbeid, en dus is de gegenereerde warmte inderdaad ongeveer gelijk aan de verbruikte energie.
Ja, natuurkundig gezegd: een CPU verricht geen arbeid (het is immers solid-state, geen bewegende delen).
Nathilion heeft toch een klein puntje... TDP slaat letterlijk op hoeveel warmte de koeling van de behuizing moet kunnen dissiperen.
Dit hoeft in theorie niet exact gelijk te staan met de stroom door de CPU.
In de praktijk zal het niet ver uit elkaar liggen, want als je structureel te weinig warmte afvoert, zal de CPU steeds heter worden, en op een gegeven moment overhit raken, en dus niet meer werken.

Het verschil zit hem er vooral in dat de CPU mogelijkerwijs kortstondige piekvermogens heeft die iets boven de TDP liggen, maar het gemiddelde ligt juist onder de TDP, dus zal de koeling die pieken wel kunnen verwerken zonder dat de temperatuur op blijft lopen.
@HW addict: Neemt niet weg dat de range 15-25 watt nog steeds erg veel is objectief. Het ligt net boven wat je een groot uitgevallen mobieltje wilt laten gebruiken.

Dualcore zal eerder rond de 5 Watt idle liggen.

Bovendien zegt dit niet zo heel erg veel. AMD Brazos dualcore 1,6gHz. heb ik hier in een kleine 10 varianten voorbij zien komen (notebook, htpc etc.).

Het laagste systeem verbruik was 8Watt, het hoogste 39Watt. Met vergelijkbare externe hardware. Zo is dus duidelijk dat de implementatie van de Hardware door de fabriekanten meer verschil maakt dan de Apu zelf.

Brazos Idle in mITX (met verder exact dezelfde hardware):
Asrock: 30 Watt
MSI: 23 Watt
Sapphire: 19 Watt

Zotac nano Brazos: 12 Watt
Notebook Brazos: 8 Watt

Een vergelijkbare stevige (maar netto veel lagere) spreiding kun je dus ook bij Kabini verwachten......

[Reactie gewijzigd door trm0001 op 1 januari 2013 17:54]

Dit zijn geen i3/i5 concurrente, maar van Celeron en Atom. Deze Kabini chips moeten het gaan opnemen tegen de Valleyview-M lijn van Intel, die gelijktijdig gaat verschijnen deze zomer. Wel interessant, want zowel Intel als AMD komen dus met hele nieuwe architecturen.
nee daar zijn ze niet voor ontworpen. Dit is een concurrent voor de Atom lijn.
Ik vind de A10 van AMD toch nog wel aardige concurentie tegen over de i5. De prijs is goedkoper. Als de PC echt alleen gebaseerd is om op te gamen zal er niet echt een verschil in framerate zitten.
Alhoewel ik zelf voor de i5 zou gaan raadt ik andere met een lager budget soms een AMD CPU aan, als de PC echt voor gaming is. Of als er geen aparte videokaart in moet. Op het gebied van de APU is AMD wel een stuk beter.
Cpu maakt echt geen hol meer uit. De gpu, daar zit 't 'm vvoor gamers. Cpus zijn overpowered (we tikken de 4ghz aan) en veel vn die power wordt amper gebruikt
15 watt is best veel. Naar verwachting net zoveel als intels equivalent. Waar het toch om zal draaien voor de meesten is hoe goed de GPU is en de prijs van de cpu. Er is op dit moment nog niks bekend over de snelheid van de 8240G gpu zo lijkt het.
15 watt voor een quadcore vind ik toch niet echt veel eigenlijk. zeker niet omdat ze voor laptops zijn bedoeld en daarom toch ook wel wat snelheid moeten kunnen bieden.
Bij normaal gebruikt trekt mijn laptop met een i7 maar 12W uit het stopcontact, interne meter geeft 9,98W aan dan. Dat is wel bij gewoon wat internet browsen met muziek op de achtergrond. Maar ook als ik wat intensiever bezig ga komt mijn interne metertje niet boven de 22W uit. En dat is de gehele laptop niet alleen de CPU (exlusief LCD dat wel).

Ik ben van mening dat het nog veel beter moet kunnen, vooral in de low performance categorie waar deze kabini in thuis hoort. Naartuurlijk heeft AMD hier het max gebruik aan en niet het gemiddelde zoals ik hierboven doe. Maar ik verwacht niet dat de kabini sneller is als mijn i7 in low power mode.. (als ik mijn CPU snelheid op max 35% zet dan blijft hij onder de 20W)
15W is een typische TDP voor een kleine notebook. De vraag is hoe krachtig AMD deze chips kan maken binnen die grens. Voor het sub-10W segment (=tablets en 10" netbooks) heeft AMD de Temash SoC's in de planning staan.
Van de cpu's moet je niet te veel verwachten als ze power gelimiteerd worden. De hoge scores die intel en AMD altijd boeken op benchmarksites, dat zijn altijd de cpu's met de hoogste wattages.

Dan gaat verder de L3 vast foetsie bij deze modellen, omdat hij anders te veel prik gaat eten en AMD altijd al dat van plan was volgens eigen zeggen. Bij 2 modules @ 4 minicores zal dat niet zo'n probleem zijn.

Wat voor de klant interessanter is om te weten is hoe krachtig de GPU is, want dat gaat het 'succes' voor de cpu bepalen versus de intels. Daarbij wel de aanname dat hij goedkoper is dan de intel equivalenten.

Overigens valt altijd wel op dat intel grote deals wel vaak wint - dus ze moeten cpu's voor de grote producenten wel spotgoedkoop aanbieden. Intel speelt het spel in dat opzicht heel handig financieel.

Meest interessante vraag voor deze CPU is of de GPU in de buurt kan komen Tegra4 dan wel sneller is.

Met name de quadcore Tegra 4's vanzelfsprekend (al dan niet met een 5e core net als bij Tegra3). Want de A15 als cpu is qua IPC per core, voor de meeste normale workloads,
natuurlijk even snel als power limited intel hyperthreads / minicores van AMD.

Dus de GPU dan ernaast leggen en zien welke de snelste is dat is enorm interessant.
Overigens valt altijd wel op dat intel grote deals wel vaak wint - dus ze moeten cpu's voor de grote producenten wel spotgoedkoop aanbieden. Intel speelt het spel in dat opzicht heel handig financieel.

Dat is niet zo heel erg vreemd wanneer je ruim 50-tig keer zo groot bent als AMD. :O

Om nog maar te zwijgen over wat Intel onder financieel "handig" verstaat en hoe de EU, Azie en VS concurrentie waakhonden daar over denken..... :X

@sdk1985:
AMD: 1,7 miljard
Intel: 102,6 miljard
1,7 / 102,6 = 1,6 procent, oftewel Intel is 60 keer zo groot als AMD.

De manier waarop Intel zo groot is geworden en gebleven is imho niet al te fris......*
(Heel toevallig dacht de controlerende macht daar in EU, VS, Azie net zo over)

* bovendien spreek ik uit ervaring over een zekere Rob K. die in Nederland verantwoordelijk was voor Intels slinkse achterkamertjes dealtjes.....(illegale kortings voorwaarden).

[Reactie gewijzigd door trm0001 op 2 januari 2013 03:13]

Huh?

Intel zit op 54 miljard, AMD op 6,49. Dat is factor 8.

Bovendien zijn schaalvoordelen niet oneindig (in deze industrie gaat het om fabs van miljarden, maar je kunt een fab niet oneindig opschalen). Met een netto winstmarge van bijna 24% is Intel toch wel financieel handig te noemen. Intel staat dan ook niet voor niets in de S&P500.

AMD is overigens een aantal maanden (mei 69) na Intel (jul 68)opgericht. Underdog verhaal is dus niet nodig. Er zijn in het verleden gewoon strategische keuzes gemaakt. In de jaarverslagen van AMD komt het volgens AMD zelf vaak neer op een tekort aan productiecapaciteit (blabla goed maar offset by limitations in product supply).

[Reactie gewijzigd door sdk1985 op 1 januari 2013 23:17]

?? Is het al bekend dan dat Tegra 4 een quad core wordt?

Overigens is het niet zo gek dat Intel goedkoper kan zijn dan AMD, zonder die grote gpu erbij zijn die chips kleiner en goedkoper te produceren. Een Brazos chip is 75 mm2, de Atom serie loopt van 26 tot 65 mm2.

[Reactie gewijzigd door Dreamvoid op 1 januari 2013 21:05]

Zelfs brazos2 is nauwelijks en heel laat op de markt gekomen dus ik zou zeker niet wachten op deze apu's, al zijn het vast hele leuke.
Puur op basis van vorige producten uit de AMD fabriek is mijn verwachting dat deze cpu's qua rekenkracht onder de Intel-lijn equilevanten zal liggen maar daarentegen iets betere prestaties zal leveren vanuit de iGPU.
Intel gebruikt nog steeds zijn eigen HD3xxx en 4xxx series gpu's die dan wel DirectX ondersteuning bieden (tot versie 9.0c) maar vaak 8 MB dedicated geheugen hebben met max. 256 MB shared.
AMD's HD6xxx en hoger hebben in hun mobiele versies vaak geen dedicated geheugen (ik praat dan over de iGPU versies, niet de on-board mobo versies) maar wel (afhankelijk van de versie) 256 tot 2048 MB shared met DirectX 9+ (huidige 7xxx generatie tot 11.1, verwacht dat de 8-serie DX12 ondersteuning zal hebben).
Ook bied AMD de zogenaamde Hybrid CrossFireX waarbij iGPU en GPU samen werken zodat je een low-budget HDxxxx kaart met een lage TDP en passieve koeling er bij kan plaatsen voor je ULVPC of HTPC.

Bij de huidige AMD C-70 (9W TDP) met HD7290 heb je 256 MB shared DDR3-1066 en DX11 waarmee je redelijk kan gamen op je netbook, zolang je geen Full HD 3D op Ultra settings verwacht.
Bij de Atom dual cores met HD3000 met 256 MB shared kan je Call of Duty 1 spelen op 800 x 600 maar dan heb je het wel gehad.
Ook qua videoprestaties ben je beter af met de AMD's omdat deze hardware video ondersteuning hebben en de Intel HD3xxx en HD4xxx series puur afhankelijk zijn van Direct3D.
Zo zou je met je AMD C-xx of E-xx in theorie Full HD 3D in x264/h264 encoding schokvrij moeten kunnen afspelen, waarbij de Atoms met HD3600 het niet meer trekken.
Natuurlijk is de i3-3xxx M serie met HD4000 een stuk sneller qua processor maar ook duurder en met 35W een veel hogere TDP.
De i3 M kan qua programma's dan ook veel meer verwerken (verwachting is meer dan AMD's Steamroller) maar loopt ook hier qua grafische kracht sterk achter op AMD's integrated Radeon GPU's.

De keuze van processor hangt dus heel sterk af van hoe je de cpu wil gaan gebruiken.
Een directe vergelijking kan je dan ook niet maken tussen de Intel en AMD integrated CPU's en mobile cpu's met iGPU tenzij je de GPU volledig buiten beschouwing laat.
Doe je dit niet, dan is AMD de keus voor (licht) gaming en video prestaties, en Intel voor alle andere dingen.
Heb je wel eens van OpenCl gehoord, waar blijft Intel dan ergens met rekenkracht ?
Leuk dat je dat vraagt: http://www.anandtech.com/...264-with-amds-trinity-apu
Intel staat met OpenCL nog steeds fier bovenaan in Handbrake. Vooral de tweede plaats van Sandy Bridge is interessant, want daar draait OpenCL volledig op de CPU.
Het verbaast mij ook continue hoe intel niet tot goede gpu's weet te komen. Wel hebben ze wat redelijke gpu's die enorm goedkoop te produceren zijn (ze produceren er dan ook enorm veel van).

Zo sprak ik onlangs met een hoofdontwerper van 1 van de AMD gpu's (destijds nog ATI). Dit soort mannen kun je gewoon inhuren. Intel met hun recordomzet van afgelopen tijd zouden toch in staat zijn om die paar dozijn miljoen voor zo'n hoofdontwerper te betalen (in geval van succes).

Tenslotte levert het miljarden op aan omzet.

Het is mij onduidelijk waarom ze dit soort succesvolle personen nooit inhuren. Hun eigen architecten zijn natuurlijk wel enorm goed op CPU gebied - patenten vermijden echter objectieve vergelijken met andere fabrikanten.

De prestaties die de al dan niet geintegreerde GPU levert neemt echter continue toe in belang - niet iets wat intel kan blijven ignoren.

Misschien heeft het beetje te maken met het feit dat de marges in de low power markt laag liggen, terwijl de hoeveelheid cpu's die je drukken moet in de low power markt enorm meer is dan intel drukt.

Lijkt me toch dat elke CEO wel de tendens moet opgemerkt hebben dat CPU's voor de gemiddelde persoon waar ze aan verkopen kunnen, dat die in prijs zakken - en dat is ook wat je zou willen verwachten in een markteconomie met gezonde concurrentie :)
Ja ik vraag mij ook af waarom Intel niet gewoon NVidia in huurt aangezien AMD al ATI heeft overgenomen.
Logische stap lijkt mij, maar goed ik ben dan ook niet de CEO van Intel, ik verkoop hun hardware alleen maar :P

Je reactie geeft wel weer wat een hoop mensen denken.
Ik heb namelijk stromen reacties gehad van Intel aanhangers na de fusie tussen AMD en ATI met de vraag waarom Intel dan niet samen gaat met NVidia.
Dat antwoord is heel simpel: Dat zou Intel ongeveer 10 miljard gaan kosten.
(en ja zelfs voor Intel is dat veel geld, alleen Apple heeft een dergelijk bedrag "op zak")

Edit: Dank voor de moderaties uiteraard.
Wel graag even aangeven waar ik andere tweakers beledig.....
(of waar de Troll of flamebait factor zit ?)

@hieronder Armada: Nvidia is op het moment ongeveer 8 miljard waard, daar komen dan nog heel veel kosten bij voor de overname op zich, + de te verwachten sterke stijging koers vlak voor de overname en afkopen contracten.
http://www.google.com/fin...mp;ei=2EfjUIieA6qNwAO6tAE

@hieronder MM234:
AMD heeft de 4 a 5 miljard wel degelijk zelf moeten ophoesten voor Ati.
Er waren geen geldschieters die dat even opbrachten.

En ja tuurlijk kan Intel het wel betalen maar ik weet zeker dat ze nu niet willen. Veel te veel onzekerheid op dit moment. Daarnaast is 10 miljard op iedere kas / reserve een stevige aderlating wat je dus nooit moet doen tijdens een crisis.....

[Reactie gewijzigd door trm0001 op 1 januari 2013 21:40]

AMD had geld voor ati ook niet in huis, hoeft ook helemaal niet! ;)

Mits je sterk plan hebt en mensen die er brood in zien krijg je dat geld echt wel bij elkaar. Zolang het levensvatbaar plan is zal die 10 miljard geen enkele probleem zijn ook al heeft intel het niet in huis. Wat natuurlijk niet waar is want intel heeft meer reserve dan 10 miljard. In 2011 had intel nog 24 miljard in huis als reserve, weet niet helemaal hoe ze er nu voorstaan, maar verwacht meer dan 10 miljard.
Ja lijkt me ook sterk dat AMD wel ATI kan over nemen maar Intel niet NVidia of een meerderheid in de stocks.
Wat dat betreft ben ik het eens met mad_max234.

Overigens heb ik nooit beweerd dat Intel NVidia moet over kopen, er staat in huren of samen werken wat heel wat anders is.

@trm0001: Hoe kom je eigenlijk op dat bedrag uit?
De huidige market cap van NVidia zit rond de 7,5 miljard. Met dertig procent er bovenop (gebruikelijk bij een overname) kom je dan rond de 10 miljard dus dat bedrag klopt wel.

Geruchten over een overname van NVidia zijn er door de jaren heen genoeg geweest, ook recent nog. Aan de andere kant lijkt het feit dat Intel tot nu toe niet toegeslagen heeft er op te wijzen dat ze een andere strategie hebben. Als ze een dergelijk bedrag investeren zal het zich ook terug moeten betalen en ik betwijfel of een overname van NVidia de concurrentie positie van Intel tegenover AMD zoveel zou verbeteren.
Het verbaast mij ook continue hoe intel niet tot goede gpu's weet te komen.
En het is niet eens zo zeer een kwestie van niet kunnen, uiteindeijk is het voor Intel een ontwerpkeuze. Los van alle marketing bullshit eromheen, GPU performance is grotendeels afhankelijk van hoeveel transistors je er tegenaan gooit. Intel zou er voor kunnen kiezen om net zoveel shaders in hun gpu's te duwen als AMD doet, maar het toevoegen van een grote gpu maakt de chips groter, onzuiniger en duurder. De Trinity die is bijna 2x zo groot als Ivy Bridge, en dat betekent in het algemeen een >2x hogere productiekost per chip. Intel gaat het om de centen, zolang hun klanten (=de OEMs) niet bereid zijn extra te betalen voor grote geintegreerde gpu's, gaat Intel ze niet maken. Langzaamaan is dit wel een beetje aan het veranderen, en daar zie je dus ook dat Intel met Haswell meer shader units toevoegt. Maar zolang de markt niet bereid is om veel extra te betalen, voor snelle gpu's, gaan ze niet veel doen.

Wat ook nog meespeelt is dat Intel's filosofie is dat gpu's buiten graphics helemaal niet zo belangrijk zijn. De concurrentie gebruikt de gpu shaders om parallelle rekenunits te maken (via OpenCL/CUDA). Intel bouwt deze units direct in de cpu zelf (AVX2) en omzeilt zo de hele cpu-naar-gpu bottleneck. Daardoor valt de noodzaak voor grote gpu's voor algemeen/HPC gebruik weg.

[Reactie gewijzigd door Dreamvoid op 1 januari 2013 21:12]

Intel's HD3xxx is DirectX 10.1, en HD4xxx is DirectX 11. OpenCL wordt op de HD4xxx ook ondersteund.

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Samsung Smartphones Sony Microsoft Apple Games Politiek en recht Consoles Smartwatches

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013