Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties, 11.827 views •

AMD heeft een nieuw soc-platform uitgebracht in zijn G-serie apu's. Socs in de G-Serie krijgen een zogeheten Jaguar-architectuur met twee tot vier x86-cores en naar keuze een ingebouwde gpu. AMD heeft de socs bedoeld voor embedded systemen.

De G-serie met Jaguar-cores is te herkennen aan de X in de typenaam en volgt de voorgaande G-serie met Bobcat-cores op. AMD onthulde de nieuwe Jaguar-architectuur al in augustus 2012 en zal op basis daarvan verschillende apu's uitbrengen. Voor zuinige laptops heeft AMD de Kabini-apu's bedoeld en voor tablets komt AMD met Temash-apu's.

AMD G-seriesDe G-serie moet zijn weg vinden naar embedded apparatuur, zoals smart-tv's, settopboxen en zakelijke apparatuur. Volgens AMD moeten vooral de grafische prestaties van de soc, waarin een HD8000-gpu geïntegreerd is, het goed doen tegenover de concurrentie. De gpu ondersteunt DirectX 11.1, OpenGL 4.2x en OpenCL 1.2. Daarnaast heeft de apu ondersteuning voor AMD's uvd, die hardwareversnelling biedt bij het afspelen van video's.

De Jaguar-cpu-cores ondersteunen ecc-geheugen en krijgen een gedeelde L2-cache, die een flinke prestatiewinst moet opleveren. Als er slechts één core gebruikt wordt, kan de actieve core extra prestaties leveren door het volledige L2-geheugen te benutten. Volgens AMD resulteert de nieuwe apu-architectuur in een prestatietoename van 113 procent ten opzichte van de vorige generatie embedded apu's. AMD heeft de apu tot slot ondersteuning voor DAS 1.0 meegegeven. DAS is een verzamelterm voor beveiligings- en beheertechnieken die AMD in de apu heeft ingebouwd. Daaronder vallen onder andere de ondersteuning voor DASH 1.1, AMD-V en TPM 1.2.

 GX-420CAGX-415GAGX-217GAGX-210HAGX-416RA
Aantal cores 4 4 2 2 4
Klokfrequentie 2,0GHz 1,5GHz 1,65GHz 1,0GHz 1,6GHz
Gpu-frequentie 600MHz 500MHz 450MHz 300MHz -
Tdp 25W 15W 15W 9W 15W
Prijs 49 - 72 dollar

Reacties (86)

Het zou wel leuk zijn als HP deze socs gaat toepassen in hun Microservers. Die zijn weer toe aan een upgrade voor mijn gevoel. Dit zou zonder extra energiegebruik toch een flinke prestatiewinst leveren.
er is een nieuwe microserver op komst, echter niet meer met een AMD CPU
Heb je een bron? Dat zou interessant kunnen zijn, alhoewel me deze SoC ook wel wat leek.

Off-topic:
Oké, wat gevonden: lijkt dat nieuwe HP Microserver G8 een Intel G530T/G630T CPU krijgen aan links bij HP te zien.

[Reactie gewijzigd door rookie no. 1 op 23 april 2013 12:55]

Kijk, dat is het betere werk. Een zelfde soort SOC dat straks in de Playstation 4 te vinden is, hoewel dat een 8-core zal zijn. Op die manier kun je dan een beetje een inschatting maken welke TPD deze octa-core straks mee zal krijgen; ergens tussen de 35 en 50 watt.

Met deze dual- en quadcore SOC's zijn heel leuke embedded systeempjes te bouwen. Het zal me niet verbazen als Zotac binnenkort met nieuwe ZBoxen op de markt komt die deze Jaguar-architectuur meekrijgen. Ze zullen in ieder geval een stuk pittiger zijn dan de huidige E-series APU's.
Kijk, dat is het betere werk. Een zelfde soort SOC dat straks in de Playstation 4 te vinden is, hoewel dat een 8-core zal zijn.
Mijn vermoeden is eigenlijk dat de SoC in de PS4 toch wel aardig af zal gaat wijken van deze configuraties, met name de precieze GPU configuratie ben ik erg benieuwd naar. Wat bekend is, is dat het een 8-core CPU op basis van Jaguar zal zijn, maar ik hoop er nog steeds stiekem op dat er een dual-GPU configuratie in zal zitten. De geintegreerde GPU zou dan niet voor grafische taken gebruikt worden (en dus flink gestript) zodat je de CPU+IGP echt als een APU kunt gebruiken, en er zou een flink stevigere HD8xxx GPU bijgeprikt kunnen worden voor de rendering.

Als je uit zou gaan van 'gewoon' een 8-core variant van bovenstaande configuraties, dan zou me dat toch wel een beetje tegenvallen, want hoewel het weer een flinke stap vooruit is, verwacht ik nu niet dat een PC met 4-core Jaguar + geintegreerde HD8xxx GPU echt geweldige performance gaat geven in high-end games. Het aantal CPU cores verdubbelen gaat je niet veel helpen wat graphics betreft.

[Reactie gewijzigd door johnbetonschaar op 23 april 2013 11:42]

`gpu indeling van de PS4 is toch al lang meer info over bekend?
HD7xxx architectuur (hetzelfde als de hd8xxx dus, dat is namelijk tot nu toe alleen maar rebranding) en qua cores en rops zit het ongeveer op het niveau van een hd7850. Maar dan met meer RAM (8gb voor gpu + rest van het systeem unified).

Alleen clockspeeds is nog niet (veel) over bekend dacht ik.
Sony gaat een HD 7850 aan de APU plakken. In de officiële specsheets staat een 1,8 TFLOP GPU en die getallen komen overeen met de HD 7850, waarover al veel geruchten zijn geweest. Er komt één GPU in. De combinatie van 2x 4 cores en de HD 7850 wordt op één chip geplakt en dat is de APU uit de PS4.

De 8000-serie bestaat al voor OEM's, aangezien deze rebranded is. Je kan stellen dat de PS4 hierom een HD 8850 heeft, al is dat dus identiek aan een HD 7850.

Verder is het precies wat je zegt: een flinke stap vooruit, maar als het next-gen systeem wat weer heel wat jaren mee moet vind ik het zeker tegenvallen.

Edit: @dipje2 aangezien het aantal TFLOPS vast staat zal de kloksnelheid vrijwel gelijk zijn aan de retail kaarten (860 MHz). Geruchten gaan rond de 800 MHz.

[Reactie gewijzigd door Richh op 23 april 2013 11:59]

Ik weet niet hoe betrouwbaar deze aannames zijn hoor, volgens mij is het allemaal nogal op speculatie en interpratie van het aankondigings event gebaseerd. In feite heeft Sony niet meer vrijgegeven dan de theorethische performance van de GPU, het aantal cores, en de hoeveelheid en type van het RAM. Van daaruit is inderdaad terug geredeneerd naar wat de GPU mogelijk zou kunnen zijn, en waarschijnlijk zit dat vrij dichtbij, maar dan weet je nog steeds niet hoe de SoC verder is opgebouwd.

Wat volgens mij nog volkomen onduidelijk is zijn de kloksnelheid van de CPU cores, en of de GPU de IGP van de standaard Jaguar-SoC's zoals hierboven staat vervangt, of dat ze uitgaan van een configuratie die (op het aantal cores na) vrijwel identiek is als de gewone Jaguar configuraties, maar met een extra GPU (al dan niet on-chip). Als de 1.8 TFLOPS alleen voor de GPU geldt, dan kan het nog steeds prima zo zijn dat er ook nog de geintegreerde APU GPU aanwezig is, maar deze alleen voor niet-grafische taken bedoeld is (dat was nu juist een van de voordelen van AMD's aanpak, dat je de blokken die voor de GPU gebruikt wordt ook direct voor CPU-achtige taken in kon zetten). In feite is een dergelijke architectuur vrij eenvoudig te ontwikkelen, want in feite pak je gewoon een off-the-shelf Jaguar ontwerp, en plakt daar een GPU bovenop, een beetje net als in de laatste versies van de Xbox 360 (ook daar zijn uiteindelijk de CPU + GPU op een enkele chip gestopt).

Het zou ook wel typisch Sony zijn om met iets dergelijks te komen, die hebben er al sinds de PSX een handje van om extra logica in hun systemen te bouwen waarmee bepaalde CPU en GPU taken geoffload konden worden (denk aan de emotion engine op de PS2, of de SPE's van de PS3 CPU, die efficient gebruikt kunnen worden om GPU taken te offloaden).
Het gaat allemaal om bandbreedte naar de RAM, dus het aantal Tflops is veel minder interessant dan de bandbreedte die ze met de RAM gaan bereiken. Meer dimms erop plakken zou wel eens grotere bandbreedte kunnen betekenen wat voor meeste games direct resulteert in een spel dat beter performed.
Sony legt inderdaad haar complete marketing op die bandbreedte, maar bij PC's is de bandbreedte naar je RAM totaal irrelevant. Het levert geen meer frames per seconde op als je je geheugen zwaar overklokt of zwaar onderklokt. De 256-bit geheugenbus is sowieso te klein om optimaal gebruik te maken van 8GB werkgeheugen. Je ziet dat voor 6GB videokaarten bedrijven al gebruik maken van 384 of 512-bit geheugenbussen.
Deze aannames zijn geen aannames, 1,8 TFLOP staat namelijk gewoon in de specsheet die je van Sony's website kan downloaden: http://www.scei.co.jp/corporate/release/pdf/130221a_e.pdf

De GPU van een APU gebruiken voor een betere workloadverdeling zal verstandig zijn, Sony heeft bekendgemaakt ook GPGPU technieken te gebruiken.

De emotion engine is een benaming/marketingsterm en SPE's zijn onderdeel van een processor. De PS3 gebruikte inderdaad de processor om de GPU van minder workload te voorzien.

[Reactie gewijzigd door Richh op 23 april 2013 15:05]

info zoals de cpu, de gpu architectuur, het aantal shader cores in de gpu, de hoeveelheid (unified) ram + de bandbreedte daarvan staan vast en zijn gewoon bekend gemaakt door Sony zelf.

Wat nog niet zeker is bijvoorbeeld is of alle shader cores zomaar te gebruiken zijn door een game, of dat er een cluster van is gereserveerd voor compute dingen.

Ook is het nog niet duidelijk of het 'os' een gedeelte van het ram reserveerd of dat soort dingen.
@Richh : Dat zal wel meevallen. De huidige PS3 beschikt over een nVidia GPU die gebaseerd is op dezelfde kern als de Geforce 7800 GT(X). Evengoed draaien spellen nog prima.

Goed, de "draw distance" en resolutie zijn wel wat lager, maar het gaat om het speelplezier. Tot nog toe laat de PS3 het daar (wat mij betreft) nog niet afweten, hoewel Skyrim bijna onspeelbaar was vanwege de constante "framedrops". Vraag me ook af of dat niet eerder aan het spel zelf lag aangezien andere moderne titels vloeiend draaien.
Mijn vermoeden is eigenlijk dat de SoC in de PS4 toch wel aardig af zal gaat wijken van deze configuraties, met name de precieze GPU configuratie ben ik erg benieuwd naar. Wat bekend is, is dat het een 8-core CPU op basis van Jaguar zal zijn, maar ik hoop er nog steeds stiekem op dat er een dual-GPU configuratie in zal zitten. De geintegreerde GPU zou dan niet voor grafische taken gebruikt worden (en dus flink gestript) zodat je de CPU+IGP echt als een APU kunt gebruiken, en er zou een flink stevigere HD8xxx GPU bijgeprikt kunnen worden voor de rendering.
Je kan prima een beetje compute naast een game draaien, een extra igp zou verspilling zijn.
Je kan prima een beetje compute naast een game draaien, een extra igp zou verspilling zijn.
Waarom verspilling? Als het maar een paar Watt extra kost en je hoeft de SoC zelf veel minder ingrijpend aan te passen dan wanneer je de standaard IGP gaat vervangen door een veel zwaarder exemplaar, dan zie ik niet wat de verspilling is. APU + GPU lijkt me nog altijd een stuk flexibeler dan CPU + GPU. De PS4 moet ook gewoon minimaal een jaar of 6 mee kunnen.
vergeet niet dat de ps4 naar alle waarschijnlijkheid de gpu ook op de zelfde chip zal hebben en dus de sock en gezien de gpu op de ps4 beduidend krachtiger zal zijn dan op deze apu's verwacht ik dat de sock op de ps3 beduidend meer stroom zal trekken.

Ik neem aan dat het op een chip zit gezien dat ook nog eens de beste verklaring is waarom Sony volledig amd is gegaan en het moet mogelijk zijn allemaal op een chip te stoppen.
Ja, maar is het nou een SoC of en APU.

APU == CPU + GPU

SoC == System on a Chip.

Dit is eigenlijk dan een APU + extra's. Denk aan SPI controller, Sata controller, USB controller etc etc. Allemaal op de zeflde Die. Zeker handig voor embedded etc systemen. Maar is dit het ook?
Die TDP berekening klopt natuurlijk niet. We weten totaal niet wat voor GPU de PlayStation 4 krijgt, maar gebaseerd op geruchten zal deze aanzienlijk sneller zijn dan wat er in deze SoCs zit.

De TDP zal dus eerder richting de 50-75W gaan.


Ik ben wel erg benieuwd naar de prestaties van deze SoC's, en vooral naar de TDP's die Temash gaat bieden. Temash zal het vooral op moeten gaan nemen tegen de nieuwe Bay Trail Atoms van Intel, waar de Quadcore versie een TDP van 8,5W mee krijgt.

[Reactie gewijzigd door knirfie244 op 23 april 2013 16:34]

Het betere werk? Dit is het laagste wat AMD aanbied, en dat moet dan de drijvende kracht achter het next-gen systeem van Sony zijn, wat 8 jaar mee moet? Ik maak me druk of dit niet juist de grafische innovatie tegen gaat houden.

Dit soort chips zijn lachertjes tegenover wat er zelfs in gewone laptops zit gebouwd en dat vind ik nogal wat voor een gamesysteem, zelfs als je bedenkt dat gaming vooral over de videokaart gaat.
Het staat ook in contrast met de CELL-processor uit de PS3. Dat was misschien geen programmeerhemel, maar een enorm sterke processor, een component die nog een paar jaar mee kan.

Deze processors zijn gemaakt voor TV's, tablets en zoals je zegt leuke embedded systeempjes. Niet voor krachtige gameconsoles, zelfs niet als je ze in tweevoud hebt.
Kun je aub je FUD voor je houden. Ongeinformeerd zulke conclusies trekken is nogal voorbarig.

http://www.planet3dnow.de...iewnews.cgi?id=1366210905

Zoals het er naar uitziet is de kabini 4 cores @ 2GHz singlethreaded vergelijkbaar met een T7300, multithreaded kan deze zich meten met een Q6600. Dit zijn niet prestaties die je terug ziet "TV's, tablets en zoals je zegt leuke embedded systeempjes".

Als je de "die" van de brazos bekijkt zul je zien dat de GPU een groot deel ervan beslaat;
http://ascii.jp/elem/000/...%20Labeled_c_948x1080.jpg

Deze zal ook een groot gedeeldte van het TDP budget opnemen. Bovendien is de Kabini een SoC (System on a Chip), dus all-inclusive. Waar je bij andere chips het TDP van de southbridge moet optellen en evt. GPU. Het "lachertje" waar je het over hebt is in staat om Dirt3 @ 1080p in tablet formaat af te spelen. Noem een laptop cpu/apu die dit kan zonder:
- direct te overhitten (passieve koeling)
- het na 10 minuten op te geven (batterijduur)
- uberhaupt in een tablet past

Het leuke van AMDs modulaire ontwerp is dat je als hardware maker (Sony/Microsoft) zelf de modules kunt samenstellen; het CPU gedeeldte zal naar alle waarschijnlijkheid hetzelfde zijn maar het grafische gedeeldte kan verschillen.

[Reactie gewijzigd door C.Hariri op 23 april 2013 12:26]

De GPU frequentie is niets mis mee, deze is gewoon gelijk aan de meeste low-end GCN gebaseerde GPU's (Caicos / Turks PRO) waar de GPU in deze APU op gebaseerd is.

RAM zal er niet op deze SoC zitten. Het is 4 CPU's, een GPU, en een southbridge (SATA/USB/etc). Ik verwacht dat minimaal de helft van de TDP in de GPU zal zal zitten.
@C.Hariri : Ik verwacht ook wel dat Sony bepaalde beveiligingstechnieken (lees DRM) aan de processor laat toevoegen om het spelen van illegale spellen aan banden te leggen. De Jaguar APU beschikt tenslotte over AES-NI; een instructieset die het hardwarematig versnellen van AES encryptie mogelijk maakt.

Waar ik in ieder geval benieuwd naar ben is of het straks mogelijk gaat zijn om Windows 7 of een volledig werkende Linux distributie op de PS4 te installeren. Hardwaretechnisch zou dat geen probleem moeten zijn. Zo heb je direct een leuke mediacenter die ook nog games af speelt. Op dat vlak heeft Sony het in het verleden flink laten afweten.
TV's, tablets en embedded systemen staat letterlijk in het artikel.
De G-serie moet zijn weg vinden naar embedded apparatuur, zoals smart-tv's, settopboxen en zakelijke apparatuur.
Leuk dat jij de marketingpraatjes van AMD vertrouwt wat betreft prestaties, maar ik doe dat niet. Het is een update van Bobcat (simpel gesteld krijg je dan nooit sprongen van 500% prestaties) en opnieuw is dit het laagste wat AMD aanbied. Dat is weinig voor een next-gen console. Dat het laagste wat je tegenwoordig kan kopen al een consoleport als Dirt3 kan draaien, zegt meer over hoeveel de huidige consoles achterlopen, dan over hoever de PS4 straks wel niet voorloopt.

Overigens is de IGP van Kabini niet aanwezig in de PS4, maar vervangen door een krachtiger model. Zoals je zelf zegt: het CPU gedeelte is aanwezig. Ik geloof best in de grafische prestaties van het systeem. Maar de processorkracht is in een Sony-console nog nooit zo laag geweest, als je het vergelijkt met wat momenteel verkrijgbaar is voor een consument met een gemiddeld budget.

Dat een tablet/smart TV-processor zich kan meten met met een quadcore van 6 jaar terug en een laptop dualcore van 6 jaar terug, is toch niet bijzonder snel ofzo? Kijk wat er in je huidige smartphone zit.
Je zou haast kunnen stellen dat ze Nintendo achterna gaan, door prestaties te gebruiken van 6 jaar oud :+

[Reactie gewijzigd door Richh op 23 april 2013 15:13]

Nou dat schiet ook niet echt op 13% minst, lijkt wel of ze tegen limit aanzitten laatste paar jaar, vroeger zag je nog wel eens 50% of zelfs 100% extra(ipc en klok verhoging) erbij komen bij nieuwe generaties.

Nou verwacht niet dat mensen voor 10% naar winkel gaan rennen om nieuw pc of laptop te kopen. Ja snap dat deze embed bordje is, maar gaat ook op voor desktop cpu's.

Geef ons nu eens goede rede om nieuwe cpu te kopen, zorg dat die heel veel sneller word, lees minimaal 50%. Anders zie ik het somber in voor pc markt als je elke 1.5 jaar maar 10 a 20% extra prestatie eruit weten te persen.

[Reactie gewijzigd door mad_max234 op 23 april 2013 11:25]

"Volgens AMD resulteert de nieuwe apu-architectuur in een prestatietoename van 113 procent ..."

Het is een prestatietoename van 113%, niet 13%.
idd, een toename van 13% of een toename van 113% betekent gewoon hetzelfde, 13% meer dan de vorige versie en om het exact aan te geven: 113%.
een toename van 113% is een toename van 113%, als ik 1 liter water heb en er is een toename van 113% heb ik daarna 2,13 liter water.

Een toename van 13% dan heb ik 1,13 liter water. Als er zou staan presteert op 113% van de prestatie van de vorige generatie dan is het een toename van 13%.

Wat ze hier zeggen is dat die meer dan dubbel zo goed presteerd als de vorige generatie, lang niet gek dus. Voor mad_max als rekenen met procenten niet zo lekker gaat ga je nooit nieuwe hardware kunnen kopen :+
Je hebt gelijk, las het als 113% tegenover de oude, woordje toenamen even niet gelezen. lol ik maar wachten en wachten blijkt de tijd al hier te zijn, althans voor deze markt nu nog laptop en desktop, als ze daar ook 113% weten te behalen ben ik helemaal blij.

Vooral low end blijft gigantisch achter, A4 apu is amper sneller dan athlon II M320 van twee jaar oud.

Edit/
Verwacht overigens geen 113% in real life in meeste applicaties dat komt hoofdzakelijk door dual voor quad core, en dan nog wat IPC verbetering erbij zoals tweede decode beter fetch, etc.

Zou graag benchmarks zien van de dual core vs oude generatie, dat zegt iets meer dan 113% bij dual vs quad.

[Reactie gewijzigd door mad_max234 op 24 april 2013 03:20]

Een "toename van 113%" is wat anders dan "presesteert op 113% van het origineel".

Een toename betekent in mijn ogen dat de uiteindelijke prestaties liggen op 100% + [de toename].

5% korting = 5% afname = 95% van iets
5% extra = 5% toename = 105% van iets

Al met al lijkt dit behoorlijk indrukwekkend!
13%? Er staat toch echt duidelijk 113 in het artikel :)
Er staat 113 procent prestatie toename.
Dat betekent dus niet 13 % winst, dat betekent 113 % winst.
100 + 113 = 213 % keer de performance van de G series...

Je kunt natuurlijk beargumenteren dat er alleen de quad core 113 % extra performance
oplevert, en dat dat ook nog met 25W TDP is.
De oude G series deed max 1.65Ghz dual core op 18W.

Maar de GX-415GA doet quad core op 15W met maar 1.5Ghz. Is waarschijnlijk iets van 2x zo snel als de oude 1.65Ghz met 18W.

En de GPU's zijn volgens mij veel sneller voor 3D tekenwerk.


Dus ik vind dit nog niet zo slecht, vooral die 2.0 Ghz versie met quad-core.
Alleen jammer dat er geen Dual Core APU is op 2.0 Ghz en 15/18 W ...
(25W is toch wat lastiger passief te koelen)...
@hardwareaddict monsterlijk veel? dit is inclusief de GPU 8)7
dat is extreem laag, en veel lager dan intel kan doen qua-performance.

[Reactie gewijzigd door stewie op 23 april 2013 12:24]

niet te veel op letten, hardwareaddict is een beetje intel fanboy volgens mij en kan alleen maar zeggen dat alles superslecht is. als 25W prestatie al te veel is vraag ik me af waarop hij deze berichten typt :+

Ik ben het met je eens dat het goede prestaties zijn, quadcore plus een sterke GPU op 25W heel netjes.
Noemenswaardig is ook de "X" rechtsonder. AMD gaat in de toekomst ook ARM processoren toevoegen aan zijn assortiment. De "X" zou duidelijk moeten maken dat het om een processor met x86-architectuur gaat. In de toekomst moeten er ook "A" varianten komen.

http://www.engadget.com/2...embedded-chips/#continued

[Reactie gewijzigd door GENETX op 23 april 2013 11:36]

De grote vraag is of dit een kant en klare ARM core wordt, of dat AMD dan zijn eigen ARM architectuur gaat maken (zeg maar een Jaguar met een ARM instruction decoding unit ipv de huidige x86 decode)
En waarom zou dat er zijn zo veel fabrikanten die de ARM instructieset gebruiken en toch niet het standaard chipontwerp van ARM. Je bent puur irritant aan het bashen.

Liijkt mij dat er best een markt voor kan zijn, zeker als AMD een goed ARM chipontwerp weet te maken en dan eventueel in combinatie met 1 van hun embedded GPU's
Net als Krait zeker niet compatible met de rest...... doe is wat research voor je begint te blaten zeg
Ik verwacht, na alle ontslagen, een kant-en-klare core. Het lijkt me in de huidige situatie niet verstandig voor AMD om nog meer mensen weg te halen bij de x86-ontwikkeling. Daarbij, als men de huidige ALU en andere "core" componenten van de core zou behouden voor het verwerken van de ARM instructies, dan vraag ik me af of dat wel efficient is. Grote kans dat er ongebruikte onderdelen blijven zitten en dat het minder geoptimaliseerd is. Een kant-en-klare ARM core zal veel beter geoptimaliseerd zijn voor de ARM instructieset en daarmee waarschijnlijk ook een stukje zuiniger zijn. Vooral dat laatste is belangrijk wil AMD succesvol zijn. Er zijn op de ARM markt een stuk meer concurrenten ;)
Dat zei jij destijds zeker ook over Intel met de Pentium 4 die het af moest leggen tegen de AMD Athlon 64 (X2)... AMD is met Fusion gewoon een compleet andere weg aan het inslaan. Die kan mislukken, maar een wanprestatie wil ik het zeker niet noemen. De tijd zal moeten uitwijzen of het de juiste keuze is geweest of niet. En sowieso is het lastig om met zoveel minder geld/middelen een goed alternatief neer te zetten. Tsja, de performance crown halen ze niet, maar desondanks heeft AMD toch best leuke producten.

[Reactie gewijzigd door GENETX op 23 april 2013 12:35]

En hoeveel mensen hebben de prestatie van een i7 daadwerkelijk nodig, heel veel niet, het kan prijs / prestatie best interresant zijn om een AMD systeem te hebbben.

AMD richt zich op goedkopere producten met een grote afzetmarkt die dan misschien niet het allersnelst zijn. Daarnaast proberen ze met dit soort embedded chips ook in die takken marktaandeel te winnen, geen slechte strategie denk ik zo.

Wat wil je trouwens berijken met dit getroll?
Dit mistte ik inderdaad ook nadat ik de engadget post had gelezen. Het voegt zeker wel waarde toe aan het nieuwsitem en heel interessant :)
Eindelijk een fatsoenlijke vervanger van de oude Bobcat (E-..). Ben wel benieuwd naar de 25W 2Ghz Quadcore en hoop dat er snel een consumenten variant beschikbaar zal zijn, alhoewel deze voor het 2de kwartaal gepland staat volgens mij.
Die nieuwe jaguar architecture ziet er goed uit, ik ga er zeker naar kijken voor een zeer goedkope gaming/productivity laptop (oa AOE II HD bij vrienden etc).
Op 213% uitkomen zou ik echter wel weer erg veel vinden. We zullen het zien. Zeker indrukwekkend als dat zo is.
De Bobcat architectuur is ook al weer wat jaartjes oud, dan is een >2x verbetering niet zo gek. Met een verbeterde IPC, 2x meer cores en een hogere klok samen kan dat heel goed.
Daar kan je weinig over zeggen als je niet weet hoe hoog hij geklokt is. (edit: ah ja 2.0 GHz - da's niet gek hoor. Een dual-core Bobcat @ 1.8 GHz was ook al 18W, dan is een ruim 2x snellere chip voor 50% meer TDP geen gekke verbetering.

Uiteraard zijn dit niet de duurste/beste chips die op ultra-laag voltage draaien, dit zijn goedkope embedded chipjes. De beste baksels gaan als Temash in tablets geschoven worden.

[Reactie gewijzigd door Dreamvoid op 23 april 2013 13:33]

Dit zijn niet de chips voor tablets/laptops, maar voor set top boxes, custom bordjes voor industriele toepassingen, etc. Daar gaan geen top-of-the-range SoC's in.
Deze socs zijn bedoeld voor de embedded markt en niet voor mobiele telefoons en tablets.
geen idee waarom je de hele tijd doorblaat over de verkeerde markt, daar zijn deze socs niet voor.
En waarom is een soc in een laptop overkill? soc betekend alleen dat alle functionaliteit op 1 chip zit, niet meer en niet minder. waarom een oplossing met 2 chips dan geen overkill zou zijn is mij iig een groot raadsel.

Wat me niet verbaasd is dat jij continue omlaag gemod word, ik heb nog geen een zinnige reactie van je gezien.
Zit zijn erg mooie soc's! Ik ben erg benieuwd naar het echte verbruik en de daarbij horende prestaties. (TDP zegt wel iets over het verbruik maar dat is niet het werkelijke verbruik maar bij AMD vaak het absolute maximum, Het kwam ook voor dat de max TDP niet gehaald werd ik ben benieuwd hoe dat hier is)

Eindelijk een goede opvolger voor Bobcat. En ze zullen ook nog wel met SOC's voor tablets gaan komen die rond de 5 watt zitten. Krijgt Intel weer wat concurrentie in het lage segment.
Bij een AMD cpu gaat hij er met Prime of OCCT niet overheen. Bij een Intel vanaf de i7 Nehalem wel.
van 9 tot 25 watt met 2/4core CPU en 160 shader core GPU, over 2 jaar kunnen ze het stroom verbruik zo laag krijgen dat hij in je iPhone past -___-

dus waar heb je het over?
lager dan dit is zo goed als onmogelijk voor een X86/64 met AVX/FMA3/FMA4/XOP.
en de traagste 4core "laptop" haswell verstookt 47W en heeft een veel slechtere GPU en een veel slechtere performance per watt, plus dat ding zal waarschijnlijk 50% tot 75% duurder zijn.
en op deze AMD chip kun je gewoon direct Steam draaien zonder een dinky crapgadget van Nvidia te kopen waarvoor je ook nog eens een nvidia GPU voor nodig hebt in je pc.

en heb je in een grot geleefd zonder internet ofzo? AMD bezit al jaren geen fabrieken meer, ze kunnen hun chips nu overal produceren. (GlobalFoundries is geen onderdeel van AMD)
en de tegra 4 verbruikt VEEL minder? ja, echt? 5 watt, dat is echt wel een hele 4 watt minder zonder de mogelijkheid om een volledige (standaard desktop OS versie) 64bit-x86 van windows 7/8 te kunnen draaien 8)7

en die cuda-cores in de tegra4 zijn geen desktop cuda cores, maar micro/stripped versie.

*edit meer to minder*

[Reactie gewijzigd door stewie op 23 april 2013 13:13]

Bij TSMC? De huidige 40nm Brazos chips komen daar al van de productielijn rollen, en alle Jaguar-based chips gaan daar ook gefabbed worden op hun 28nm node.

[Reactie gewijzigd door Dreamvoid op 23 april 2013 14:43]

@hardwareaddict je weet nog steeds niet waar je het over hebt.
Jaguar zal gecombineerd worden met GCN, wat inhoudt dat er 128 SPU's bij Kabini/Temash meekomen. Hoe dit zal presteren op 600MHz, zal nog even afwachten zijn, maar dat het een groot deel van het TDP voor zijn rekening zal nemen, staat buiten kijf. Iets anders beweren (zoals je erg vaak doet onder dit artikel) geeft eigenlijk niets anders aan dan een totaal gebrek aan inzicht/kennis inzake GPU's en CPU's (en het inzicht in Bobcat/Jaguar is al nihil, uitgaande van je reacties).

Kijk voor de lol eens naar die prachtige nVidia GPU's. De GT530 heeft een prachtig aantal van 96 cores, dus iets meer dan de 72 van Tegra4, maar verbruikt tot 50Watt. Okee, het is een 40nm chip, dus niet helemaal eerlijk. Neem dan de GT630, welke een dubbel aantal cores heeft en op 28nm gemaakt wordt, zoals Tegra 4. TDP nog steeds 50 Watt. Als je de helft van de cores zou nemen, kom je op 25 Watt uit. Haal er voor de grap ook nog even 5 Watt af voor het RAM en je hebt een verbruik van 20 Watt voor een GPU die ongeveer even groot is als die van Tegra 4 en draait op 810MHz (geen dubbelle snelheid bij Kepler). Stel nu dat ze er nog 5 Watt af weten te snoepen met het iets kleiner houden. Denk je echt dat nVidia ver zal komen met Tegra 4, als de GPU alleen al 15 Watt zou verbruiken? De snelheid van de GPU op Tegra 4 zal dus ook drastisch lager zijn, want er moeten ook nog 5 Cortex-A15 cores van stroom worden voorzien en wat ander spul.

Nu heeft AMD geen direct product om mee te vergelijken, maar Caicos, een 40nm GPU met 160 SPU's komt het dichts bij. Deze heeft al een TDP van minimaal 18 Watt. Haal wat verbruik voor het geheugen weg en je zit nog steeds met praktisch 15Watt voor de GPU (die op grofweg dezelfde snelheid draait als die in de SoC van het artikel). Een overgang van 40nm naar 28nm zou je nog eens een 5 Watt kunnen besparen misschien, dus zit je nog steeds met 10 Watt verbruik. Dan hou je dus 15 Watt over voor 4 cores op 2GHz en een Southbridge die normaal ook zo'n 5 Watt zou verstoken als losstaande chip. Een Jaguar core zou dus op maximaal vermogen misschien zo'n 2.5 Watt aan stroom verbruiken. Dat is meer dan een ARM core, zelfs nog steeds meer dan een Cortex-A15 core op dezelfde snelheid, maar een Jaguar core is, kijkende naar informatie die tot nog toe bekend is, een behoorlijk krachtpatsertje, voor een uitgekleedde X86 core.

Hoe dan ook, een claim maken dat Tegra 4 heel wat minder stroom verbruikt terwijl de claim gemaakt wordt dat de GPU van Tegra 4 veel sneller geclocked is en veel betere prestaties levert, komt niet geheel geloofwaardig over.

Temash/Kabini is een zeer goed product (kijkende naar de informatie die nu bekend is) met een zeer goed schaalbare TDP (lagere clocks en minder cores voor Tablets etc)
TDP =! daadwerkelijk verbruik.

Bij Intel is dit een gemiddelde wat een chip onder hoge belasting gebruikt. Bij AMD is dit de echte max die een chip onder max belasting gebruikt.
Bij Intel kun je met zware tests over het TDP heen. Bij AMD blijf je er net onder zitten. Met alleen hele specifieke load kun je dat TDP halen.
hardwareaddict we praten niet over de FX 8350 in deze thread we hebben het over een heel andere architectuur.
nee, thermische afgifte vergelijken met totaal systeem verbruik. Dat slaat ergens op |:(

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True