Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 49, views: 11.645 •
Submitter: roy-t

AMD, ARM, Imagination, MediaTek en Texas Instruments hebben de Heterogeneous System Architecture-stichting opgericht. De bedrijven willen het voor developers makkelijker maken om voor verschillende processors te ontwikkelen.

Het doel van de Heterogeneous System Architecture is om open standaarden voor heterogeneous computing te ontwikkelen. Het idee bij heterogeneous computing is dat verschillende soorten hardwareonderdelen ingezet kunnen worden voor rekentaken. AMD adverteert al lange tijd met de gpgpu-mogelijkheden van zijn apu's: chips die een combinatie zijn van cpu en gpu. In januari hernoemde AMD zijn Fusion System Architecture al naar Heterogeneous System Architecture.

Het nieuwe samenwerkingsverband moet leiden tot een gezamenlijke hardwarespecificatie en een breed ecosysteem, zodat ontwikkelaars eenvoudiger applicaties kunnen maken die de rekenkracht van verschillende soorten processors aanspreken.

Wat het inzetten van de videochip voor bijvoorbeeld parallelle rekentaken betreft, gaat het HSA-verband de concurrentie aan met het Cuda-initiatief van Nvidia en OpenCL van de Khronos Group. De HSA-stichting richt zich echter op meer dan alleen de gpu, namelijk ook op de cpu en andere accelerators op system-on-a-chips. Ook blijkt uit de mix van ondersteunende partijen dat de groep zich niet alleen op traditionele computers richt, maar vooral ook op mobiele apparaten, zoals smartphones en tablets. Daarnaast verschijnen er steeds meer servers met ARM-chips, vanwege de energiezuinige capaciteiten.

AMD Fusion AMD Fusion

Reacties (49)

Ontwikkel nu eens een nieuwe zuinige en krachtige chip, zonder de legacy van de outdated en antieke X86 architectuur die zowel in mobiele apparaten als servers, PC's. Gameconsoles etc gebruikt kan worden.
Ik denk dat als meer mensen voor ARM gaan kiezen Intel het moeilijk gaat krijgen met hun x86-64. Nu is nog een hoop software geschreven voor x86-64. Maar dat zal snel veranderen. Je ziet dat MS en Linux al op ARM draaien. Apple weet ik nog niet. Maar dat zal dan ook een kwestie van tijd zijn.


Ik denk dat AMD en nVidia er goed aan doen om ARM breed te om armen. Ook voor desktop en servers bied dit een mooie toekomst. Alleen wat ik me daarnaast af vraag. Hoe krachtig zijn die ARM chips tegen over een Intel X86-64. Kunnen ze de Intel bij houden qua ontwikkeling en snelheid.
Ik ben het absoluut niet eens met je stelling.

In ARM kan je je veel minder onderscheiden van de concurrentie dan bij x86 het geval is. Met uitzondering van Qualcomm zijn namelijk alle ARM processors identiek, het verschil zit hem alleen in de electronica eromheen (GPU, IO, media decoders/enconders, etc). Voor AMD zal hier dus weinig te halen zijn, zeker als nieuwkomer in een markt waar veel concurrenten zijn en die allemaal al de nodige ervaring, trouwe klanten en bekendheid hebben opgedaan.

Daarnaast heeft AMD gewoon veel ervaring met x86, en niet met ARM, om een overstap te maken zal ze een hoop tijd, energie en een periode zonder nieuwe producten kosten. Daarnaast hebben ze hun ARM divisies (van ATi) in de afgelopen jaren juist verkocht aan diverse partijen, waaronder Qualcomm.


Ook zal de verschuiving van x86 naar ARM lang niet zo snel gaan. ARM is leuk voor een aantal toepassingen maar is niet beter/slechter als x86:
1 - ARM biedt voorlopig nog lang niet de performance die met de gemiddelde x86 desktop of server processor haalt.
2 - Intels nieuweste Atom processors geven gewoon dezelfde performance/watt verhouding als de nieuwste Cortex A9 processors (performance ligt ergens tussen een dual en quadcore A9 op dezelfde klokfrequentie in) en de accuduur is vergelijkbaar.

Voor desktops zie ik de overstap naar ARM voorlopig nog niet gebeuren. Het performance probleem is voor een klein gedeelte op te lossen door naar een flink aantal cores te gaan, maar zolang nog altijd drie kwart van de software singlethreaded is zal je daar in veel gevallen dus geen baat bij hebben en op een ARM desktop flink op performance moeten inleveren.

Voor servers zie ik de overstap zeker niet gebeuren voordat ARM v8 beschikbaar en een beetje door ontwikkeld is, 32 bit geeft in die omgeving te veel beperkingen. En zelfs dan zal de overstap maar langzaam gaan gezien die industrie niet zo happig is op overstappen naar andere architecturen/fabrikanten gezien dan ook al je SW en tooling moet veranderen.


@Hubman - de originele ARM architectuur is ook antiek en outdated (alweer bijna 30 jaar oud). Echter het enige dat nieuwe processors nog in gemeen hebben met de oudjes in een gedeelte van de instructieset. De onderliggende architectuur is bij alle processoren gewoon gloedjenieuw. Zeker met ARM v8 straks worden de verschillen in onderliggende architectuur tussen x86 en ARM steeds kleiner.


edit: overigens hebben een hoop mensen het artikel niet gelezen, het gaat absoluut niet om het samen ontwikkelen van hardware, maar om het opzetten van een nieuwe "programmeertaal"/tooling/specificatie die crossplatform bruikbaar is voor heterogeneous computing zodat ontwikkelaars niet aparte code hoeven te schrijven voor ieder platform dat ze willen ondersteunen.

[Reactie gewijzigd door knirfie244 op 13 juni 2012 12:41]

In ARM kan je je veel minder onderscheiden van de concurrentie dan bij x86 het geval is
Nou en, wat boeit dat? Het feit dat bijv. Cell BE / Itanium zich wel onderscheiden, heeft nietemin nog steeds tot de ondergang van genoemde architecturen geleid.

Afgezien van het feit dat AMD zich op x86 ook maar weinig kan onderscheiden van Intel.

Persoonlijk denk ik dat 'onderscheiding' tegenwoordig vrij weinig met de hardware te maken heeft, maar met de software.

Zie Android 4.0 'stock' en Android 4.0.4 van Linaro: Op sommige onderdelen is Android 4.0.4 2x zo snel op dezelfde hardware.

Of zie JS-benchmarks, o.a. Sunspider: Vaak is x86 veel sneller dar ARM, maar tegelijk zijn de JIT's van tegenwoordig al snel 2x sneller dan van een paar jaar geleden, software dus.

Of neem mprime95, veel sneller op Intel x86 dan op AMD x86, zelfs al was de AMD proc in andere benchmarks 2x zo snel.

Met andere woorden: Met software is het makkelijker en ik denk ook goedkoper je te onderscheiden. Ik denk dat de genoemde Android 4.0.4 een stuk minder koste om te ontwikkelen dan de >5 miljard euri voor een nieuw fab.

Apple heeft dat door, die hebben vaak niet de snelste hardware, maar toch is iedereen er prima te vreden mee. Apple gebruikt x86 en ARM, totaal niet 'onderscheidend' dus, sterker nog: De Apple A4/5/6 SoC's zijn bijna kopieen van de Samsung's en zijn ook nog eens door Samsung gemaakt. En toch onderscheid Apple zich van de andere zaken, door software.

Zelfde met Mac's: Vroeger onderscheidend door PPC, nu niet meer onderscheidend en toch verkopen ze beter dan vroeger.

Instructie-set heeft dus niet zoveel te maken met "onderscheidend vermogen" of "succes". En als AMD zich dan toch zou willen "onderscheiden", kunnen ze dat doen doordat ze als geen enkele andere ARM-SoC fabrikant weten wat de desktop/laptop klant wil.
Daarnaast hebben ze hun ARM divisies (van ATi) in de afgelopen jaren juist verkocht aan diverse partijen, waaronder Qualcomm.
Ati Imageon heeft mijns inziens niets met ARM te maken, net zoals dat NVidia Geforce weinig te maken heeft met x86.

Om een voorbeeld te geven: De Imagination PowerVR SGX werd zowel toegepast in x86 als in ARM-SoC's.

Maw, in tegenstelling tot Intel (XScale) heeft AMD niet echt een ARM verleden.
- Intels nieuweste Atom processors geven gewoon dezelfde performance/watt verhouding als de nieuwste Cortex A9 processors
Zelfs al zou dat waar zijn: Met een Atom-processor kan je niets doen, daar moeten SATA / Ethernet / PCIe / SD-kaart / debug controllers op. Bij bijvoorbeeld Calxeda zit dat standaard allemaal ingebakken. Maw: CPU-performance/watt verhouding zal veel klanten worst zijn, het gaat immers om het gebruik per node. Vroeger draaide de Atom op ~3 Watt tdp, en moest er nog voor 4,5 Watt een Northbridge bij voordat je er ook maar iets mee kon. Dan is het leuk dat de Atom-CPU een 'laag energieverbruik' heeft, maar in de praktijk totaal irrelevant.
Zie A note about fruit.

Afgezien daarvan: Welke performance/watt? Als men onder performance verstaat: "Berekeningen", met name double precision, dan waarschijnlijk dat Intel sneller is. Maar hebben we het over 'data throughput', voor webservers meestal belangrijker, dan zie ik het Intel nog niet halen bij Calxeda. Dus het gaat altijd om 'voor welke workloads' men sillicium nodig heeft.

En afgezien daarvan is het ook niet altijd 'performance/Watt' wat belangrijk is, maar ook 'performance/Watt/$' (Intel's "baanbrekende" processen leveren wel peperdure onderdelen op, want die fab moet terugverdiend), en ook performance/m2 is belangrijk. Leuk dat die Intel-core dezelfde performance/watt heeft, maar als 'ie 5x zoveel ruimte nodig heeft, kan 'ie in dezelfde serverruimte 5x zo weinig werk doen.
En zelfs dan zal de overstap maar langzaam gaan gezien die industrie niet zo happig is op overstappen naar andere architecturen/fabrikanten gezien dan ook al je SW en tooling moet veranderen.
De industrie is voor zover ik weet (Sillicon Valley) toch al een paar jaar aan het kijken naar ARM (zie hier FB), omdat de stroomkosten de pan uitrijzen. Dus veel software is al aangepast, Ubuntu met LAMP en Hadoop draait al op de Calxeda-servers. Linaro is druk bezig Linux-kernel en GCC te optimaliseren. Als er genoeg geld te besparen valt, zullen ze heus wel zo snel mogelijk overgaan. Behalve Microsoft-klanten misschien, maar die 20% hebben zichzelf toch in de voet geschoten gezien ze van MSFT afhankelijk zijn.

[Reactie gewijzigd door kidde op 13 juni 2012 18:12]

Atom is inmiddels ook single-chip he :)
Als men onder performance verstaat: "Berekeningen", met name double precision, dan waarschijnlijk dat Intel sneller is. Maar hebben we het over 'data throughput', voor webservers meestal belangrijker, dan zie ik het Intel nog niet halen bij Calxeda.
Throughput is leuk voor routers, daarom zitten daar ook ARM SoC's in. Punt is dat met het uitgroeien van de smartphone/tablet tot een multitaskend, webbrowsend apparaat, het steeds meer op de workload van een PC gaat lijken, en minder op die van een simpel doorpompen van single-task audio/netwerk/video datastreams waar ARM SoCs van oudsher voor geoptimaliseerd waren (daarom ook de trage geheugentoegang, primitieve branch predictors, simpele cache structuur, etc). ARM heeft als oplossing daarvoor steeds complexere cores (Cortex A9, nu A15, en Qualcomm met Krait) die langzaamaan net zo goed worden in complexe multithreaded loads als AMD's Bobcat en Intels Atom cores. Andersom worden de x86 cores steeds verder afgeslankt en geoptimaliseerd om de complete SoC binnen de 5W envelope te persen. We zien nu moet Snapdragon S4 en Medfield/Oak Trail (de meest recente ontwerpen van beide kampen) dat er uiteindelijk niet veel meer tussen zit.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 18:31]

Dat is ook zo, voor rekenintensieve taken en desktops zie ik het ook niet gebeuren dat ARM veel voet aan de grond krijgt. Windows-legacy apps zijn op de desk/laptop bovendien te belangrijk.

Wat ik vooral probeerde te zeggen was dat ARM-servers vooral voor bepaalde taken veruit superieur is aan bestaande Intel-oplossingen, zoals bijvoorbeeld webservers / datacenters die veel data verpompen. Net zoals dat Intel-oplossingen vaak superieur zullen zijn voor andere server-taken. Vandaar ook de 'max 20% MS klanten' die ik noem: Voor desktops is dat meer 90+%, daar gaat het hele verhaal ook niet op.

Wat wel zo is, door initatieven als dit kan de GPU mogelijk meer gebruikt gaan worden door

Dus waar het vooral om gaat, is dat ik het wel best snel zie gebeuren dat data-centers voor bepaalde data-intensieve taken over gaan stappen op ARM, sterker nog: Ze zijn daar al mee aan het testen, en veel software is al / wordt momenteel geschikt gemaakt voor ARM. Als AMD niet aan meedoet aan low-power geintegreerde 'Server-on-Chips' gaan ze voor dataintensieve taken (net als Intel) gevoelig marktaandeel verliezen.

En ik denk juist dat AMD - als ze willen - wel snel ARM oplossingen op de markt kan hebben, AMD ARM-APU's met ATi GPU erop. Het enige wat ze hoeven doen is een Chinese leverancier over te nemen (MediaTek, NuFront, BoxChip), het noodlijdende Renesas lijkt me nog een betere optie, of misschien wel FreeScale. Dan kunnen ze veel meer voor 'heel het segment' oplossingen bieden, ook voor de groeimarkt 'embedded' (koffiezetapparaten, wasmachines, maar ook tablets: waar ze nu nog weinig tot geen aanwezigheid hebben).
Dat je met Arm minder zou kunnen onderscheiden is het tegendeel van waar, en het boeit zeker wel.

Mensen denken te zeer aan pure rekenprestatie maar er zijn veel meer aspecten die een rol spelen. Waarom zou Apple anders miljarden in de ontwikkeling van eigen chips stoppen als het niet uitmaakt?

Dat is natuurlijk niet zo, door de chip zelf aan te passen kan Apple zorgen dat hij goed presteert op die aspecten die voor hen belangrijk zijn. Voor Apple is batterijduur interessanter dan prestatie als de prestatie een bepaald niveau heeft bereikt. Verder heeft Apple er voor gezorgd dat er op chipniveau DRM en versleuteling inzit. Dat lijkt misschien niet belangrijk, maar voor de content industrie is het doorslagevend dat Apple een goede kopiebeveiliging heeft.

Door zelf een chip aan te kunnen passen aan jouw noden, kun je een product maken met een superieure gebruikservaring dat geen zwakten heeft. Dat is een van de vereisten van Steve Jobs. De meeste producten hebben goede en zwakker kanten, Apples producten hebben geen zwakke kanten. Steve Jobs filosofie was, als we het niet goed kunnen krijgen laten we het liever weg. Maar wat we er in stoppen moet gewoon perfect werken. Dat redt je niet alleen met software. Daarom is het voor een android tablet lastig om even goed te zijn als een iPad. Apple kan hard en software op elkaar afstemmen, hetzelfde zie je ook bij de blackberry playbook, hele goede afstemming tussen OS en hardware. Dat Samsung het zo goed doet zal ook zeker te maken hebben dat Google en Samsung nauw samenwerken bij nieuwe versies.

Arm is geen directe concurrent van x86/64, maar omdat de tablet markt de laptop markt aan het opeten is, is het indirect wel een concurrent aan het worden. En Arm probeert ook in te spelen op de trend naar zuinige servers. Op dit moment spelen ze geen rol van betekenis, maar dat gaat Intel ook echt niet op wachten. Intel wil het gevaar voor zijn, en liefst Arm op eigen terrein bestrijden.

Intel is een enorm sterk bedrijf, zelfs als hun gpu ontwerpen niet de beste zijn, hun procestechnologie loopt jaren voor op die van alle anderen en een goed ontwerp kunnen ze zeker ook maken. Wat voor Intel het meest lastig is, is dat door de concurrentie op de markt waar Arm actief is, de marges veel en veel lager liggen. Om met prijs te kunnen concurreren laten ze Atoms door anderen produceren. Maar dan kan je weer niet ten volle van de eigen procestechnologie profiteren.

Een voordeel dat Arm heeft en Intel ook niet kan aantasten is dat je de Arm gemakkelijk aan je eigen behoeften kan aanpassen. Intel maakt geen chips voor bedrijven, maar voor markten. De bedrijven kunnen kiezen welke ze er instoppen, maar daar hangt dan wel steeds een prijskaartje aan. Echt onderscheiden met unieke combinaties doen de fabrikanten dan ook niet veel.

Vooral bij tablets gaat het erom alles goed te optimaliseren, de chip, de drivers en het OS. En de concurrentie is moordend en kleine verschillen in de gebruikerservaring geven vaak de doorslag.

Bij een PC praten we nog niet eens over de gebruikservaring. Je leest in een PC-review niet, de browser is lekker vlot en zo. Waarom niet? Omdat de Intel processors tegnwoordig zwaar overgedimensioneerd zijn. Ik type op mijn PC en de meter geeft aan dat de processors op 1% van hun vermogen draaien, gewoon lachwekkend. Alleen mijn brazoprocessor op mijn subnotebook draait regelmatig op vol vermogen, maar ook dat werkt vlot genoeg.

Arm en x86 zullen de strijd aangaan op de tablet en telefoonmarkt. Intel kan erg krachtige CPU's maken, maar nadeel is de GPU, energieverbruik en dat je niet zelf aan het ontwerp kan sleutelen. Maar Intel heeft in korte tijd enorme vooruitgang gemaakt, daarom moet Arm flink blijven aanpoten. Dat geldt voor alle deelnemers op deze markten. Het is niet voor niets dat de ontwikkelingen zo hard gaan, hier wordt continu op het scherpst van de snede gevochten en alle middelen (ook patentrechtzaken) worden uit de kast gehaald om voordeel te verkrijgen of behouden.

[Reactie gewijzigd door Magalaan op 13 juni 2012 19:46]

x86 is een instructieset, geen architectuur - en niet veel meer of minder legacy dan ARM (dat bv nog steeds 32-bit is).

Qua architectuur is er weinig legacy aan bv Piledriver, Ivy Bridge, Krait of Cortex A15 - dat is allemaal behoorlijk cutting edge technologie.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 11:42]

IA32 dan als je wilt :p Het blijft echter wel zo dat die chips heel wat littekens van hun 25 jaar evolutie bevatten. Het is niet omdat ze op een kleiner procédé gebakken worden (uiteraard is dat cutting edge technologie), dat ze geen legacy meedragen.

Backwards compatibiliteit heeft Intel zeer hoog gedragen, en daar zijn de sporen duidelijk van te vinden. Er zijn pro en contra argumenten daarvoor, maar hoe je het ook draait of keert, de chips zouden heel wat 'heterogener' en moderner kunnen worden gemaakt dan nu het geval is.
Er is wel wat meer gebeurd tussen 8086 en Ivy Bridge/Piledriver dan alleen een die-shrink :)
Maar die laatste nieuwe intel moet nog steeds overweg kunnen met de software die voor de 8086 was geschreven. (Niet dat ik verwacht dat veel mensen die zullen proberen te draaien, maar dan nog.... backwards compatible, helemaal terug naar het begin)
Met alle fratsen die daarbij horen zoals de gate A20.
Met de nieuwe zuinige processoren zijn enkele instructiesets weggelaten om hem zuiniger te maken. Lijkt me ook niet zo vreemd aangezien een deel al standaard door een directx gpu wordt uitgevoerd.

Ik hou het niet voor onmogelijk dat op een gegeven moment alle sse-instructies gewoon worden weggelaten omdat het op een andere zuinige manier kan worden uitgevoerd. Cache zal misschien niet meer nodig zijn etc etc.

Dat een klein deel van de gebruikers ander apparatuur moet zoeken of een compatible cpu die een stuk duurder is hoort er gewoon bij. Een life-cycle van 30 jaar is veel voor een gewoon product, voor een electronicaproduct is dat onderhand oneindig.
Maar die laatste nieuwe intel moet nog steeds overweg kunnen met de software die voor de 8086 was geschreven.
Nee hoor, die Atom tablets draaien ofwel Windows 8, ofwel Android. Welke software die voor 8086 is geschreven draait daar op?

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 14:48]

Wat dacht je van alle software van de vorige generatie? Intel bouwt SSE-(1-2-3-4-...), MMX ... in in zijn processors. Er zijn echter programma's van voor die tijd die ook moeten blijven werken, dus de oude registers/instructies moeten behouden blijven. Je kan zo best Windows 98 installeren op je i7 2600K, gewoon omdat alle instructies van toen nog steeds ondersteund worden. Ondertussen komen de nieuwe verbeterde sets er bij als extra, maar niet als vervanging.

Men had er ook gewoon voor kunnen kiezen dat alle software herschreven moest worden om op de nieuwe processors te werken, dan kon men een veel properder, nettere en moderne architectuur volgen.
Verouderde en nauwelijks gebruikte instructies kan je in de cpu gewoon emuleren (of in een moderne compiler vertalen naar nieuwe instructies) zonder dat je er dedicated silicon voor hoeft te ontwerpen. Dan draait de oude software niet meer zo snel, maar dat zal iedereen een worst wezen. Zo gaat het allang met moderne AMD/Intel architecturen, die besteden echt geen dure silicon real estate aan optimalisaties voor software uit het Windows 95 tijdperk, ook al draait het er wel op.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 18:41]

Sandy Bridge, en zeker Ivy Bridge zijn al behoorlijk heterogeen en hardstikke modern. Misschien zelfs "heterogener" dan de concurrentie (AMD, ARM, etc).

Ivy Bridge scoort in ieder geval beter als de AMD APU's in de meeste Compute benchmarks.

[Reactie gewijzigd door knirfie244 op 13 juni 2012 12:38]

Je praat pure onzin, en wat heeft in godsnaam de Compute Benchmark te maken met wat hier wordt besproken 8)7 Als we het hebben over heterogeen en modern, hebben we het niet over hoe snel hij Pi kan berekenen of hoeveel fps hij uitpoept, maar over de onderliggende werking, opbouw en structuur van de processor. AMD gebruikt 'dezelfde' architectuur als Intel, dus om Intel beter te noemen, geeft blijk van je kennis van zaken :'(
ARM V8 is al 64bit
Maar nog op de tekentafels...
De instructieset is af hoor ;)

Afgezien van het feit dat Applied Micron al 'sampletjes' verscheept, zodat gebruikers alvast hun software kunnen aanpassen:

Zie ARMdevices.net.
Leek me logisch, AMD stapt uit de race om snelle processors te ontwikkelen. Intel gaat over paar jaar een monopolie hebben op de high end processor markt.

Hier een quote van de nieuwe CEO:
“There is no interest at AMD to continue a processor war with Intel that has lasted decades, but only rewarded AMD with occasional superiority.
That era is done,” Rory Read said in an interview and added, “There’s enough processing power on every laptop on the planet today.”

“I think we come in and steal the bacon around the whole thin-and-light movement and capture a significant portion of the opportunity there,” Read said."

http://www.tomshardware.c...apu-processors,15741.html
Intel gaat over paar jaar een monopolie hebben op de high end processor markt.
Niet zolang IBM en Oracle nog best aardige cpu's produceren. Vooral POWER8 lijkt erg veelbelovend.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 11:59]

De high-end desktopmarkt, en de niet-supercomputer-servermarkt is anders weinig gebaat bij IBM en Oracle, daar is het wel degelijk Intel die de plak zwaait.
De High-end Desktop markt is maar een zeer kleine markt
Maar toch nog steeds een grotere markt dan de supercomputer-servermarkt ...
IBM produceert ook de POWER cpu's in de Wii(U), Xbox 360 en PS3. Het is echt niet alleen maar supercomputer werk. En Linux is gewoon beschikbaar (en supported door de grote spelers!) voor POWER, er is geen inherente reden dat x86 per se nodig is voor dingen als webservers, database servers, etc. Intel wordt nu veel gebruikt door de server vendors omdat Sandy Bridge-E gewoon een waanzinnig snelle cpu is voor relatief weinig centen, maar als IBM zijn pricing aanpast en POWER7+ (eindelijk) de deur uitrolt draaien ze gewoon weer mee.

Ik heb er meer vertrouwen in dat IBM Intel kan bijbenen in de high-end dan AMD.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 14:47]

Akkoord dat IBM performancegewijs beter bij Intel kan dan AMD, daar is volgens mij wel iedereen het over eens.

Echter draait IBM op een heel andere markt dan Intel. Zoals je zegt; spelconsoles en supercomputers. De andere kant is Intel, met de volledige desktopmarkt. Iedereen met Windows of Apple draait op Intel, en ze zijn behoorlijk dicht bij de mobiele markttoetreding ook. Mensen hebben geen baat bij IBM als ze er niet mee kunnen doen wat ze op 'een Intel' kunnen.

Daarnaast zeg je het zelf ook; de SB-E is waanzinnig snel voor weinig centen. Ergo, IBM kan niet beter doen. Ik denk dat het ook voor IBM niet zomaar een kwestie is van hun factuurtjes te verlagen, het moet haalbaar zijn ook voor hen...

Intel heeft hun zaakjes gewoon zeer goed op orde. Qua R&D en productiecapaciteit/ontwikkeling kan niemand hen bijbenen, en het ziet er naar uit dat dat nog wel even zo zal blijven.
Intel is goed bezig en IBM gaat er zeker niet 123 overheen, maar het geeft IMO wel aan dat Intel niet zomaar hun prijzen explosief kan verhogen zodra AMD het opgeeft. Als de Intel prijslijst te gortig wordt gaat iedereen weer terug naar SPARC en POWER servers.
wat is er zo vreselijk aan x86 dan?
Die 'outdated en antieke' x86 architectuur instructieset is wel in staat om een gigantische brede scala aan form-factors te ondersteunen: van high-end dual-socket Xeon/Phenom cpu's voor workstations/servers tot de Lava Xolo X900 smartphone met intel medfield atom. x86 is dus extreem schaalbaar gebleken, en er zit nog voldoende rek in zolang Intel en AMD blijven investeren en innoveren met x86. Kijk maar naar de komende piledriver en steamroller cores van AMD en de Haswell architectuur van Intel. Nee, x86 is nog lang niet dood.

Nog een mooi voorbeeld is die intel medfield soc voor smartphones die ik net aankaartte: een 1.6GHz atom singlecore die met gemak op cpu-rekenkracht het kan bijbenen met een 1.5GHz dual-core Krait of tegra 3 quadcore. En dan moet android nog verder geoptimaliseerd worden voor x86...

AMD en ARM die samenwerken kan toch wel serieus vervelend zijn voor Intel, die nu sneller moet komen met nieuwe atom soc's.
Uiteindelijk is het niet de instructieset die bepaalt hoe snel of zuinig een architectuur is. Het helpt een beetje (onnodig complexe instructiesets zijn onhandig), maar instructiesets zijn op langere termijn vrij flexibel: je verzint gewoon een nieuwe instructie, en vertelt de compilers die te gebruiken ipv de oude manier. Zo verdwijnen inefficiente instructies vanzelf uit software, en uiteindelijk worden cpu architecturen ook niet meer geoptimaliseerd voor die legacy instructies.

Zo is x86 ook soepeltjes ge-evolueerd van een CISC naar een (grotendeels) RISC architectuur - niet omdat het zo'n briljante instructieset was in 1978, maar omdat het door Intel en AMD (in hun keiharde concurrentiestrijd) continu en slim is aangepast aan de benodigdheden van de software. ARM heeft hetzelfde gedaan, MIPS, IBM met POWER, etc.

Het zijn net echte talen :)

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 12:28]

Instructieset boeit vrijwel niks in de werkelijkheid, als ARM in de desktop wereld mee wil komen met X86 performance zal het TDP ook als een gek stijgen, hetzelfde geld voor de performance maar omgekeerd werkt deze logica ook (Intel telefoons). Al dat gezever over x86 vs ARM heeft niet echt veel inhoud.
Dit kan best nog eens interesant worden. AMD chips in tablets? Hopelijk ook met leuke prestaties voor de next-gen.
AMD komt al eind dit jaar met hun tablet APU, Hondo - dat staat verder los van dit initiatief.
AMD chips in tablets bestaan al een eindje. (de c-50 als ik het goed heb)
In feite doen ze hiermee een soort high-level coordinatie zodat de 'blokken' voor een SoC makkelijker uitwisselbaar zijn. Dit opent de mogelijkheid voor AMD om bv ARM cores te gaan gebruiken, en omgekeerd voor andere SoC fabrikanten om makkelijk een AMD gpu te integreren met ARM cores, of AMD's x86 cores samen met Imagination's nieuwe gpu architectuur, een MediaTek DSP toevoegen, etc.

Heb wel begrepen dat de eerste concrete resultaten van deze samenwerking pas 2014 te zien gaan zijn?

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 11:53]

Opzich een goed initiatief! Zou mooi zijn als Intel en NVidia een vergelijkende concurrerende samenwerking opstarten... Denk overigens dat deze 2 wel vaker samen zouden moeten werken :) (yesss ik ben een beetje fan! :X )
Intel kiest voor een hele andere architecturele benadering (gpgpu integreren als avx2 units in de cpu), dat gaat lijnrecht tegen nVidia's CUDA filosofie.
Alsjeblieft niet zeg... krijg je weer twee concurrerende standaarden.
Toevoeging die denk ik wel welkom is:
Het HSA iniatief is al uitgebreid beschreven in

HETEROGENEOUS SYSTEM ARCHITECTURE AND THE SOFTWARE ECOSYSTEM AMD 2012 Financial Analyst Day

Alle presentaties:
AMD :: 2012 Financial Analyst Day

De voornaamste vraag was wie er onderdeel van zou uitmaken.
In principe zijn zelfs Intel en nVidia welkom.

COMMITTED TO OPEN STANDARDS

 AMD drives open standards
 Compete on the best implementation

 Open standards are the basis for
large ecosystems

 Open standards always win over time
 SW developers want their applications
to run on multiple platforms from
multiple hardware vendors

In de April 2012 C!T rubriek "Onder Processoren" (Pag.23) staat ook de nodige info over HSA.
Quote uit dit artikel;
"Er zijn ook geruchten dat een bepaalde gameconsole-fabrikant zeer in HSA geinteresseerd zou zijn voor de komende consolegeneratie"
Nintendo?

[Reactie gewijzigd door Zanac-ex op 13 juni 2012 12:52]

Sony wordt al langer in verband gebracht met een AMD-based cpu/gpu, dus dat ligt voor de hand. Nintendo is het niet, de Wii-U krijgt 'gewoon' een POWER cpu met AMD gpu chip ernaast.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 14:23]

Vergeet de nieuwe Xbox console niet, die krijgt waarschijnlijk ook AMD hardware aan boord. Het is zelfs waarschijnlijker dat de nieuwe Xbox console AMD hardware aan boord krijgt dan dat de nieuwe Play Station dat krijgt.
Zal allemaal verloren moeite blijken wanneer Intel volgend jaar CPUs met AVX2 introduceert. Dat bestaat uit GPU-achtige technologie, maar dan als onderdeel van de CPU-instructieset.

Software-ontwikkelaars willen immers niet veel tijd en geld steken in het herschrijven van hun applicaties, maar gewoon hun vertrouwde programmeertalen gebruiken. AVX2 maakt het eindelijk mogelijk voor compilers om automatisch vectorinstructies te gebruiken voor codelussen (op SPMD wijze zoals een GPU dat doet).

Bovendien zal AVX2 geen last hebben van trage synchronisatie of beperkte bandbreedte, zoals dat bij een heterogene CPU-GPU architectuur wel het geval is. En men profiteert ook van 'out-of-order' uitvoering en veel cachegeheugen per thread.
Dit samenwerkingsverband gaat om relatief eenvoudige SoC's voor mobile/tablet gebruik, en voor zover ik weet heeft Intel nog lang geen plannen om AVX2 aan hun Atoms toe te voegen. Ze zitten nu nog op Bonnell uit, wat is het, 2007, de nieuwe Silvermont architectuur die ergens 2013 komt zal ws min of meer "Ivy Bridge-light" zijn, zonder alle Haswell features. Tegen de tijd dat ze naar de volgende Atom architectuur met AVX2 gaan is het al minimaal 2016.

Ook moeten we nog maar zien hoe AVX2 werkelijk performt, het ziet er op papier schitterend uit, maar goed - dat gold ook voor Bulldozer. :X

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 14:45]

Intel wil Atom veel sneller gaan updaten. Airmont moet Silvermont reeds opvolgen in 2014: http://www.anandtech.com/...14nm-airmont-atom-in-2014

Er is dus een goede kans dat die reeds AVX2 zal ondersteunen. Het is immers veel beter voor de prestaties / Watt dan meer cores toevoegen.
Airmont wordt voor zover ik kan zien gewoon een die-shrink (Silvermont-op-14nm) in Intels tick-tock strategie, geen nieuwe architectuur?

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 18:16]

tja amd's module systeem was ook op papiet geniaal en vernieuwend maar op papier werkt het voor geen meter omdat nou net de software het niet ondersteund...

in de pc wereld moet hardware vernieuwing hand in hand gaan met software vernieuwing gebeurd dat niet dan zit je met een product waar je geen drol aan heb omdat het niet goed ondersteund word.
tja slimme set als de arm techniek zo snel doorontwikkeld zijn amd's cpu's straks zelfs traag in vergelijking met arm hehe.

Op dit item kan niet meer gereageerd worden.