Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 81 reacties
Bron: ZDnet, submitter: eekhoorn12

Tijdens een financiële presentatie heeft AMD een beeld van de toekomst van het bedrijf geschetst. Volgens de processormaker hebben de 'Core Wars' inmiddels de strijd om de meeste megahertzen verdrongen, maar van beide wordt geen heil verwacht: AMD heeft zijn hoop gevestigd op modulair opgebouwde Accelerated Processing Units.

AMD's apu-ontwerp Na de cpu, de gpu en de ppu kunnen we volgens AMD dus ook de apu gaan verwachten. Net als concurrent Intel denkt de chipbakker uit het Californische Sunnyvale dat de computer van de toekomst vele cores aan boord zal hebben. Waar Intel rekent op tientallen of wellicht zelfs honderden identieke multifunctionele rekeneenheden, denkt AMD echter aan een samenspel van allerlei verschillende dedicated cores, die bijvoorbeeld gespecialiseerd kunnen zijn in audio- of videobewerking of natuurkundige berekeningen. Het bedrijf denkt met een bibliotheek van verschillende cores eenvoudig maatwerk voor uiteenlopende toepassingen te kunnen leveren: een consumenten-pc zou extra gpu-functionaliteit kunnen krijgen, terwijl wetenschappers apu's met veel rekenkracht kunnen bestellen en voor mobiele toepassingen chips met weinige, energiezuinige elementen kunnen worden gebouwd. Het Fusion-project moet als eerste stap in deze multifunctionele richting gezien worden.

'De 'Core Wars' zijn net zo'n grote vergissing als de megahertz-race', zei cto Phil Hester, 'maar gelukkig hoeven we de strijd niet aan te gaan.' De ontwikkeling van apu's zou met name voordelig zijn omdat er zeer marktgericht ontwikkeld kan worden, en de overname van ATi zou bovendien het perfecte opstapje naar de nieuwe wijze van processorbouwen zijn. Volgens Hester zullen 'homogene' multicorechips al over een paar jaar ontoereikend zijn: de eisen van met name de thuisgebruiker veranderen razendsnel, onder andere door de invoering van steeds weer nieuwe hd-technologie, drm-varianten en andere aan digitale media gerelateerde zaken. Bovendien maakt het bedrijf het zichzelf gemakkelijk met de modulaire bouw: het apu-concept is geschikt voor alles 'van palmtop tot petaflop', aldus Hester.

AMD's apu-concept

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (81)

Heel leuk, maar dit kost toch ook voor AMD veel meer geld en moeite, laat staan dat het voor de gewone consument uberhaupt nog begrijpbaar wordt.

Nu heb je "gewoon" een langzame, een snellere en de snelste processor, de nieuwe situatie zou dan bijvoorbeeld zijn:

1 Super snel in Audio bewerking, traag in video
2 gewoon in video en audio
3 snel in video, matig in audio
4 ontzettend snel in physx in een video, gewone audio
5 Snel in physx matig in video, matig in audio

etc etc.. zelfs als je gewoon 4 verschillende coretjes maakt met een gedeeltelijke focus op Audio, Video, Physx en ehm nog iets :P en dan op een moederbord 4 sockets zet wordt het nog een hele klus om een leuk systeem samen te stellen, ik zou dan bijvoorbeeld 1video 1 physx 2 algemene willen hebben... zeer onoverzichtelijk


Maar aan de andere kant wordt het wel heel leuk puzzellen :)
Het lijkt me juist makkelijker voor de consument. Stel dat een casual gamer een spelletje koopt dan staat er op het spelletje iets als

2 AUDIO
4 VIDEO
4 CPU

en dat correspondeert dan met het aantal cores van betreffende blok wat hij in zijn computer moet hebben zitten. Daarnaast biedt het ook voordelen op het gebied van fabricatie. Want fabrikanten hoeven dan nog maar 1 soort blokje te maken, als iemand sneller wil zet hij er gewoon meerdere in zijn computer.

Tenminste dat is hoe ik het verhaaltje begrijp :P
En dan als je een spelletje opstart ff snel een audio'tje vervangen voor een GPU'tje extra. Hebben wij tweakers dalijk 2 keer zoveel processors als sockets, op iedere situatie voorbereid. 8-)
Ik vraag me af of het wel nut zou hebben om zo'n specifieke cores te hebben in een processor.
Specifieke instructiesets zoals MMX en SSE hebben volgens mij al bewezen dat ze in vrij veel verschillende applicaties een snelheidswinst kunnen opleveren.
Tussen video en physics zijn er ook weer grote gelijkenissen, omdat bij beide matrix-operaties vrij belangrijk zijn.
Bij zowel audio- als beeldcompressie komen ook steeds zeer gelijkaardige basisalgoritmes terug die versneld kunnen worden, en ik vermoed dat vrij veel rekenintensieve algoritmes kunnen versneld worden door een aantal versnelde basisblokken.

Overigens lijkt het me niet zo eenvoudig om in dit geval je applicatie zo snel mogelijk te laten werken. Je zou dan immers per mogelijke combinatie van cores opnieuw moeten compileren.
Dit kan natuurlijk wel ten dele opgelost worden door basisbibliotheken die kiezen om een bepaalde functionaliteit via een specifieke core te uit te voeren indien deze core aanwezig is, en via de algemene cpu core indien niet aanwezig.
Ik denk dat het voor consumenten minder van belang is, maar dat het vooral handig is voor PC specifieke toepassing. Zoals industiele PC's / Clusters / Zware workstations, die gebruit worden voor 1 taak.

Een gemiddelde consument snapt er nu al neit vele van, laat staan als ze straks moeten weten wat voor cores er in moeten...Ik denk dat het voor de "gewone" consument niet komt.
lekker belangrijk wat de consument er van denkt, die koopt toch wel een Dell, en de mensen die zelf een PC bouwen weten wel weer welke core ze het liefst hebben, zo ook de Indutrie die bij SUN servers koopt met erg veel MIPS en FLOPS voor hun geld, of de wetenschap. Ik denk dat hier een heleboel mensen erg blij van gaan worden.
Alleen de mensen die nu al moeite hebben met kiezen zullen het misschien wat lastiger krijgen.
Audio is nu onboard al heel erg goed, en je moet echt geen CPU's bijsteken voor nog beter geluid, de audiofiel en proffesionele gebruiker buiten beschouwing gelaten.

Het voordeel is dat als je systeem wat te traag wordt je er een cpu uit flikkert en er een andere insteekt.
@ therat10430

Stel dat dit in 2015 op de markt komt... dan denk ik dat je op dit moment het woord traag ietwat ongepast is. Niets is traag in 2015 in vergelijking met nu, dan lach je om je 3Ghz CPU. Whahah een CPU, wat ouderwets!
Oftewel AMD wil de Amiga opnieuw maken?
Dat is precies waar ik ook aan dacht. Een soort Amiga multi-chip systeem in 1 chip.
lijkt me niet eens zo'n slecht idee gezien het feit dat de Amiga's destijds hun tijd ver vooruit waren. Om met een PC dezelfde geluidsopties te hebben moest je er al een aparte kaart in zetten dus wat dat betreft.....! Als je dan verder kijkt naar de innovaties die AMD de laatste jaren op de markt heeft gebracht dan moet het wel iets spectaculairs worden denk ik zo!
ik dacht meer aan de cell processor eigenlijk. Het concept van de amiga was de chipset, met processors voor geluid, video, IO en soms ook geheugen (MMU). Dit concept wordt nu al jaren toegepast op het PC platform dus dat is niets nieuws.

Wat mij ook het idee gaf van een ASIC of PGA. Een bouwsteen die zelf te programmeren is. Je koopt zo'n lege bouwsteen en download een aantal cores (CPU, GPU enz. ) van amd of intel, alleen dat wat je nodig hebt of handig vind. Opend ook de mogelijkheid om een aantal zaken in hardware onder te brengen zoals antivirus, firewall, codecs, game AI enz enz, zonder dat het cpu tijd vergt, alleen ruimte op je bouwsteen. De capaciteit van zo'n bouwsteen bepaald de snelheid van je systeem in wezen.

Verre toekomst muziek misschien, maar o.a. ARM cores zijn nu al beschikbaar voor Programable Gate Array chips in opensource.
lijkt me niet eens zo gek als de Alpha architects daar aan hebben gedacht toen ze dit concept uitwerkten, kan me nog een artikel herinneren in Amiga One waarin ze de eerste Alpha besproken, nog voor hij er was.
Dit is leuk voor de pro's onder ons maar ik zie het al voor mij: "we kunnen op dit moment 15 verschillende CPU's inbouwen voor u en daar bovenop nog 5 verschillende APU's en 10 verschillende GPU's"

Concreet betekent dit 15 X 5 X 10 = 750 verschillende configuraties mogelijk

Wordt net zo makkelijk kiezen als voor de nieuwe zorgverzekering :)
dat kan nu toch ook al??
Als de rekenkracht ook nog eens vrij te verdelen is over alle mogelijkheden hebben geen eens meer een videokaart nodig (wel sneller geheugen).

Betekent dit trouwens dat AMD weer helemaal terug is/komt? (Na dat hele conroe gedoe).

@Envy007: AMD is er nog steeds, alleen het laatste jaar lagen ze een beetje op achter met prijs/snelheid verhouding.
pfff, is AMD weg dan? Naar mijn weten bestaan ze nog steeds en leveren ze nog steeds processors. Ja, ze hebben op dit moment niet de performance crown, maar was Intel de afgelopen drie jaar weg omdat ze dat niet hadden. Het is stuivertje wisselen en Intel heeft de stuiver. Niemand is 'weg'
Nu AMD en Intel deze strategie kenbaar hebben gemaakt, lijkt het me een serieuze bedreiging voor bedrijven die zich enkel en alleen richten op videokaarten en gpu's. AMD en Intel die blijven wel omdat ze toch een constante innovatie hebben en zich op meerdere markten hebben gevestigd. Daarnaast gaan we, als we AMD moeten geloven, van een standaard product naar maatwerk. Differentiatie strategieen, waarmee bedrijven zich kunnen onderscheiden van anderen, zijn dan ook mogelijk.
Dit duurt nog jaren. Het duurt al 4 jaar om een CPU te ontwerpen (ongeveer). Reken er maar op dat het 2015-2020 is voordat dit zover is. Eerst hebben we de K8L nog, dan de K10, dan Fusion en dan pas dit.

AMD kan gewoonweg niet zomaar een nieuwe CPU maken. Nu is Intel eindelijk weer eens wat sneller dan AMD. Maar over een half jaar kan dat er wel heel anders uitzien als de 4 jaar oude K8 core van een grote update wordt voorzien: de K8L. Volgens de specs zou deze tegen de Core 2 kunnen knokken.
Ik weet niet waar jij het op baseert dat het jaren gaat duren? Maar misschien moet je hier eens kijken voor de roadmap : http://techreport.com/onearticle.x/11438
Waar in die roadmap wordt APU genoemd dan?
Accelerated Processing Units, or APUs, will be multi-core chips that include any mix of processor cores and other dedicated processors. Fusion, AMD's integrated CPU and graphics processor, is AMD's first step in that direction. However, the company eventually intends add more specialized cores that can handle tasks other than general-purpose computing and graphics. AMD didn't give any specific examples, but one could easily imagine future Fusion-like chips with cores for physics processing, audio/video encoding, and heck, maybe even AI acceleration.

Whatever it ends up doing, AMD says it will be able to tailor APUs with different combinations of core types to specific markets. Fusion, for example, will be aimed chiefly at the mobile market when it arrives in 2009.
We spreken dus over 2009 en Fusion zal niet een APU worden, maar een CPU-GPU-hybride. Ik denk dus dat zijn schatting niet eens zo gek is.
alleen het laatste jaar lagen ze een beetje op achter met prijs/snelheid verhouding.
ze liggen pas achter sinds de conroe er is, en dat was pas een paar maanden geleden, echt nog geen jaar hoor.
de laatste jaar voor conroe liepen ze voor met alles zowel op prijs/prestaties als op prestaties/watt, en dat op alle gebieden van budget tot high end.
'De 'Core Wars' zijn net zo'n grote vergissing als de megahertz-race'

Sorry hoor, maar ik vind dat toch echt een beetje onzin. Beide races hebben ons toch maar mooi gebracht waar we nu zijn: zelfs een instap PC is min of meer geschikt voor alle taken tegen een uiterst lage prijs, in vergelijking met 20 jaar geleden.

Wie denkt dat de MHz race voorbij is, vergist zich naar mijn mening. Het warmteprobleem heeft Intel nu aardig onder de knie en ik verwacht in 2007 een geleidelijke toename van de klokfrequentie. Het zou mij helemaal niet verbazen als Intel eind 2007 op 45 nm de 4 GHz grens gaat slechten, zelfs met 2 of 4 cores.

Bovendien wijzen alle tests van de laatste tijd uit dat klokfrequentie nog wel degelijk een grote rol speelt bij de prestatie. Zeker zolang software nog nauwelijks gebruik maakt van meerdere cores staat een hogere klok per definitie voor een betere prestatie (zie o.a. Conroe vs. Kentsfield)
Euhm, nee.

Zoals je vroeger al zag tussen AMD-Intel is dat intel hogere snelheden had qua Mhz, maardat AMD nog steeds de 'snellere' processor in handen had, omdat de clock per tick (ipc?) vele malen beter was dan die van Intel.

Kortgezegd, de Mhz hype is al een tijdje over idd.
Intel heeft met hun Netburst ernaast gezeten maar de oudere architecturen en nu de nieuwe conroe's hebben wel weer baat van meer mhz'en. Dus zoals staaijtech aangeeft is er weer een toekomst in meer mhz'en naast de meer cores heden ten dagen.
Verder vind ik ook de quote van AMD een beetje vreemd dat Ati juist een voordeel is voor AMD met hun modulariteit idee. Intel kan dit toch net zo goed doen? Ik bedoel Intel heeft al een GPU-tak en is tevens van plan om deze GPU tak sterk uit te breiden. Laten zij dan ook nog eens een optimale verbinding kunnen leggen met hun eigen CPU's lijkt me me geen verrassing dat op termijn misschien wel ook hier iets mee gedaan wordt.
Intel heeft een GPU tak, maar vergeleken met AMD-ATI kan de redelijk goede Intel-Nvidia relatie beter versterkt worden denk ik. Al heeft Intel voor de desktop prima gpu'tjes.
Het een sluit het ander niet uit. Intel heeft de IPC ook keurig weten op te voeren in de Core 2 generatie.
Zeker zolang software nog nauwelijks gebruik maakt van meerdere cores
Dit hangt erg af van de gebruikte software cq het gebruikte software type, en het gebruikte operating system. Als je applicaties hebt met veel verschillende processen, zoals bijvoorbeeld voor netwerk services (ik praat vanuit een webhosting ervaring...) dan kan dit prima verdeeld worden door het OS over meerdere cores, en is het dus effectief. Als je het over games hebt die niet zijn geoptimaliseerd voor de 21e eeuw, en die via 1 thread al het werk doen, dan heb je uiteraard gelijk.
Zeker zolang software nog nauwelijks gebruik maakt van meerdere cores staat een hogere klok per definitie voor een betere prestatie (zie o.a. Conroe vs. Kentsfield)
Alleen als je het over dezelfde cpu hebt (qua design) zal een hogere clock een beter prestatie leveren. Als je twee verschillende modellen gaat vergelijken (bv Amd vs Intel) kun je aan de clockfrequentie alleen niet zien welke processor sneller zal zijn!.
Ik wil graag een hoorntje met 3 Chips. Een CPU en twee GPU's (Die vind ik het lekkerst) Notejes of (S)pixels eroverheen ? (S)Pixels graag, heel veel (S)Pixels :P
Dergelijke dedicate cores gaan wel een stap terug zijn op het gebied van scalability en vereenvoudiging. Als dit inderdaad de toekomst zal worden gaan we terug naar een bepaalde computer voor een specifieke doelgroep. Daar het net interessant was om redelijk (nog steeds verschillende standaarden PCI-x, Sockets, etc) standaard systemen te kunnen bouwen die voor de grote massa voldoende krachtig zijn en geschikt voor de meeste applicaties.
Ja en nee cpu's zijn nu zo snel geworden dat we vaak die snelheid niet eens gebruiken.

Neem gewoon een pc voor internet wordt en wat standaard dingen. Daarvoor heb je echt geen dual core nodig. Ga je ineens video bewerken dan gebruik je alle kracht specifiek voor die taak.
Een speciale chips specifiek voor video zou met minder ghz sneller kunnen zijn.

Niet voor niets zien we dat bijv sun een chip heeft die rechtstreeks java kan uitvoeren.

Het probleem is idd wel dat je geen universele cpu meer hebt maar specifiek voor waar je hem voor nodig hebt. zodra je naar niet specifiek gaat, verlaat je dus ook massa productie van cpu's

Nu heb je voorraad voor een relatief klein aantal cpu's maar met specifieke cpu's moet je dus ook meer verschillende producren en op voorraad gaan houden. Ook voor leveranciers zal dit slechter zijn, zij hebben liever niet zo veel verschillende mogenlijkheden.

Een andere oplossing ligt nu bijv in de cell. Je hebt een basis cpu en x pure rekenkundige cpu's. Het nadeel is nu dat je die rekenkundige cpu's nog met de juiste software moet programmeren en in het geval van de cell is dat nog niet éénvoudig maar ook dat zal veranderen.

Een gpu kan men ook omprogrammeren tot speciieke berekeningen.

Gaan we misschien weer terug naar cpu's die je kan programmeren en die ff andere software laden ineens audio doen, dan video. IBM had vroeger zo'n leuk kaartje, audio chip, modem enz in 1.
Ik zie het wel voor me hoor, een Mobo met een hele rits PCI-e sloten, waar naar eigen wens eens een extra Core in gemikt kan worden, of het nu een CPU is, of een GPU, een PPU, whatever. Ik zie het juist als een uitbreiding van het IBM model. :)
uhm ja, maar waar AMD op doelt is deze cores allemaal op een die samenvoegen, dus alsnog maar 1 socket voor het geheel
@Hiro Shima

Nee Torrenzo gaat wel degelijk over meerdere "sockets" en niet op alles op een hoop.
En we zullen zien of de toekomst hier inderdaad in ligt.

Op zich wel grappig aan de ene kant willen ze alles intergreren in de CPU denk aan de geheugencontroller, rest van north bridge (via) of de GPU (2008).

En aan de andere kant is er Torrenza waar alles opgesplitst wordt in dedicated chips.

Vaag maar we zullen wel zien hoe de ontwikkelingen gaan.
"Nu heb je voorraad voor een relatief klein aantal cpu's"

uhhm.,
Ik tel op een bekende verkoopsite toch al snel zo'n 100(!!!!) verschillende cpu's te koop, alleen al van amd en intel.
Ze zijn alleen vooral uit de categorie 'meer van hetzelfde'.
Het slechte nieuws vind ik dat in zekere zin de keuzevrijheid van de consument naar de fabrikant verplaatst wordt. De IBM PC is zo populair geworden omdat je als eindgebruiker precies kon bepalen hoe je machine eruit ging zien. Het is wmb te hopen dat deze chips niet de rol van bijvoorbeeld de gpu geheel overnemen, anders wordt mijn fijne stukje-bij-beetje-upgradepolicy straks onmogelijk gemaakt: moet ik steeds een complete, zij het natuurlijk wel verregaand geïntegreerde, computer kopen...
Wie zegt dat zo'n dedicated core alleen van AMD geleverd gaat worden. Zover heeft AMD wat betreft deze plannen al specificaties van hoe deze geimplementeerd moet worden vrijgegeven. Ik stel mij meer voor dat de goed oude PCI (of PCI-X) wordt vervangen door een meer directe interface met de andere (dedicated) processoren.
Waarom gaat iedereen er opeens van uit dat deze dedicated cores niet in één xPU zitten maar dat het verschillende losse PU's zijn?

Ik kan dat nergens uit herleiden. :?

Ik zou net zeggen dat het gewoon 1 standaard pc wordt met 1 socket waar 1 PU in geduwd wordt die meerdere dedicated cores heeft. Beetje hetzelfde als de SUN cpu met meerdere cores dacht iets van 16 in 1 alleen dan in dit geval 16 dedicated in 1.

Dit is trouwens ook nergens uit te herleiden hoor :+
ahum, dus als iemand jou vraagt om een office-pc in elkaar te zetten dan maak jij een gamers-bak??

De pc markt is (al jaren) aan het versplinteren in specialisatie-groepen. (microsoft heeft dit tijdenlang weten te camoufleren door steeds grotere eisen te stellen aan hardware voor basale functionaliteit , en vista zal daar ook aan bijdragen)

AMD speelt alleen maar in op de trend dat jantje de buurman geen games speelt en truus van de overkant geen zwaar rekenwerk hoeft te verrichten voor haar dagelijkse bezigheden.

Dit verschil was er al een tijdje en je ziet ook dat andere chipbakkers dit al door hadden.
Zie bijvoorbeeld de Cell processor van sony/toshiba/ibm.

Zolang we niet overgaan op grid-computing is dit naar mijn mening ook de enige groeimogelijkheid waar van nature rek in zit.
Anders zul je met marketing dezelfde cpu's moeten slijten aan mensen die het of niet nodig hebben of er te weinig aan hebben.
Dergelijke dedicate cores gaan wel een stap terug zijn op het gebied van scalability en vereenvoudiging.
denk dat het wel mee valt, ik bedoel wat is SSE nou meer als een semi-aparte dedicated core voor (onder andere) floating point berekeningen.
en conroe is juist zo sterk omdat ze die SSE units flink hebben verbeterd.
AMD voert hier dat concept gewoon nog een stapje verder door.

vraag me alleen af hoe ze het gaan doen.
alles 1 in socket en dan verschillende lijnen CPUs maken (gamer cpu, thuis cpu, office cpu, workstation cpu, ectect)
of meerdere sockets of insteek kaarten.

ik denk zelf eigenlijk optie 1 omdat AMD juist zo veel tijd en geld heeft geïnvesteerd om met 1 fabriek heel snel en efficiënt verschillende type processors te kunnen maken (nood gedwongen, omdat ze er maar 1 hadden).
met dit concept kunnen ze daar goed gebruik van maken, waar intel altijd het wat lastiger zal hebben omdat ze meestal 1 fab hebben die 1 product maken (en niet gemaakt zijn voor snelle omschakelingen), wat ze een stuk minder flexibel zou maken in the in te springen op veranderingen in de vraag naar bepaalde CPU's.
Dus AMD gaat Sony met haar Cell achterna, of mis ik nu iets? :P
De Cell-architectuur heeft één controle-CPU met een aantal identieke DSP's daarrond.

In het geval van AMD gaat het om het gebruiken van een library van allemaal verschillende processing units, die afhankelijk van de applicatie kunnen uitgekozen worden. Een heel ander concept dus.

Het gebeurt eigenlijk op dit moment ook al zo bij het ontwikkelen van één enkele chip: je gebruikt bestaande bouwblokken, om zo op een makkelijke en goedkope manier de functionaliteit van jouw chip te creëren.

Dit is ongeveer hetzelfde, maar dan met een heel systeem.
klopt, AMD gaat een beetje de CELL richting uit, ook al kraakten ze de CELL nog redelijk af bij de introduktie ervan in 2005:
Assessing the Cell processor \[Editor's note: The multicore chip developed by Sony, IBM and Toshiba that will run the next version of the PlayStation video game machine.]

It's an interesting direction. a very application specific design that is more programmable than solutions in past. It's a nice move from fixed function to general purpose, but it is still very specialized. It points the way. I am interested in heterogeneous multiprocessing, in which all the processors don't all have the same characteristics, just as in housing with huts, hotels, apartments and houses. Heterogeneous multiprocessing does the same thing. We want to use different processors for different uses. If you are doing something massively parallel, you want them all working, or if you are doing serial work, you want a couple of big processors turned on. The Cell is a beginning in that direction, but it's program model is still too difficult. I am a big believer in a simplified programming model. if you have many x86 processors, porting code is not a problem, it's more of performance tuning issue.
interview AMD CTO weber in 2005

ze deden het toen voorkomen alsof een multicore x86 de enige weg te gaan is (x86 everywhere!) , daar lijken ze nu wat van terug te komen. maar die Weber is nu weg bij AMD dus misschien dat er nu een frisse wind waait.
Euhm...is je engels niet al te best ofzo? Ik lees in het stuk wat jij aanhaalt juist dat ze het DAAR al hebben over verschillende cores met specefieke specialiteiten:
I am interested in heterogeneous multiprocessing, in which all the processors don't all have the same characteristics, just as in housing with huts, hotels, apartments and houses. Heterogeneous multiprocessing does the same thing. We want to use different processors for different uses.
Ik denk eerder dat je vrij programmerbare cores moet maken. Niet voor een specifieke taak, maar aanpasbaar voor de taak die op dat moment nodig is. Het verhaal van AMD klinkt als een bus terug in de tijd
Of te wel een Transmeta processor....
Oftewel een bak Transistoren gemaakt van veredeld zand
lijkt wel een beetje op de stretch inc processor: een samensmelting van een CPU/DSP en FPGA ... heel interessant...
En dat bestaat (of beter gezegd: is in ontwikkeling). De MIT heeft een nieuwe computerarchitectuur in ontwikkeling, zie: http://www.cag.lcs.mit.edu/raw/
Zie de Publications sectie.
Ik weet niet hoor maar is dat niet een stuk lastiger programmeren dan het hebben van 10 of zo gewone cores in plaats van 10 cores die ieder special op een bepaalde taak richten?

Natuurlijk werkt het allemaal niet zo simpel maar heb je niet de kans dat niet alle cores volledig to zijn recht komen bijv een core die in geluid specialiserd voor een pc die alleen op een werkplek word gebruikt waar zware CAD programma's worden gedraaid dan ligt die core toch 9/10 keer niks te doen of heb ik het nu verkeer...

Dan is het hebben van 10 all round cores toch veel nuttiger of zie ik dat verkeerd?
goede compilers kunnen tegenwoordig een hele hoop.

en als 1 zo'n specialistische unit sneller is dan 10 general purpose units dan is het zeker de moeite waard,
en omdat je je programs dan een stuk minder multi-threaded hoeft te maken kan het zelfs zo zijn dat het minder programmeer werkt is.
Maar dan moet de concurrent (intel) ook met specialistische cores komen of AMD moet de hele markt gaan veroveren. Anders hebben ze maar een hele kleine markt waar het interresant voor is, omdat er ook geen programma's voor gemaakt worden en dan zal je hetzelfde zien als AMD met 64bit... ze investeren in een nieuwe technologie waar nog geen markt voor is. Eer alles een beetje op 64bit draait, weet ik niet of mijn 3500+ nog mee kan (tenzij dat 64bit een enorm performance verschil kan meebrengen, ben dan ook wel nieuwsgierig naar een 64bit benchmark tussen core 2 duo en a64).
Maargoed, wie zegt dat je voor deze cores moet programmeren? Misschien dat het cores worden die bepaalde algoritmes sneller uit kunnen voeren... de tijd zal het leren he.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True