Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: DailyTech

AMD heeft tijdens een presentatie meer details bekendgemaakt over de Fusion-processor die cpu en gpu op een chip laat samensmelten. Net als bij dual- en quadcoreprocessors, speelt ook hier de interne HT-crossbar een belangrijke rol.

Afgaande op een diagram uit de presentatie, zal de Fusion-processor bestaan uit één of meerdere cpu-cores, één of meerdere gpu-cores en één geheugencontroller. Deze zijn alle met behulp van een HyperTransport-bus op een crossbar aangesloten. Deze crossbar zorgt ervoor dat zowel gpu('s) als cpu('s) met het werkgeheugen of via een externe HyperTransport-interface met de buitenwereld kunnen communiceren. De cpu-cores krijgen hun eigen cachegeheugen, terwijl de gpu-cores een eigen buffergeheugen krijgen. De framebuffer wordt echter in het werkgeheugen opgeslagen, dat gedeeld wordt met de cpu('s).

Door het aantal cpu's en gpu's te variëren, kan AMD met Fusion-processors komen die geoptimaliseerd zijn voor een bepaalde toepassing. Voor servers is een versie met meerdere cpu-cores en een enkele gpu-core interessant, gezien er niet veel grafische kracht nodig is. Een gamer heeft echter meer baat bij een Fusion-processor met slechts één of twee cpu-cores en meerdere gpu-cores. AMD geeft echter wel aan dat een echte die-hard-gamer waarschijnlijk niet voor een geïntegreerde oplossing zal kiezen, maar voor een externe grafische kaart. De ontwikkeling van die producten zal dan ook niet stopgezet worden.

Tijdens de presentatie maakte AMD ook duidelijk welke merknaam het zijn producten in de toekomst zal geven. Het ATi-logo zal op alle chipsets voor het Intel-platform en alle gpu's voor het gebruik op grafische kaarten pronken. Chipsets die voor het AMD-platform bedoelt zijn, zullen in de toekomst van een AMD-logo voorzien zijn.

Toekomstvisie AMD cpu-gpu integratieAMD Fusion architectuur
Moderatie-faq Wijzig weergave

Reacties (37)

In een eerder bericht gaf ik al aan dit volstrekt logisch te vinden. Met de huidige GPU-pijplijnen kan je namelijk ook rekenwerk verzetten. Vandaar dat men tegenwoordig GPU-kaarten aanbiedt voor rekenwerk, met bv Folding@home op de Radeon's kan draaien en men straks ook physics kan uitrekenen op GPU's.

Die grote complexe pijplijnen leveren op andere manieren winst voor het betere rekenwerk. En zodoende is men gaan differentieren geslagen. Men neemt ipv 2 tot 4 cores straks een paar cores met nog een paar andere cores (de GPU) zodat deze uiteindelijk heel sterk is op verschillende terreinen. Een soort Cell-design, maar ook wel vergelijkbaar met bv de 387/487 math-coprocessor.

Het je die GPU in de CPU zitten kan je als hardcore-gamer nog steeds blij zijn. De CPU is nog steeds snel zat, je kan altijd je SLI of betere kaarten insteken, maar de GPU-kernen kunnen dan Physics draaien, en wellicht op hogere kloksnelheden.

Op The Inquirer staat dan een verhaal dat men voortaan modulaire GPU's gaat maken en geen grote plakken meer als de G80 en R600. Men kan dan bv per GPU-eenheid 4 pijplijnen proppen met misschien nog enig eigen geheugen oid. Je kan dat natuurlijk dan op een video-kaart prikken en bv 4 eenheden voor meer prestaties. Maar ik zie AMD er wel voor aan om dit kant en klaar bij de CPU te bakken, want dat kan natuurlijk ook met versimpelde GPU's
Wat ik persoonlijk interessant vind is dat er door deze intergratie er waarschijnlijk heel véél cpu-gpu-huwelijken op de markt komen, waardoor het voor software-ontwikkelaars veel interessanter wordt om die GPU-capaciteiten te gaan aanspreken.

Dit in tegenstelling tot losse grafische kaarten, waarbij niet alleen de verbinding met de cpu langzamer is, maar er ook een te grote variatie is, waardoor het niet gauw rendabel is daarvoor op maat software te schrijven.
Er kan nog mogelijk winst worden gehaald door een extra instructieset toe te voegen die door de GPU wordt berekent,
of misschien zal het mogelijk zijn om bepaalde oudere/hedendaagse instructies (SSE (2/3/4)) deels door de gpu te laten berekenen.

GPU zal misschien wat anders moeten worden ontworpen, want het grootste probleem van de GPU is dat die relatief simpel is en maar een beperkt aantal opdrachten kan verwerken.
Ik zie dit meer als 'n flexibelere alternatief tov Lowbudged onboard GPU in Northbridge Chipssets.
Dus ipv op de northbridge komt het bij de CPU en keuze uit verschillende samenstellingen. Dat is dan de meer waarde.

Dus ipv Low budged. Heb je de Ultra low/Low/ Midrange.

Maar voor high-end 130watt zuigende GPU plak nodig.
Voor extreem nog steeds CF en SLI met dedicated Grafische kaarten.

Als semi high-end gamer ga ik toch liever voor optimum performance en dat krijg je met 'n losse kaart met dikke GPU.
En heel belangrijk Local high performance memory sub system. GDDR4 breed en snel.

Uiteraard voor de midrange en low budged 'n leuke optie.
Denk dat de fusion eerder midrange zal worden,
vandaag de dag heb je al nforce chipsetjes met een geintergreerde GPU en die trekken het nog aardig.

Het lijkt het me verstandiger om hoger in te zetten dan de huidige mogelijkheden en met een complete chip moet die winst er wel inzitten.
De CGV-PU is modulair. De kracht van één GPU module is onbekend. is dat 'n kwart of 1/16 van 'n high-end GPU.

Voor server toepassingen kan het heel licht zijn. één module. Maar voor midrange 2 stuks. of 8?

Je gokt erop dat er al op één GPU core al wat gegamed kan worden.Met nieuwe games van die toekomst. Ik wacht het eerst af.

'n High-end GPU kan dus puur uit 16 van die modules bestaan.

Dus
"Dus ipv Low budged." (Northbridge+GPU-tje )

Heb je de
* Ultra low (2 á 8 CPU cores/ 1 GPU-coretje) //Server office- non game
* Low. (2 CPU/2GPU)
* Midrange (2 á 4 CPU/ 4 GPU'tjes)
Er zijn volgens mij echter meer mogelijkheden dan enkel als low budget alternatief.

Ze zouden het IDLE verbruik van een gamesysteem enorm kunnen verlagen door in windows en office apps de videokaart volledig uit te schakelen en in de plaats enkel gebruik te maken van de on-die gpu. Wanneer dan zware games gedraaid worden kan de insteekkaart geactiveerd worden, maar zou de on-die gpu nog gebruikt kunnen worden voor extra snelheid.
In principe konden ze dat vroeger ook al gedaan hebben met onboard gpus. Nu "performance/watt" echter dé nieuwe marketingterm geworden is en steeds meer gedacht wordt aan modulaire opbouw van een systeem, zou het er wel echt eens van kunnen komen. :)
Zou je deze onderdelen ook nog los van elkaar kunnen overclocken? En dan vraag ik me ook af hoe goed dat nog gaat gezien je veel meer warmte op een klein vlak moet koelen.

Ik denk toch echt dat als je wilt overclocken je toch beter af bent met losse cpu's en gpu's

Maar voor budget systemen, laptops en kleine mediacenters is dit denk ik echt wel een goede zaak :) is gewoon een kwestie van tijd denk ik voordat je een computer op het voormaat van een dobbelsteen hebt en alles er draadloos op aangesloten is
Hier zit ik persoonlijk al jaren op te wachten.
uitaard zal dit wel veel warmte produceren omdat nu cpu+gpu op 1 plek zitten.. dus nu zal een groot deel van de warmte op 1 plek van je pc zitten.

Ik denk dat hier zeker een markt voor is.. en moet je voorstellen hoe verschikkelijk snel ze bijv een GPU nu kunnen maken.. via een HT bus die ook weer naar de CPU-MEM leid.
en moet je voorstellen hoe verschikkelijk snel ze bijv een GPU nu kunnen maken.. via een HT bus die ook weer naar de CPU-MEM leid.
Waarom zou een GPU ineens verschrikkelijk snel zijn?
De GeForce 8800 GTX heeft in het topmodel een geheugenbandbreedte van meer dan 80 gbyte/s. Een CPU zit net over de 10 gbyte/s en zou de bandbreedte dan ook nog eens moeten delen met de GPU.

Voorlopig is dit veel interessanter voor low-end video oplossingen dan voor high-end video. Wel is het leuk voor physcis enzo.
Hyper Transport kan 25 GByte/sec verwerken dus zou genoeg moeten zijn.
nieuws: HyperTransport 2 krijgt minimaal 25GB/s bandbreedte
HT heeft niks te maken met geheugenbandbreedte (in deze context).
De latency zal worden verlaagd omdat de grafische kaart niet meer via north bridge en pci-e kanaal moet gaan om signalen naar de cpu te versturen en omgekeerd.
AMD geeft zelf al aan dat een externe GPU toch sneller zal zijn, het is vooral interessant voor mobiele PC's en office/budget desktops. Waar bij Intel de geheugen controller en onboard video op de northbridge zit, zitten deze bij AMD allebei geïntegreerd in de CPU. Dit levert ruimte- en geld besparing op.
Ok ik zie het voordeel van dit soort integratie, maar iets klopt er niet aan dit systeem. In dit plaatje werkt de GPU op het geheugen van de CPU. Een GPU heeft ander geheugen nodig dan een CPU, want CPU's gebruiken 800 MHz DDR2 geheugen en GPU's tegenwoordig 1600 MHz GDDR4 geheugen, dit omdat een GPU enkel bandbreedte nodig heeft en latency niet boeit. Maar nu rem je de GPU af met het langzame DDR2 geheugen toch? Klinkt niet echt efficient zo.
klopt, het is een gpu zonder video ram. feitelijk verschilt het niet veel van intels integrated graphics chipsets.

het verschil is dat de gpu van intel op de north bridge zit een de gpu van amd op de processor die. beide oplossingen delen het relatief trage werkgeheugen met de processor.

vergelijk bijvoorbeeld ook de memorycontroller. die zit bij amd op de processor en bij intel op de north bridge.

het is wel een energiezuinige en goedkope oplossing van amd. daarnaast zal de ati gpu core an-sich zal wat performanter zijn dan de intel gpu.
Denk dat je dit beter kunt vergelijken met TurboCache en Hypermemory, die GPU komt met geintegreerd buffergeheugen, wat op hetzelfde als TC en HM neerkomt.
wat op hetzelfde als TC en HM neerkomt.
HM en TC kaarten hebben toch minimaal 16 mbyte lokaal geheugen? Zouden ze dat echt on-die op de GPU zetten?
Denk ook doordat de GPU, CPU en de MC in 1 bootje zitten hier redelijk veel aan geoptimaliseerd kan worden in verhouding tot Intel's oplossing.
ja, daar zat ik ook aan te denken. volgens mij kan dit nog best goed presteren...
Je noemt het wel afremmen maar er ook wordt geloof ik ook gezegt dat ze dit niet als high end oplossing naar voren willen brengen, dat GDDR4 geheugen is echt wel beetje high end, maar voor kaarten gelijk aan de x1300 serie of misschien ook nog wel te vergelijken met de x1600 series.

Ook niet te vergeten dat je nu al met ddr2-800 werkt op dual channel, dat levert toch aardig wat bandbreedte en ik denk dat deze cpu/gpu's pas op de markt komen als we al op ddr3 zitten wat ook weer stukje sneller is.
Zelf ben ik nog wat sceptisch over de Fusion-processor

In mijn inzage zou AMD er beter aan doen om dat de Overname van ATI
ATI gewoon laten draaien zoals het altijd al deed en gewoon goede losse Grafische kaarten blijven produceren. Waarmee ATI bekent mee is geworden en een Geduchte concurrent werd van Nvidia. Hiermee Heeft AMD dankzij ATI een goede winst gevende tak in handen.
Wat AMD ten goede zal komen. Natuurlijk is de Fusion-processor interessant maar deze techniek zal nog lang moeten rijpen en verbeterd moeten worden wil dit zijn vruchten af gaan werpen. Dus lijkt het me niet verstandig als AMD/ATI zich nog enkel beperkt tot deze techniek.
Er staat toch dat ze zich niet stoppen met het ontwikkelen van videokaarten:
AMD geeft echter wel aan dat een echte die-hard-gamer waarschijnlijk niet voor een geïntegreerde oplossing zal kiezen, maar voor een externe grafische kaart. De ontwikkeling van die producten zal dan ook niet stopgezet worden.
idd Redstorm dara heb jij gelijk in !
maar waar ik bang voor ben is dat AMD/ATI de gewone kaarten wat zal laten verslompen en veel minder snel ontwikkelen zal. Terwijl ATI nu juist zo verbeterd en gegroeid was de laaste jaren. De tijd zal het leren.
Als ze dat doen zijn ze wel erg dom bezig.
Dan is er maar 1 winnaar van de GPU's.
Zien ze de wins wel erg snel naar beneden gaan.
VGA RAM = CPU RAM? (2e plaatje)

Dus de CPU heeft GDDR4 op 2.xxx GHz?
Of heeft de GPU DDR2/DDR3 op lagere snelheden?
Ik denk dat de GPU met DDR2/3 nog steeds een pittige performance kan neerzetten omdat deze GPU nu ook meekan genieten van het centrale geheugen principe. Misschien dat het allemaal sneller zal werken omdat alles nu geintegreerd is ipv dat iedereen maar op zijn eigen eilandje blijft steken in videokaart-land en cpu-land.
Wellicht kan je bewerkingen vanuit je CPU in een stuk geheugen neerzetten waar de GPU direct het kan overnemen om het vervolgens na een grafische verwerking direct via de HDMI kabel eruit te spugen.

Als ik het goed begrijp is dit best wel een spannende en vooruitstrevende architectuur verandering. Het doet me een beetje herinneren aan hoe snelle clustertjes een CAVE aan kunnen sturen. Zo'n 3D VR ruimte. Daar zijn de rekenunits en de grafische units ook zeer dicht bijelkaar geplaats.
een laptop rond zo'n C/G-pu ontworpen zou echt extreem zuinig kunnen zijn.
zeker voor thin en light nootbooks kan je hiermee denk ik hele mooie dingen doen.
Waarom is iedereen zo negatief?

Vroegah! Kon je je cpu kracht voor graka toewenden! Ok het was niet de ideale oplossing maar wel de goedkoopste om niet zon 1000 gulden kaart aan te schaffen en toch nog redelijk te kunnen spelen!

Nu is het niet ideaal want je hebt maar 1 cpu en de gpu zijn zo ver ontwikkelt dan 1 cpu niet meer bij gpu bij kan houden (theoritisch). Stel je hebt... 10 cpu... die worden samen gebundeld en inzet voor grafische shit. Dan kan je de 1 gpu wel fluiten.

If we cant beat them in quality then we beat them in quantity! (WWII van stalin)
Ik denk dat er nog wel haken en ogen aan dit verhaal zitten. Want hoe gaat de processor bepalen welke taken geschikt zijn voor de GPU en welke voor de CPU? Moeten die stukken code straks door een nieuwe compiler worden gekenmerkt als "GPU friendly" ? Zoja, dan zal je ook pas van de voordelen kunnen gebruikmaken in software die ook opnieuw is gecompileerd met inachtneming van dit puntje.
Want hoe gaat de processor bepalen welke taken geschikt zijn voor de GPU en welke voor de CPU?
Eh, op exact dezelfde manier als nu?
Sinds wanneer neemt de GPU momenteel taken van de CPU over die mogelijkerwijs sneller kunnen worden uitgevoerd op de GPU? Dus vooralsnog blijft mijn vraag staan.
Net als in de Cell processor voorzie ik een CPU core of gespecialiseerde afgeleide daarvan die het werk verdeeld over de aanwezige cores (CPU en GPU). Dit heeft natuurlijk alleen zin als je daardoor netto efficienter werkt.
Door het aantal cpu's en gpu's te variëren, kan AMD met Fusion-processors komen die geoptimaliseerd zijn voor een bepaalde toepassing. Voor servers is een versie met meerdere cpu-cores en een enkele gpu-core interessant, gezien er niet veel grafische kracht nodig is. Een gamer heeft echter meer baat bij een Fusion-processor met slechts één of twee cpu-cores en meerdere gpu-cores. AMD geeft echter wel aan dat een echte die-hard-gamer waarschijnlijk niet voor een geïntegreerde oplossing zal kiezen, maar voor een externe grafische kaart. De ontwikkeling van die producten zal dan ook niet stopgezet worden.
wat een slechte vergelijking voor een server kies je natuurlijk een el cheapo VGA kaartje voor 20 euro ofzo.

ik zie deze oplossing meer voor echte budget systemen voor simpele taken (thuis of op kantoor) en vooral voor laptops zal dit een goede vervanger zijn lijkt me dat je veel kan besparen in stroomverbruik, ruimte dat het inneemt en goedkoper te maken.
wat een slechte vergelijking voor een server kies je natuurlijk een el cheapo VGA kaartje voor 20 euro ofzo.
Waarom zou een losse videokaart goedkoper zijn dan dezelfde GPU on-die?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True