Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 118 reacties
Bron: AMD

Nu de overname van ATi definitief is geworden, heeft AMD nota bene al in hetzelfde persbericht bekendgemaakt dat het eind 2008 of begin 2009 met een nieuwe lijn processors wil komen, waarin de functies van gpu en cpu gecombineerd worden. De met de codenaam 'Fusion' getooide chips zullen het hele processorspectrum bestrijken, van budgetcomputers tot laptops en van embedded devices tot krachtige workstations. Of de nieuwe chips naast of in plaats van de huidige Athlon- en Opteron-chips zullen komen is nog onduidelijk, net als de consequenties die het nieuws voor K8L-processors heeft. De fusie met ATi maakte echter wel al duidelijk dat beide bedrijven zeer geïnteresseerd zijn in geïntegreerde oplossingen. De samenwerking moet ook op het gebied van chipsets zijn vruchten afwerpen: al volgend jaar verschijnt een nieuwe serie ATi-chipsets, waarmee AMD het Live!-platform beter in de verf wil zetten en met name het stroomverbruik van Turion-notebooks verder terug wil dringen. Deze platformbenadering kan als een eerste stap in de richting van een volledig geïntegreerd Fusion-systeem worden gezien. Dat is overigens slecht nieuws voor nVidia, wiens chipsetafdeling momenteel goeddeels op AMD-systemen drijft.

AMD & ATi stickertjes De Fusion-chips krijgen een hoofdrol in AMD's 'performance per watt'-plannen: de combinatie van cpu en gpu kan op een zuiniger manier tegemoetkomen aan de groeiende vraag naar met name grafische pracht. Bovendien benadrukt het bedrijf dat de chips binnen een open strategie gepositioneerd zullen worden: AMD zal andere bedrijven aanmoedigen om 'innovatieve coprocessors' te ontwikkelen, waarmee pc's beter toegerust kunnen worden voor specialistische taken. Afgezien van de bouw van clusters voor 'performance computing' is de gamersmarkt een van de belangrijke afzetgebieden, en de grote vraag is natuurlijk in hoeverre deze chips daar een rol van betekenis kunnen spelen. De aanwezigheid van PCIe-connectivity in het Fusion-ontwerp zou erop kunnen wijzen dat de liefhebber van high-end graphics toch bij losse grafische kaarten zal uitkomen. Het is echter net zo waarschijnlijk dat AMD wel degelijk krachtige graphics in Fusion-chips wil bouwen en bij uitbreiding vooral denkt aan physicskaarten en dergelijke.

Moderatie-faq Wijzig weergave

Reacties (118)

1 2 3 ... 6
De met de codenaam 'Fusion' getooide chips zullen het hele processorspectrum bestrijken, van budgetcomputers tot laptops en van embedded devices tot krachtige workstations.
Dus CPU & GPU worden ook gecombineerd tot 1 cpu/gpu bedoeld voor de fanatieke gamers? Dat lijkt amper mogelijk, gezien vooral de afmetingen van huidige high-end videokaarten. Hoe krijg je zoveel technologie tezamen met nog een goede CPU bij elkaar gepropt in een -naar ik aanneem- niet veel groter qua afmetingen nieuwe cpu/gpu? Kijk dat je geintegreerde, simpele ATi onboard vga-oplossingen in een cpu kan integereren, oké, maar is het ook mogelijk om hetzelfde te doen met een high-end videokaart?
En wat voor geheugen moet je dan op je bord prikken
en is dat dan ook voor beide procs te gebruiken
gewoon ddr4 ofzo lijkt me....
waarom integreren ze geheugen ook niet meteen?
en audio ... en .. storage ..en .. en.. en..en.enennn...
Zeker in den beginne denk ik niet dat AMD komt met een gamer-cpu met krachtige cpu en gpu in één Mij lijkt het waarschijnlijker dat het hier gaat om vervanging van de huidige "onboard" graphics; minder chips maken en solderen = goedkoper!
Niet mee eens.
Met de huidige ontwikkelingen is het mogelijk om een quadcore CPU/GPU-in-één in 2009 op de markt te zetten. 4 GPU's!. Me dunkt dat dat meer prestaties oplevert dan een 'buitenboordmotor' als de 9100 IGP chipset van ATi nu.
Hoeft echt niet zo te zijn.. Een GPU is al jaaaaren 'multicore'. Hoe meer pipelines, hoe meer power. 4 GPU's of 1 GPU met 4x de pipelines is daardoor ook ongeveer hetzelfde.. (en ja, die IGP's moderniseren ook wel degelijk).
SLI/crossfire is er gewoon omdat sommige mensen meer kracht willen dan de huidige beschikbare kaarten in hun eentje kunnen. Dan zet je er eentje bij en heb je meer kracht.
4 GPU's of 1 GPU met 4x de pipelines is daardoor ook ongeveer hetzelfde..
Niet echt, een enkele GPU is veel efficienter.
Zeker met de huidige multi-GPU oplossingen, waarbij iedere GPU z'n eigen geheugen heeft.
Dat houdt dus oa in dat beiden een eigen kopie van alle textures, shaders, geometrie en dergelijke bij moeten houden, waardoor het geheugen dus veel minder efficient wordt benut.
Verder wordt er op deze manier heel veel dubbel werk gedaan, omdat de GPUs hun onderlinge resultaten niet efficient kunnen uitwisselen.

Bij GPUs is het dus veel minder interessant om multicore te gaan implementeren dan bij CPUs.

Ook het nut van een geintegreerde GPU zie ik niet in.
Grafisch geheugen is heel anders dan gewoon systeemgeheugen. Vaak heb je een veel bredere bus (128 bit of 256 bit), veel hogere kloksnelheid, en ook veel hogere latency. Het geheugen is ook duurder, gaat nog wel als je 256 of 512 mb moet hebben, maar voor 1 a 2 gb wordt het andere koek.
Grafisch geheugen is niet echt geschikt voor gebruik met een CPU, en systeemgeheugen is niet echt geschikt voor gebruik met een GPU (de voornaamste reden dat IGPs zo traag zijn).
Ik zie dus niet echt gebeuren dat deze GPU snel zal zijn.

Ook voor de interne communicatie hoef je het niet te doen. GPUs zijn geevolueerd tot bijna compleet zelfstandige systemen. Alles wat er nodig is om een scherm te renderen, wordt naar het videogeheugen gekopieerd, en vanaf dat moment hoeft de CPU alleen nog maar af en toe een commando te sturen, en wat kleine dingetjes als matrices of constanten updaten.
Dat is niet bijzonder gevoelig voor bandbreedte of latency.

Misschien dat ze het voornamelijk doen om de kosten van een budget-systeem nog verder te drukken, omdat deze oplossing goedkoper wordt dan een GPU in de chipset.
zram als cache voor cpu maar vooral GPU, is veel kleiner op de die en dus kan er meer op. moet werken lijkt me
Maar waar zie je staan voor gamers?
Workstation gebruikers eisen vaak heel weinig van de videokaart, gaat meer om de brute rekenkracht van de procesor(ren).
Beetje workstation word of met simpele 16 of 32 mb video uitgeleverd, grafische werkstations met quadro's of andere onbetaalbare kaarten.
Dat betekend idd een hele grote CPU :P en hoe gaan we dit koelen met een heeele grote koeler?
Dat betekend idd een hele grote CPU en hoe gaan we dit koelen met een heeele grote koeler?
Ik voorspel een grote stijging in de handel van vloeibaar stikstof.
Toch wel opvallend, daar waar we jarenlang taken van de centrale processor hebben weggenomen (GPU, geluid, physics), gaat AMD dus nu tegen de stroom in zwemmen?

Een goede ontwikkeling voor budgetcomputers, minder benodigde cpu's zullen de kosten drukken; de die-hards zullen vast bij aparte kaarten/cpu's blijven. Zeker gezien de hitte die de top-end nog steeds afgeeft.
Think out of the box. Of in dit geval uw box.

Ik schat dat 95% van de bestaande pc's op deze wereld gebruikt worden in de staat zoals ze geleverd werden. Dus met een onderdelen en specs waar de betreffende gebruiker (bijna) geen benul van heeft.

Voor die 95% van de pc's werkt zo een geintegreerde oplossing minstens evengoed, zoniet beter dan het bestaande systeem van losse onderdelen.

Dat de tweakende gamer zich vragens telt bij zulke onwtikkeling kan ik goed inkomen, maar jullie vormen dan ook geen grote markt...
jep, maar de tweakende gamer koopt juist wel de duurste videokaarten ;)

iemand die een low-end systeem wil zal geen cgpu (combine ;) ) willen waar je dikke spellen op kan spelen...dus koopt deze iets van "mindere" kwaliteit/snelheid ;)

door de tweakers moeten de fabrikanten juist competitie voeren om het snelste aan te kunnen bieden ;) en het beste uiteraard.
Ik ken zat non-tweakers die wel weten hoe je er een reepje ram bijdrukt of hoe je een videokaart omwisselt.
RAM bijplaatsen en/of een harddisk upgraden of bijplaatsen vind ik gangbare handelingen.

Videokaarten upgraden doe je alleen als je een gamer bent, anders is er zelden een reden om dat te doen.
Toch wel opvallend, daar waar we jarenlang taken van de centrale processor hebben weggenomen (GPU, geluid, physics), gaat AMD dus nu tegen de stroom in zwemmen?

Volgens mij zijn er taken bijgekomen door de jaren heen. winmodem, audio helemaal door CPU. RAID systemen (fake raid) zie: http://linux-raid.osdl.or...e=Main_Page&printable=yes en http://linux-ata.org/faq-sata-raid.html

Een combinatie van GPU en CPU hoeft geen verslechtering te zijn. De bussen kunnen sneller en beter worden. Zijn is slicium ipv op het PCB.

Daarbij de processors en embedded via is voor 75% van alle PC gebruikers snel genoeg. Met de technologie van 2009 zal dit zeker ook het geval zijn voor een gecombineerde processor. En waarom overlappende taken in een FPU en GPU?

Tweakers, Gamers en high end video gebruikers zullen mogelijk aparte hardware nodig hebben.
Misschien kwam dat eerder door technische beperkingen toen (lees: de cpu's waren niet snel genoeg om al die taken te doen). Terwijl nu een CPU 90% van de tijd niks staat te doen en heel wat sneller is.
We zien een zelfde scenario bij client-server. Vroeger waren er domme terminals. Maar omdat de hardware het niet kon trekken is men overgegaan naar client-server (met alle problemen van dien). Nu zien we met Service Oriented Architectures weer een teruggang richting domme terminals.
AMD gaat hier weeral de goede weg in !
Bekijk het zo, de CPU's van de toekomst zijn sneller en doen meer berekeningen (dankzij GPU gedeelte) dan de computers zonder geintegreerde GPU.
Ook kan je een monitor aansluiten zonder een extra GPU kaart erin te steken <-- Groot voordeel !

Wil je echter nog meer performence ? dan sluit je gewoon een extra grafiche kaart aan op de hyper transport lijn, de ingebouwde GPU zal hier zeker bij helpen en zorgen voor extra prestaties.
Na verloop van tijd zal het mogelijk zijn om meerdere CPU/GPU erop te drukken en dat ze dan samen werken via de Hyper Transport link.
Als er hierdoor documentatie voor de GPU uitkomt van dezelfde kwaliteit en strekking als er voor de CPUs al is is dit een goede zaak.
Ik verbaas me over alle negatieve reacties van dit plan. Alle grote systeembouwers zullen hier wel oren naar hebben. Mensen die een Dell, HP of Compaq kopen hebben vaak geen idee wat er uberhaupt in hun PC zit. Aan vervangen en upgraden van PC's komen ze al helemaal niet toe. De Tweakers zitten die dit allemaal wel interessant vinden moeten beseffen dat ze echt een extreem klein deel van de markt zijn. Voor GPU builders een interessant deel (high end) maar in de CPU markt al een stuk minder interessant.

Verder zal er altijd een high end oplossing bestaan aangezien de marges hier het grootst zijn.
Dus ze fuseren de GPU en de CPU, maar om een beetje fatsoenlijk te kunnen gamen, moet men er toch zo'n ''innovatieve coprocessor'' bijkopen?
Als je hierop door denkt, dan is AMD zich een weg aan het banen naar een gamesconsole producent. Immers de mogelijkheden om te upgraden en uit te wisselen worden steeds beperkter. Het wordt steeds meer een geheel, een concept. Waarschijnlijk zul je alle 'innovatieve coprocessors' ook eerst moeten certificeren bij AMD zelf, waar uiteraard een prijskaartje aan vast zit.

Denk dat dit een strategie van AMD is om zo hun eigen markt te creeeren, net zoals Apple en MS (Xbox) gedaan hebben met hun hardware concepten.
Lijkt me slim...
Kijk, jij begrijpt het.

Door de overname van ATI zit Intel nog steeds met vraagtekens in hun hoofd.

Waarschijnlijk heeft AMD gewoon een hele strategie bedacht waarmee ze een ander soort richting opgaan ( zoals destijds met 64 bit ).

Ik denk niet dat het integreren van een GPU op een CPU het waard was om ATI te kopen dus er zit waarschijnlijk veel meer achter.

Er wordt dus meer aandacht geschonken aan graphics tegenwoordig.

En aangezien de toekomst Multiple Cores is hoef je in principe maar 1 core van een GPU op te zetten, dus voor de GPU functionaliteit op je CPU wordt maar 1 GPU core op je CPU gebakken.

Verder zal dit waarschijnlijk ook uitgewerkt worden naar Hypertransport achtige socket uitbreidingen van GPU's.

Als je dit soort technieken combineert met Embedded RAM heb je ook niet veel last meer van te weinig bandbreedte.

Dus in principe is dit de toekomst, alle Tweakers zitten momenteel af te vragen wat er nou allemaal gaat gebeuren in de toekomst van PC land, nou dit dus blijkbaar!

En het klinkt allemaal wel interessant.
Het heeft weinig zin, d.w.z het ligt aan de markt.

De massamarkt is nog steeds de office markt en daar vraagt men niet veel van de grafische mogenlijkhede, ze hoeven daar geen 150 fps te draaien met een spreadsheet.

Ati maakt goede producten ook voor snelle gebruikers maar een snelle chip zul je wel niet snel vinden want die kost te veel voor de massamarkt.

De tweaker wil toch zijn eigen kaart erin kunnen doen en als er over een jaar weer een snellere kaart is dan wil hij die hebben en met een gpu/cpu in in is dat zonde van het geld, zelf als je hem uit kan zetten.

Maar goed de move hoeft niet slecht te zijn en ook intel zal dat tegen die tijd aanbieden.
Als het een cpu wordt die ook goed is in grafische dingen berekenen kun van een 3ghz processor, 1ghz voor grafische doeleinden beruiken.
En anders 100hz voor grafische dingen als er niet gegamed wordt.

Zo hoef je maar één onderdeel te upgraden.
ik vind het juist beter dat er maar 1 chip is dan, ik hoop dan ook dat alle programma's (niet alleen de games) kunnen meegenieten van de overweldigende rekenkracht van de gpu (die geïntegreerd is in de cpu)

denk maar aan video encoding/recoding en hd-decoding
rendering, montages, photoshop...
En hoe complex moet die chip dan wel niet worden om hetzelfde te kunnen presteren als nu de cpu en gpu apart doen???

upgraden van videokaart of cpu kan dan ook niet meer... Nieuwe technologische ontwikkelingen op gpu gebied.....gpu technisch niet meer top... Sorry meneer, maar U zult ook uw cpu mee moeten vervangen....
Sorry hoor, maar de meeste mensen vervangen meestal hun complete PC in 1 keer. En denk eens aan laptops (wat mij juist de doelgroep van deze cgpu's lijkt te zijn)..
Als je nu een mobo met on-board graphics hebt/koopt, moet toch alsnog een co-processor (op een zgn grafische kaart) bijkopen om deftig te kunnen gamen?
Op dat vlak verandert er wss niets :)
ja, wijs!
Terug naar de 80386!
En om 'm 'n beetje te boosten, was er de 80387, in een eigen socket..
Ik zie al een "fusion-dansje" voor me tussen ati en amd net zoals het gaat in de Dragonball-Z saga om 2 leden te fuseren met elkaar om sterker te worden. Volgens mij hebben beide bedrijven dit hier ook van afgeleid...

}>
@the_stickie:
Er zitten dan een VGA en DVI poort op je mobo, een co-processor heb je dan juist niet meer nodig omdat de cpu ook meteen het graphics gedeelte uirekent.
Wat denk je van een hippe physics co-processor?
Pff, gaan dat niet extreem veel modellen worden?

Daar bedoel ik mee:

- low-end CPU
- mid-range CPU
- high-end CPU

- low-end GPU
- mid-range GPU
- high-end GPU

als je die gaat combineren dan heb je al 9 verschillende varianten. Als je dan kijkt hoeveel verschillende CPU's en GPU's je nu hebt dan worden het bij elkaar een hele hoop verschillende combinaties!!

Ik verwacht dan inderdaad zoals meerdere dat dit vooral voor low-end en laptops erg handig gaat worden. ipv GPU op het moederbord wordt het GPU in de processor.
ga jij een low-end cpu met een high-end gpu combineren dan :? lijkt me een beetje bottleneck... das net zoiets als een 750Mhz PIII combineren met een 7950GX2 |:( (als dat überhaupt kan)
Er komt gewoon een Low tot Midrange CPU met een lowrange GPU. Dat zaldus gewoon CPU zijn met integrated GFX ipv Integrated op mobo. Voor de gamers zal er wel een soort van Athlon FX zijn zonder GFX waarbij je gewoon in je PCIe een snelle highend GFX stopt (of meerdere).
Als je bij de laptop een GPU in de processor stopt, dan mogen de systeembouwers hun hoofd wel breken wat betreft de heatsinks. Ik vermoed nl. dat de hitteproductie (flink) zal stijgen.

Ik vind de aanwezige heatsinks voor laptops erg karig & die zijn meestal nog niet eens goed aangesloten (vb. maken maar voor 40% contact met een chip).
De CPU word steeds kleiner, maar de GPU, gezien de aankomende G80 van Nividia, word alleen maar groter.

Maar goed, we kennen de plannen niet, maar ik denk dat ze veel naar het concept van IBM's Cell hebben gekeken, gewoon straks 1 grote plak met diverse CPU en GPU cores.

Op zich kan het een prijsvoordeel zijn, zowel qua produktie als logistiek.

Ik denk niet dat AMD zo maar aan zo een projekt begint, hier zullen ze wel een aardig onderzoek naar hebben gedaan, anders hoef je ook ATi niet over te nemen ;) Ambitieus project, maar het kan een killer worden, en in dat geval zullen ook Intel en Nvidia gedwongen te worden te fuseren. Anderzijds, het kan ze ook de kop kosten, want kies je voor een AMD dan zit je altijd vast aan ATi, wat ook weer tegen ze kan werken.

Moeilijk te oordelen, het word gewoon wachten op de eerste benchmarks. Alles heeft zijn voor en nadelen, hier gaat het om het aantal FPS'en. We zullen zien, zal het geducht volgen deze ontwikkeling.
als je alles zou combineren wel luuk, maar ze gaan dan niet all gpu's met cpu combineren ( bv P3 2.4 Ghz met een gf8800)
zou een beetje dom zijn niet?
dus als je een combi zal kopen zullen die 2 wss goed op elkaar afgestemd zijn. Hierdoor zullen er minder variaties zijn maaar kan wel stabielere systemen to gevolg hebben.

als je dan toch een lijstje wil maken, zou ik denken in de lijn van:

low range cpu/gpu
mid range cpu/gpu

mid range cpu
high range cpu

mid range gpu
high range gpu
Welke idioot gaat er een high-end gpu met een low-end proc combineren? Omgekeerd kan trouwens wel prima. Op die manier krijg je al een stuk minder modellen.
ik ben toch altijd een beetje huiverig voor geintegreerde zaken..

om een vergelijking te trekken met os'en; een modulair systeem is mi. toch altijd beter te overzien, efficienter en 'logischer' dan een volgebouwde kernel (ik geloof dat ik daarmee windows bedoel)

op den duur wil je toch wel een aparte gfx kaart, en dan zit er een mooi stukje techniek niets te doen in je cpu. lijkt me niet dat dat er sneller of duurzamer van wordt (hoe ingewikkelder de cpu, des te meer circuitjes die stuk kunnen gaan)
Dat hoeft dus helemaal niet, je zou dus die GPU op je CPU dus alle physics voor zijn rekening kunnen laten nemen, heb je ook wat aan het feit dat hij zo superdicht tegen je CPU aan zit!

En over die productieprocessen met zoveel verschillende processoren die dan uit zouden komen: Zoals wij AMD kennen zullen ze alles modulair maken, dus alle chips worden later vastgemaakt op 1 verpakking met een mooie heatspreader erop. Dus onderling allemaal apart gebakken chips.
okay dan kan ik er wel mee leven :)
en als nou je gpu stuk gaat; werkt je cpu dan dus nog wel?
NIet als beiden dezelfde zijn..
Dus jij bent ook anti-Linux en Pro-Minix?
Ik zie ineens de mogelijkheden hiervan wel in.
Voor de low-end markt krijg je budgetsystemen.
Aangezien de rekenkracht tegenwoordig groot genoeg is om niet méér nodig te hebben dan 2Ghz, kun je daar een héle mooie, kleine CPU van maken, met een héle mooie, kleine, geïntegreerde GPU (en de huidige 6 mooie, kleine FPU's) :Y)

Voor de hi-end systemen, krijg je een heel ander perspectief: voor die mensen kan het niet grof genoeg, dus wat doe je dan: een quadcore-CPU/GPU!

4x een X64 met aan boord 4x1 de X1950!!
met 4x het stroomverbruik en 4x de hitte. dat ze uitendelijk ook in 1 lose cpu en gpu hadden kunnen steken :Y)
Goh hoe duur gaan processors dan worden en hoe veel moeten die dan gemaakt worden. Stel een fabrikant heeft 10 verschillende cpu's en nog eens 5 verschillende gpu's. Als je dat dan fuseerd hoeveel verschillende processors moet je dan maken om nog aan iedereen z'n behoeftes te kunnen voldoen... ook 50?
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True