Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 102 reacties
Bron: The Inquirer, submitter: secret_force

Volgens The Inquirer gaat AMD samen met het onlangs overgenomen ATi een chip maken waarop naast de cpu ook een gpu zit. Dit zou The Inquirer van een aantal hooggeplaatste bronnen die dicht bij AMD en ATi zitten hebben vernomen. Het zou ongeveer achttien maanden duren, voordat deze chip uiteindelijk klaar is. Naar alle waarschijnlijkheid zal de chip gefabriceerd worden met behulp van een 65nm-proces, hoewel The Inquirer een 45nm-proces niet uitsluit. Aangezien AMD tegen het eind van 2007 over wil stappen op een 45nm-proces, zou dit mogelijk kunnen zijn.

Hoewel de integratie van een ATi-gpu op een chip met een AMD-cpu erg voor de hand ligt en zelfs erg interessant is om goedkopere pc's mogelijk te maken, blijft het maar de vraag in hoeverre dit gerucht op waarheid berust. Ten eerste zal een dergelijke gpu-cpu-combinatie ervoor zorgen dat AMD een ander voetje moet introduceren. De videosignalen van de gpu moeten immers ook naar buiten worden gevoerd. In een dergelijk systeem zal later dus geen krachtigere processor zonder gpu kunnen worden geplaatst. Het zal de chip ook onnodig groot maken. Dit betekent dat een afzonderlijke chip veel gevoeliger is voor productiefouten, wat een negatief gevolg heeft voor de opbrengst per wafer en de kostprijs dus niet ten goede komt. Daarnaast zal een dergelijke chip nog altijd een northbridge nodig hebben om de rest van de i/o, waaronder PCI Express-sloten, af te handelen. Er is dus geen echte goede reden te bedenken waarom AMD een gpu met hun cpu's zou willen combineren.

Reacties (102)

Reactiefilter:-1102099+178+217+35
Moderatie-faq Wijzig weergave
De videosignalen van de gpu moeten immers ook naar buiten worden gevoerd. In een dergelijk systeem zal later dus geen krachtigere processor zonder gpu kunnen worden geplaatst.
Een halve (8 bit) HT3 link heeft genoeg bandbreedte om het videosignaal naar externe RAMDAC's te sturen op het moederbord, en dit voor hogere resoluties dan nu mogelijk is.

Als je GPU een co-processor wordt op de CPU, is het dus ook mogelijk dat de workload kan verdeeld worden over verschillende processoren, met elk hun GPU. Je koopt dan gewoon een processor bij.
Het zal de chip ook onnodig groot maken.
Niet op 45 nm.
Daarnaast zal een dergelijke chip nog altijd een norhtbridge nodig hebben om de rest van de i/o, waaronder PCI Express-sloten, af te handelen. Er is dus geen echte goede reden te bedenken waarom AMD een gpu met hun cpu's zou willen combineren.
Ik zie het probleem niet met de northbridge? Die is er nu ook al, alleen zal er nu heel wat verkeer van de chipset afgeleid worden, omdat de GPU in de CPU geintegreerd zit. Dit wordt dan wel weer gecompenseerd door de videostream.

Het verleden heeft aangetoond dat hoe meer alles geÔntegreerd is, hoe beter het presteert (zowel in performance als in energie efficiŽntie).
Ik kan me anders nog de Cyrix MediaGX processor herinneren, wat zo'n beetje het toppunt was (en nog steeds is) van een geÔntegreerde chip: processor: geheugencontroller (precies, AMD was niet de eerste op dit gebied), pci-controller, video, geluid, maar dat ding presteerde op alle gebieden voor de dooie donder niet... |:(

De MediaGX is over tijd trouwens geŽvolueerd in de Geode, eerst bij National Semiconductors, en later bij AMD.


Volledig geÔntegreerd is echt niet zo fantastisch voor prestaties, dat is wat het verleden aangetoond heeft!
De MediaGX / Geode was geoptimaliseerd op vermogen (=warmte), kostprijs en integratie (dus weinig externe componenten nodig). Niet op performance.
Het verleden heeft aangetoond dat hoe meer alles geÔntegreerd is, hoe beter het presteert (zowel in performance als in energie efficiŽntie).
Idd, na de revolutie van de IC komt nu de IPC (integrated PC)
Wat nou als de gpu hier gebruikt wordt als een GPGPU(General-Purpose Computing on Graphics Processing Units)? Oftewel, in low-end systemen kan de gpgpu gewoon gebruikt worden als gpu, en high-end systemen, met een eigen grafische kaart, gebruiken deze gpgpu om bepaalde instructies uit te kunnen voeren. Als ik me niet vergis gaan bv vector-berekingen veel sneller op een gpu dan een cpu. Hiermee zou AMD een behoorlijke voorsprong kunnen halen in o.a. de wetenschappelijke programma's.
Als ik me niet vergis gaan bv vector-berekingen veel sneller op een gpu dan een cpu.
*Soms* gaan ze sneller.
Er is echter enorme overhead.
Je kunt niet even 1+1 op een GPU berekenen en hopen dat het sneller gaat, om het maar even overdreven simpel aan te geven.
Het werkt alleen als je een groot aantal identieke bewerkingen doet in parallel... Lineaire algebra bijvoorbeeld, op stelsels van niet-triviale grootte.
Hiermee zou AMD een behoorlijke voorsprong kunnen halen in o.a. de wetenschappelijke programma's.
In een aantal programma's misschien, als ze herschreven zijn om gebruik te maken van de GPU. Kip-en-ei verhaal dus, zoals gewoonlijk.

Ik geloof persoonlijk niet zo in GPGPU. Het is voorlopig nog een leuk foefje wat in sommige gevallen werkt... maar zowel de precisie als de flexibilitieit van GPGPU laten op het moment nog flink te wensen over, en zijn daardoor vaak geen alternatief voor een normale CPU.
Daarnaast dus nog het feit dat het herschrijven van algoritmen voor GPGPU-toepassingen tijdrovend en ingewikkeld kan zijn.
Het enige "officiŽle" van AMD daarover, komt van Dirk Meyer:

"He said he expected the graphics processor (GPU) would remain separate in some markets, notably those that require the fastest 3D rendering, such as high end gaming, “for as long as I can see.” But he said in other markets, where you want the lowest cost or the lowest power, it could become a single chip." Bron

"As we look toward ever finer manufacturing geometries, we see the opportunities to integrate CPU [central processing unit] and GPU [graphics processor unit] cores together on a single die to serve some segments," Meyer said. Bron

Al met al met ongeveer even veel info als in het INQ bericht dus.
Jah kijk het ligt allemaal wel voor de hand dat ze voor de low-end markt een geintegreerde oplossing zoeken en daar zullen ze ook vast wel in slagen. Ik zou alleen zo graag eens zien dat wij 'High-end' gamers eindelijk eens van die stomme kaarten afstappen die via een enorme weg moeten communiceren etc. Het idee van twee sockets (GPU/CPU) lijkt mij nog altijd wel wat, soort Xbox moederbord krijg je dan. Pal naast elkaar, goeie communicatie, andere manier van geheugen aanspreken en opzouten met die losse kaartjes in een PC. We willen een andere architectuur, gooi de boel eens om AMD en benader alles op een andere manier dan voorheen! Velen zullen dergelijke speculaties belachelijk vinden, die zitten teveel vastgeroest in het huidige systeem, een systeem dat belachelijk te noemen is tegenwoordig zo'n zooi is het geworden. En performance, HO MAAR, ik kan niet wachten op de dag dat alles anders is. Toen ik een klein kind van 2 jaar oud was zag ook alles er al zo uit, ik begin er moe van te worden, tijd voor een andere aanpaak, totaal nieuwe moederborden... dan wordt knutselen eindelijk weer eens leuk!. Om jaaaren lang hetzelfde soort spul te zien wat telkens maar ietsje sneller wordt schiet ook niet op, er verandert wel iets, maar nooit drastische veranderingen. Oh AMD en ATI, verander de PC wereld voor mij, neem die stap, ga die poging wagen! :z
@ alles hierboven;
wie zegt dat het een chip/proc wordt voor een pc ? Als het lukt zou het een deftig chipje kunnen worden voor telefoontjes/pda's/aparaatjes a la dat ding van microsoft (origami ofzo, ben t ff kwijt)/mp3/video/multimediaspelers/tv's en fantaseer nog maar ff verder. Lijkt mij ook een aardige markt om chipjes voor te leveren (sterker nog, die markt is vele malen groter)
Ik denk dat het hlemaal niet zo'n slecht idee is van A/A om dit te gaan uitwerken, speid hun risico ook aardig...
Dat wou ik net gaan posten. Wanneer het hele systeem op een printplaat zit kan je niks upgraden. en heeft dit idee alleen maar pluspunten.
het maakt het systeem kleiner en omdat het dicht op elkaar zit dus ook sneller. 1 chip dus prima het geheugen delen.
Kan onderdelen delen dus ook zuiniger.
Er is dus geen echte goede reden te bedenken waarom AMD een gpu met hun cpu's zou willen combineren.

Dat meen je toch niet? Wat dacht je van de uber-goedkope barebone's die anderen daarmee zouden kunnen maken. Verder zouden ze goedkopere laptops en dergelijke kunnen produceren.

Alleen voor desktops (en dan vooral performance desktops) is het moeilijker (maar niet onmogelijk) om een goede reden te bedenken waarvoor een gpu/cpu in 1 practisch is.
Juist! Dit is puur gericht op OEM gebruik, goedkoop, single chip, basic grafische ondersteuning (Voor Vista ofzo). Moederborden kunnen weer goedkoper.
Dit is (voor nu) nog niet bedoeld als een X1900 naast je CPU te gooien, dat is wel erg vergezocht.
We praten wel over eind 2007 als het klaar is dus wie weet wat de GPU´s dan zijn en doen...
Als de moederborden hiervan goedkoper gaan worden, zullen de CPU's wel duurder worden hoor ;)

Ik zie maw ook weinig nut boven een in de chipset geintegreerde gfx-processor.
Kan je helemaal een eitje bakken als je de warmte van de cpu en gpu gaat combineren op 1 chipje. Maar als 't ze lukt om 't ook nog koel te houden, zal het alleen de boel maar weer kleiner maken.
Vergeet niet dat als dit waar zou zijn, dat het dan vrijwel zeker op 45nm zal worden gedaan. Hierdoor genereert de chip veel minder warmte, en verbruikt dus ook (in verhouding) minder energie.
Maar tegen de tijd dat AMD de 45nm onder de knie heeft, zal (meer) software beter met multicore cpu's overweg kunnen. Dan heeft het meer zin (zowel qua performance als qua engineering effort) om er meer cores op te kwakken.

Vergeet niet dat de CPU en de GPU concurrerende en zeer verschillende (dus moeilijk op ťťn chip efficient te integreren) geheugenbehoeftes hebben.

En zelfs als het aardig lukt moet de markt er nog maar trek in hebben...
Misschien leuk voor een Via Epia achtig bordje, daarop zit toch alles onboard en kan een in de CPU geintegreerde GPU veel ruimte schelen :)
Ze hebben al een "chipset " met gpu.

Ze kunnen deze natuurlijk nog samendown met de cpu, dat echt alles op ťťn IC zit, maar dit is al geÔntegreerd genoeg als je het mij vraagt. Ander moet er natuurlijk ook weer ťťn groter koelelement op, ipv 2 kleintjes... :Y)
De vraag is allang niet meer of iets kan, de vraag is of de gebruikers het willen. Als dit "nieuwe" fenomeen al 2 jaar op de markt was had je mooi gezeten met je eventuele Vista update, een probleem die ook de moederborden van Intel ondervinden, waarbij men steeds denkt, ach, zo een onboard gpu'tje is meer dan genoeg.

Dan kom je lelijk uit met je eventuele Vista of HD-DVD decodering. En ach, op de werkplek is het allemaal niet nodig zullen veel zeggen, toch blijkt vaak de realiteit anders.

Mijn dochter heeft onlangs stage gelopen bij een webdevelopers buro, middelgrote onderneming en ze mocht heerlijk achter een oude p3-500 werken. De topbak daar was een oude Apple, model 6 jaar geleden ofzo. Maar ze kreeg wel steeds gemeimer te horen dat haar ontwerpen traag gingen, mjah, wat wil je op die oude bakken waar je veel met PhotoShop werkt met maar 512 geheugen erop ?

Het is gewoon niet voor ieder bedrijf weggelegd, software en hardware gaan nu eenmaal niet hand in hand samen. Voor een administratie kantoor zal het nog wel aardig mee kunnen dit soort typen hardware, maar als ik zie dat bedrijven nog steeds borduren op oude bakken en Win98SE vind ik dat toch wel armetierig. Personeel is zo snel als de hardware is, daar zit eventuele winst en dat geldt praktissch tegenwoordig voor vrijwel iedere bedrijfstak.

Ook de vervangbare laptop GPU zie je in haast geen 1 laptop terug, behalve bij de niche merken, terwijl de gebruikers er om schreeuwen en waar, helaas, niet naar geluisterd word !
Beetje onzin imho, degelijke integrated chips worden juist zeer veel gebruikt en zijn prima voor de doelen waarvoor ze gebruikt worden. De afzet is gigantisch, en je wordt er helemaal niet mee opgezadelt. Als een bedrijf zo nodig wil ontwerpen en grafische applicaties wil draaien moeten ze daar een systeem voor aanschaffen wat die taken kan handelen, en dan kom je imho niet met een integrated pc'tje op de proppen, belachelijk. Ik zou in dat bedrijf niet zeuren over de pc's, maar over de bedrijfsvoering, laat ze eens een designbak halen voor het zware werk. Je mag natuurlijk niet verwachten dat een el-cheapo pc die taak wel even kan volbrengen, dan hadden ze daar zelf beter over na moeten denken. Beetje logisch nadenken, niemand gaat er vanuit dat een onboard chipje wel genoeg is, dat is immers nog NOOIT zo geweest. Het is genoeg voor doorsnee taken, maar toch niet om grafisch te designen, dat kan elk kind nog bedenken. Ga naar de bedrijfsleider en leg het voor zou ik zeggen, vaak zijn die figuren helemaal niet op de hoogte, ze mogen imho de boel wel eens vervangen zo te horen. Wel een schande dat ze vervolgens bij uw dochter gaan klagen over trage photoshop files. Tjah, " vind je het gek", en dat zal jij vast ook gedacht hebben. Maar om deze dramatische alledaagse achterstand bij bedrijven nou te koppelen aan de integrated videokaartjes op moederbord vind ik niet helemaal gepast, daar hebben ze immers zelf voor gekozen om te bezuinigen en daar merken ze nu de nadelen van, eigen schuld dikke bult.

Een punt is wel dat zo'n werksituatie niet erg motiveert, ik ken dat maar al te goed en ik erger mij er ook dood aan, ik zou nog zo mijn eigen pc er neer kwakken oid om op z'n minst mijn werk optimaal te kunnen doen. Maar ergens is dit ook weer een erg goed punt van kritiek waar je best eens wat van zou kunnen zeggen, want uiteindelijk heeft het bedrijf daar ook baat bij. En zoals ik al zei, communicatie is tegenwoordig ook een drama, de mensen aan de top weten niet meer wat er op de werkvloer gebeurt, m.a.w, je MOET het ze zelf wel vertellen. Dit alles is een van de redenen dat ik vrijwel nooit werk, en ik haat werk... alles is te chaotisch en niets is optimaal, ik kan daar niet mee overweg, dat aanmodderen is maar nix, ik wil de zaken goed geregeld zien en dat komt zelden voor. Met 'half' spul lever je ook 'half' werk af zeg ik altijd.
Misschien willen ze niet de hele gpu op de cpu onderbrengen, maar wel sommige delen. Op het moederbord zou dan evt een en ander voorzien kunnen worden om zo'n halve gpu een plek te bieden. Ik ben zelf geen chipdesigner, maar ik kan me voorstellen dat dit enekele voordelen met zich meebrengt op gebied van geheugenacces en gedeelde componenten

Ik zie er overigens wel heil in, op dezelfde markt waar Intel u hoge ogen gooit: corporate. Want daar zal door Vista wel een stijgende vraag naar redelijk performante budgetoplossingen zijn.
Het lijkt me voor ATi-AMD nog een flinke klus om een CPU+GPU met performance op een chip te integreren.
Mijn ervaring met Vista is dat die met Aero aan flink wat van de GPU en de CPU vraagt. Als een van de gedeeltes op de chip dan tekort schiet werkt Vista niet lekker soepel.
Ze kunnen zich echter geen falen permitteren. Als dit niet soepel gaat werken onder Vista dan zal het binnen no-time worden afgeschreven door de systeembouwers en zal het juist geen succes worden in de corporate markt.
duh als shit van 4 jaar oud al perfect vista kan draaien, dan zal een nieuwe geintegreerde oplossing imho prima functioneren op DAT bewuste gebied waar jij het over hebt. Onzin om gelijk weer het 'Oh wat is Vista toch zwaar' verhaal er weer bij te halen. Vista is helemaal niet zwaar, maar zwaarder en heeft alles behalve high-end hardware nodig. Zo'n Intel GPU'tje die laatst werd gepresenteerd kan toch ook prima dat werk verzetten, terwijl dit ook geen gamemonster is, maar hij ondersteunt wel alle features om op zijn minst Vista in volle glorie te draaien. En nogmaals voor de duidelijkheid, je hebt een DX9 compatible videokaart nodig voor AERO en niet DX10. Allemaal ouwe koek imho, ik heb mijn videokaart al zo veel jaren inmiddels, ver voor Vista, maar hij draait Vista (AERO) als een tierelier (met een Sempron van 50 euro). De videokaart kan je tegenwoordig voor rond de 50 euro halen. M.a.w, CPU+GPU combo van 100euro is voldoende voor Vista. Niet zeuren dus, dergelijke chips van AMD (mochten ze ooit verschijnen) hebben never moeite met zulke taken en heeft dus niets te maken met het al dan wel niet slagen van hun product.
Die conclusie over lagere yields is ook een beetje kortzichtig - er zijn toch ook plenty Core2 en Core2Duo chips, AMD X2 chips etc die goedkoop zijn en zeer hoge clocksnelheden halen ?

Reden genoeg om aan te nemen dat met de huidge processen zowel Intel als AMD hun fabricage van multi-core processors prima op orde hebben.

De on-board videokaart zal ook vast niet de features en snelheid hebben van de snelste high-end gpu's, en het zal dus waarsch. een bescheidener, kleiner uitgevoerd exemplaar zijn.

Zeker gebruik makend van de korte afstand tot de CPU en eventueel exotische dingen als L3 cache delen (GPU's zijn ook notoire consumeerders van snel geheugen) kan er best nog wel een klein chipje ontworpen worden met een goede performance voor budgetdoeleinden.

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 Edge Apple Watch Project CARS Nest Learning Thermostat Mobiele besturingssystemen

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True