Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 102, views: 30.664 •
Bron: The Inquirer, submitter: secret_force

Volgens The Inquirer gaat AMD samen met het onlangs overgenomen ATi een chip maken waarop naast de cpu ook een gpu zit. Dit zou The Inquirer van een aantal hooggeplaatste bronnen die dicht bij AMD en ATi zitten hebben vernomen. Het zou ongeveer achttien maanden duren, voordat deze chip uiteindelijk klaar is. Naar alle waarschijnlijkheid zal de chip gefabriceerd worden met behulp van een 65nm-proces, hoewel The Inquirer een 45nm-proces niet uitsluit. Aangezien AMD tegen het eind van 2007 over wil stappen op een 45nm-proces, zou dit mogelijk kunnen zijn.

Hoewel de integratie van een ATi-gpu op een chip met een AMD-cpu erg voor de hand ligt en zelfs erg interessant is om goedkopere pc's mogelijk te maken, blijft het maar de vraag in hoeverre dit gerucht op waarheid berust. Ten eerste zal een dergelijke gpu-cpu-combinatie ervoor zorgen dat AMD een ander voetje moet introduceren. De videosignalen van de gpu moeten immers ook naar buiten worden gevoerd. In een dergelijk systeem zal later dus geen krachtigere processor zonder gpu kunnen worden geplaatst. Het zal de chip ook onnodig groot maken. Dit betekent dat een afzonderlijke chip veel gevoeliger is voor productiefouten, wat een negatief gevolg heeft voor de opbrengst per wafer en de kostprijs dus niet ten goede komt. Daarnaast zal een dergelijke chip nog altijd een northbridge nodig hebben om de rest van de i/o, waaronder PCI Express-sloten, af te handelen. Er is dus geen echte goede reden te bedenken waarom AMD een gpu met hun cpu's zou willen combineren.

Reacties (102)

Reactiefilter:-1102099+178+217+35
make that "Enkel de tweaker wil elk onderdeel uitzoeken en bij elkaar passen" de rest van de bevolking arm of rijk trekt zich nix aan van hoe een pc er nu eigenlijk uitziet vanbinnen
Wat een onzin. Weer zo een europeaan die denkt te weten wat goed is voor de derde wereldlanden. En dan nog met zo een ondertoon ook. In de derde wereld land zijn er tweakers die op een veel hoger niveau zitten dan jij misschien ooit zal bereiken. Ga toch aub weg man.
"Dit kan inderdaad handig zijn voor 'derde wereld' landen om alles zoveel mogelijk te integreren voor een kleine prijs. "

Je bedoelt die rommel als AMDs Internet Box (zie http://www.amd.com/telmex_pic) waarmee derde wereldlanden in feite een poot word uitgedraait?

Hier kost ie cash 4169 pesos, dat is ca. 300 euro. (of 36 maanden 149 pesos = 388 euro).

Nee, die 50/15 visie van AMD is, in 2015 hebben we 50% van de arme landen een stevige poot uitgetrokken.
Zouden we met z'n allen kunnen stoppen met elke scheet dat die lichtreclamekrant voortproduceert onder "nieuws" of "gerucht" te klasseren?

Of voorzie tenminste een optie waarmee je "nieuws" dat gebaseerd is op The Inq eruit kan filteren?

Dit soort me erger dan die 3 spam mails die in m'n mailbox zitten elke dag!

<div class="b4" style="position: relative; color: black; border: #C6C1B4 1px solid; width: 80%; padding: 5px; font-size: 12px;">Admin-edit:
Commentaar m.b.t. nieuwsposts hoort thuis in het Tweakers.net Frontpage Algemeen Forum.
</div>
Dus wat hier gesuggereerd wordt (namens de Inquirer) is bij voorbaat al niet waar?

Handig :) Dan suggereer ik bij deze dat alles wat jij zegt bij voorbaat niet waar is.

Je wilt op de hoogte blijven van het IT nieuws of niet. Helaas voor jou horen dit soort dingen er dan ook bij.
Tweakers.net mensen zouden voor de gein eens een poll op de FP moeten zetten en de meningen van menig tweaker hieromtrend bekijken.
je hoeft natuurlijk deze site niet te lezen.

Plus als je wel goed leest zie je staan dat het om een GERUCHT gaat.
Zouden we met z'n allen kunnen stoppen met elke scheet dat die lichtreclamekrant voortproduceert onder "nieuws" of "gerucht" te klasseren?
NEE, liever niet! Ok, ze schrijven in de trant van een tabloid, ze steken de kop uit en publiceren geruchten. Het punt is dat ze het nog wel eens bij het rechte eind hebben. [/sarcasme]

Uit het hoofd even een paar grote en kleine scoops:

De Pentium 4 heeft 64-bit extenties?
ATi R580 komt met 16 pixel pipelines en 48 shaders?
nVidia Quad SLI support pas bij Forceware 90 serie?
DDR2-800 support voor AM2 socket?
Xeon Woodcrest verslaat Opteron?
Dell gaat AMD systemen verkopen?
Dell heeft een probleem met ontbrandende laptops?
AMD zou ATi overnemen?

Zoek maar op 'inquirer' en verbaas je over hoe vaak ze het bij het rechte eind hebben voordat er officiële aankondigingen of persberichten geweest zijn.
Het is misschien allemaal wel waar, maar 90% van die dingen was zeer voorspelbaar. Het zijn dus wel degelijk gewon geruchten net als die op tientallen anderen sites verschijnen. Ook dit is weer iets heel voorspelbaars sinds dit idee al bestaat en nu ATI en AMD ook nog samen zijn gegaan.
Als 90% toch voorspelbaar is, waarom start je dan zelf geen geruchtensite? Ach jaloezie ...
Cyrix MediaGX.

Eet smakelijk :9.

Die handel is overigens zoals je kunt lezen overgenomen door AMD en heet nu Geode, dus AMD heeft zoiets al in huis :). De performance was kut trouwens.
Tuurlijk heeft inq. het ook wel eens bij het rechte eind.

Als je maar genoeg roddels rondstrooit, dan is het vanzelf ook wel eens waar. Inquirer vertelt al 10 jaar dat Dell AMD gaat verkopen. Dat was dus 9 maal fout, en nu eenmaal goed.

Idem met de Radeon. Daarover heeft Inq zo ongeveer alle denkbare configuraties als gerucht naar buiten gebracht. Dan wordt het een stuk makkelijker om ook de goede er bij te hebben...
Als je maar genoeg roddels rondstrooit, dan is het vanzelf ook wel eens waar. Inquirer vertelt al 10 jaar dat Dell AMD gaat verkopen.
Ik verdenk Dell er dan ook van dat ze hebben besloten AMD's te gaan voeren om van The Inq af te zijn.... :+
Wat zit je toch te zeiken ? je houdt toch van techniek ?
Awel dan, The Inquirer zit er héél dikwijls juist op, en het is gewoon interesant om te lezen wat de reacties zijn, dit is ook interesant Hardware nieuws !

Nog meer van dat !

/edit
Heb net de reacties gelezen, en nu weet ik er al veel meer van, tis héél interesant.
Alleen al voor dit moet dit nieuws gepost worden.
Het was al bekend dat AMD aan het owerwegen was om een GPU in hun CPUs te integreren, toen ik hoorde dat ze Ati owernamen dagt ik al dat deze de reden was.. grote corporations kopen elkaar niet zomar om voor wat geld te verdienen, maar omdat ze dat nodig hebben.. anders copen ze wel wat participaties. Dit is dus een logische stap, dat het een "gerucht" is komt omdat dit soort niews nooit "officieel" lang van te voren gezegt mag worden, maar als tweaker wil ik graag dat mijn aandagt naar de mogelikhijd gewezen word...
kortom ik ben zeer tevreden over de "geruchten-machine" en goed comentaar dat ik eronder kan lezen van tussen ons, het geeft niet of het wel égt doorgat.
Moet je die spamfilter uitzetten, dan pas heb je iets om over te ergeren....

Ik zie het anders.... AMD heeft dmv. 3D-NOW op de processor een ondersteuning voor de video gemaakt, waarom zou je dan niet de 2 CPU's niet op 1 plak gooien met een directe communicatie tussen die 2.
Blijft het een gerucht als AMD woordvoerders het beweren?

Google eens en kijk wat je allemaal vindt:

http://www.google.com/sea...q=amd+gpu+cpu+combination
De videosignalen van de gpu moeten immers ook naar buiten worden gevoerd.

Wordt hier fysiek naar buiten, naar een monitor toe, bedoeld?
Als het alleen maar over het transport vanaf de cpu bedoeld wordt, dan kun je toch mooi HyperTransport 2 oid gebruiken.
Precies... in het artikel wordt gezegd dat er geen goeie reden is om dit te doen, maar daar ben ik het niet mee eens. Voor goedkope computers lijkt het me een positieve ontwikkeling om richting een 'alles-in-één-chip' te gaan. In het artikel wordt als nadeel genoemd dat je niet meer per onderdeel kunt upgraden, maar ik zie het meer zo; bij een elektrische tandenborstel ga je ook niet onderdeeltjes vervangen, maar koop je gewoon een nieuwe. Ik denk dat dit hetzelfde wordt voor de goedkope computers van de toekomst.
9 van de 10 mensen gaan toch niet upgraden. Hooguit wat geheugen of een grotere schijf. Daarna houdt het op.
En als je wilt upgraden later neem je toch een moederbord met pci-express. Lijkt me makkelijker, die grafische chips onboard zijn meestal toch niet zo sterk en als je dan een evenwaardige pci-express videokaart wilt ben je hooguit 60 euro kwijt.
Een tandenborstel kost geen ¤ 700...
De kostprijs van een dergelijke alles in één CPU kan alleen omlaag als alle onderdelen uit de CPU perfect werken. Nu is het zo dat als in een CPU een deel van de cache niet werkt men deze uitschakelt en het als een lager gekwalificeerde processor verkoopt (bijvoorbeeld Celeron ipv P4).

Als je een GPU in je CPU hebt komen er in één klap een aantal problemen bij. Wat als de CPU perfect is, maar in de GPU een aantal pipelines niet werken of deze helemaal niet functioneert; in dat geval kun je dus niet alleen de GPU, maar ook de CPU weggooien.

Algemeen kun je aannemen dat hoe meer onderdelen er in een CPU moeten zitten hoe groter de kans is dat in minimaal één van die onderdelen een probleem ontstaat. Dat komt de yields en dus de prijs niet ten goede. Je kunt om problemen te voorkomen extra cache, extra pipelines en dergelijke mee bakken zodat de kans groter is dat er voldoende werken. Je zit dan echter wel met het probleem dat daardoor het ontwerp weer groter wordt en dit dus ook de prijs nadelig beïnvloed.
Als je een GPU in je CPU hebt komen er in één klap een aantal problemen bij. Wat als de CPU perfect is, maar in de GPU een aantal pipelines niet werken of deze helemaal niet functioneert; in dat geval kun je dus niet alleen de GPU, maar ook de CPU weggooien.
Nowp ... dezelfde rules blijven bestaan. Als de GPU deel enkel broken pipes heeft, verkoopt men deze als mechien een 1Ghz + 16 pipes, ipv 2Ghz + 24pipes. Of men verkoopt deze mechien als 2Ghz + 16pipes en men maakt meer subcategories aan voor alle cpu-gpu.

Het wordt enkel een beetje ingewikkelder voor AMD om de juiste combinaties te bepalen.

En de Inquirer is soms toch dom... CPU + GPU op één core geen voordeel ... lol ... ze hebben blijkbaar geen idee hoeveel voordeel dat kan opleveren, bij het wegvallen van de trage verbinding tussen CPU & GPU.
En de Inquirer is soms toch dom... CPU + GPU op één core geen voordeel ... lol ... ze hebben blijkbaar geen idee hoeveel voordeel dat kan opleveren, bij het wegvallen van de trage verbinding tussen CPU & GPU.
Of misschien hebben ze dat juist wel.
De verbinding tussen CPU en GPU is meestal helemaal geen bottleneck.
Het gaat meestal om de CPU zelf of de GPU zelf, die de bottleneck zijn, maar zelden de communicatie, bij normale applicaties.
Een GPU is namelijk een accelerator, en is dus ontworpen om de CPU zo veel mogelijk te ontlasten. Dat houdt dus in dat de CPU zo min mogelijk hoeft te doen om graphics te genereren, wat oa inhoudt dat je zo min mogelijk data naar de GPU stuurt, en de GPU zo veel mogelijk zelf laat doen.
Er zit immers niet voor niets zo'n hoop geheugen op een videokaart. Dat zit er niet omdat de CPU constant een hoop data naar de CPU moet sturen, nee dat zit er zodat de CPU het eenmalig stuurt, en de GPU er daarna over kan beschikken.
Het is helemaal niet wenselijk dat de CPU veel data naar de GPU verstuurt, want als de CPU data moet versturen, kan ie niets anders, waardoor het effect van de acceleratie dus weer teniet wordt gedaan. De CPU is immers niet vrij om zich met andere dingen bezig te houden.
Sowieso is een CPU daar niet eens snel genoeg voor. De geheugeninterface van een videokaart heeft veel meer bandbreedte dan die van een CPU. De CPU zou de GPU dus alleen maar vertragen, als de GPU afhankelijk zou worden van de CPU voor data.

Ik beweer dan ook dat de communicatie geen enkel voordeel is.
Dit is redelijk makkelijk te onderbouwen door AGP4x, AGP8x en PCI-e 16x met elkaar te vergelijken.
Bij verder gelijke videokaarten zul je in de meeste gevallen niet of nauwelijks verschil in prestaties zien.
Conclusie: snellere communicatie tussen CPU en GPU is niet interessant.

Het lijkt me dan ook dat AMD geen CPU+GPU-combinaties voor de desktop-markt gaat maken.
Het zou wel interessant kunnen zijn voor bv embedded systemen/telefoons etc.
Vergeet niet dat de AMD cpu's de mem controller op de die hebben. Plak daar de gpu bij, en je zit goed. Waarom hebben gpu's zo veel bandbreedte (agp 8x, pci-x, etc) nodig?

Verder moet je het zo zien: dit zorgt voor een meer geintegreerde oplossing, wat een eenvoudiger mobo impliceert. Dat kan de hogere kosten van deze cpu+gpu al meer dan goedmaken.

Plus dat je niet off-chip hoeft voor communicatie, wat bv ook zeer veel stroom spaart.

Dit wordt geen high-end oplossing, maar kan een heel leuke low of zelfs mid-end oplossing bieden.
Vgl de chips die op de OLPC moeten.
Vergeet niet dat de AMD cpu's de mem controller op de die hebben. Plak daar de gpu bij, en je zit goed.
Nee, want zoals ik al zei, is een memorycontroller van een GPU compleet anders, en heeft veel meer bandbreedte.
Geintegreerde GPUs gebruiken in feite ook de memorycontroller van de CPU (meestal die van de chipset dus), en daardoor komen ze nooit vooruit.
Waarom hebben gpu's zo veel bandbreedte (agp 8x, pci-x, etc) nodig?
Dat hadden ze vroeger nodig, omdat de GPU nog geen GPU was, maar een dom processortje dat een polygon in 2d kon tekenen met een textuurtje erop.
De CPU moest dus de complete geometrie bewerken, en vertex voor vertex naar de GPU pompen. Daar had je een hoop bandbreedte voor nodig.
Maar sinds de opkomst van T&L is dat niet meer het geval (dit was omstreeks het AGP4x-tijdperk). Je uploadt gewoon je vertices, en om ze te tekenen hoef je alleen nog maar de transformatiematrix te versturen.
Veel minder bandbreedte dus.

Het enige probleem dat je nu nog hebt, is een eventueel tekort aan videogeheugen, zodat textures en andere data in- en uitgeswapt moeten worden.
In dat geval is het wel prettig om zoveel mogelijk bandbreedte te hebben.
Maar, een GPU gebruikt DMA om dit zelf te doen. De CPU komt hier niet aan te pas, en dat wil je ook niet. Het zou niet fijn zijn als je CPU stil komt te liggen zodra er een textuurtje geswapt moet worden, omdat de GPU ineens al je bandbreedte steelt.

Verder maakt PCI-e het mogelijk om ook snel het videogeheugen uit te lezen, wat bij oa toepassingen als GPGPU handig is. Dit is een toepassing waar het eventueel wel handig kan zijn om snellere communicatie te hebben tussen CPU en GPU, maar dit is geen technologie die je tegenkomt in normale 3d-applicaties. Dit is momenteel puur een academisch experiment.
De vraag is ook hoe belangrijk die communicatie is, omdat de bottleneck meestal het rekenwerk zal zijn, niet de input/output. Je kunt zelfs redeneren dat als de input/output de bottleneck is, dat het rekenwerk dan dermate triviaal moet zijn, dat je het sneller op de CPU kunt doen, omdat je dan de input/output kunt overslaan.
Verder moet je het zo zien: dit zorgt voor een meer geintegreerde oplossing, wat een eenvoudiger mobo impliceert. Dat kan de hogere kosten van deze cpu+gpu al meer dan goedmaken.
Dat is helemaal niet gezegd. Zoals je uit mijn bovenstaande verhaal kunt concluderen, MOET je een geheugencontroller op je videokaart hebben, en eigenlijk MOET je ook specifiek videogeheugen hebben, omdat standaard-geheugen meer gericht is op latency dan op bandbreedte. Videogeheugen is precies omgekeerd.
In dat geval moet je dus twee memorycontrollers via je socket gaan voeden (waarbij een GPU ook nog eens 256 bit is ipv 128 bit), dus je moet enorm veel pinnen op je socket maken. Ik denk dat dat niet eens mogelijk is. En anders wordt dat zeker heel erg duur.
Plus dat je niet off-chip hoeft voor communicatie, wat bv ook zeer veel stroom spaart.
Maar die communicatie is dus niet zo interessant, zoals ik al heb uitgelegd.
Dit wordt geen high-end oplossing, maar kan een heel leuke low of zelfs mid-end oplossing bieden.
Dat zei ik al, maar dan zijn de regels natuurlijk compleet anders. Voor high-end is het waarschijnlijk onhaalbaar, en voegt het verder ook niets toe qua performance.
computer on chip alles i/o op 1 chip, uiteindelijk lekker goedkoop.
ik neem aan dat hiervoor een speciaal type socket gebruikt moet worden.
en daarbij dus ook weer een special moederbord omdat de grafische poort er gelijk op moet zitten.

en moeten we ook weten of het gewoon standaard videokaartjes worden of ook high-end.
Geloof er nix van allemaal heete lucht van The Inquirer.
Die zijn netzo als het weer enekeer hebben ze gelijk mare meestal is het bagger.
De hoog geplaatste bron zal wel een glazenwasser zijn geweest.

Denk dat ze meer tijd zullen stoppen in en leuk ATI AM2 chipsetje met GPU onboard ofzo voor HD video.
Ze zouden het kunnen doen, maar er is geen reden om het te doen omdat het alleen maar nadelen heeft! Wat een interessante journalistiek hier jongens! :z
de memory controller is al geïntegreerd, over pci express integreren had AMD een jaar geleden al berichten. dus wat moet er nu precies van de northbridge geïntegreerd worden? sata ed kunnen in een southbridge. en als je de gpu het rekenwerk laat doen en dat met een HT3.0 link naar de interface doorgeeft kom je een heel eind. Immers er zijn al zat plannen voor diverse coprocessoren op socket F en 4x4. die geven de data ook door via HT
north-bridge, south-bridge whatever... beiden zijn al lichtelijk achterhaald sinds AMD de geheugencontroller integreert (dat is/was de voornaamste functie van de northbridge). Single chip-oplossingen zijn er al ten overvloede. Punt is dat het momenteel die ene chip is (eigenlijk meer south- dan nothbridge, maar dat terzijde), die oa het video-gedeelte moet afhandelen (PCI, AGP, PCI-e). De vraag is wat het voordeel is die éne functie van de bridge naar de cpu te brengen; je moet immers nog altijd een extra chip toevoegen.
Heeft AMD dé oplossing voor komende bottlenecks of werken ze stiekem aan een pc-op-één-chip, wie zal het zeggen. Momenteel is er slechts een zeer vaag gerucht.
Misschien willen ze niet de hele gpu op de cpu onderbrengen, maar wel sommige delen. Op het moederbord zou dan evt een en ander voorzien kunnen worden om zo'n halve gpu een plek te bieden. Ik ben zelf geen chipdesigner, maar ik kan me voorstellen dat dit enekele voordelen met zich meebrengt op gebied van geheugenacces en gedeelde componenten

Ik zie er overigens wel heil in, op dezelfde markt waar Intel u hoge ogen gooit: corporate. Want daar zal door Vista wel een stijgende vraag naar redelijk performante budgetoplossingen zijn.
Het lijkt me voor ATi-AMD nog een flinke klus om een CPU+GPU met performance op een chip te integreren.
Mijn ervaring met Vista is dat die met Aero aan flink wat van de GPU en de CPU vraagt. Als een van de gedeeltes op de chip dan tekort schiet werkt Vista niet lekker soepel.
Ze kunnen zich echter geen falen permitteren. Als dit niet soepel gaat werken onder Vista dan zal het binnen no-time worden afgeschreven door de systeembouwers en zal het juist geen succes worden in de corporate markt.
duh als shit van 4 jaar oud al perfect vista kan draaien, dan zal een nieuwe geintegreerde oplossing imho prima functioneren op DAT bewuste gebied waar jij het over hebt. Onzin om gelijk weer het 'Oh wat is Vista toch zwaar' verhaal er weer bij te halen. Vista is helemaal niet zwaar, maar zwaarder en heeft alles behalve high-end hardware nodig. Zo'n Intel GPU'tje die laatst werd gepresenteerd kan toch ook prima dat werk verzetten, terwijl dit ook geen gamemonster is, maar hij ondersteunt wel alle features om op zijn minst Vista in volle glorie te draaien. En nogmaals voor de duidelijkheid, je hebt een DX9 compatible videokaart nodig voor AERO en niet DX10. Allemaal ouwe koek imho, ik heb mijn videokaart al zo veel jaren inmiddels, ver voor Vista, maar hij draait Vista (AERO) als een tierelier (met een Sempron van 50 euro). De videokaart kan je tegenwoordig voor rond de 50 euro halen. M.a.w, CPU+GPU combo van 100euro is voldoende voor Vista. Niet zeuren dus, dergelijke chips van AMD (mochten ze ooit verschijnen) hebben never moeite met zulke taken en heeft dus niets te maken met het al dan wel niet slagen van hun product.
Kan je helemaal een eitje bakken als je de warmte van de cpu en gpu gaat combineren op 1 chipje. Maar als 't ze lukt om 't ook nog koel te houden, zal het alleen de boel maar weer kleiner maken.
Vergeet niet dat als dit waar zou zijn, dat het dan vrijwel zeker op 45nm zal worden gedaan. Hierdoor genereert de chip veel minder warmte, en verbruikt dus ook (in verhouding) minder energie.
Maar tegen de tijd dat AMD de 45nm onder de knie heeft, zal (meer) software beter met multicore cpu's overweg kunnen. Dan heeft het meer zin (zowel qua performance als qua engineering effort) om er meer cores op te kwakken.

Vergeet niet dat de CPU en de GPU concurrerende en zeer verschillende (dus moeilijk op één chip efficient te integreren) geheugenbehoeftes hebben.

En zelfs als het aardig lukt moet de markt er nog maar trek in hebben...

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSalaris

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste website van het jaar 2014