Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

AMD's eerste accelerated processing unit zal naast een aangepaste Athlon II-cpu naar verluidt de beschikking krijgen over een gpu uit de Redwood-serie. Dit is dezelfde videochip die in de Radeon HD 5500- en 5600-kaarten wordt gebruikt.

AMD gaf eerder al informatie vrij over het cpu-gedeelte van Llano, zoals de eerste accelerated processing unit van het Fusion-platform gaat heten. Llano krijgt Athlon II-cores die op enkele punten gewijzigd zijn: zo krijgt elke kern de beschikking over 1MB L2-cache, maar ontbreekt L3-cache. Ook moet de kloksnelheid op 3GHz of hoger komen te liggen en zou het verbruik tussen de 2,5W en 25W per kern moeten uitkomen. Waarschijnlijk zijn deze specificaties niet voldoende om de prestaties van modellen uit Intels komende Sandy Bridge-lijn te evenaren.

Op grafisch vlak liggen de kaarten echter anders. De gpu van Llano zou namelijk de Redwood zijn die ook in Radeon HD 5500- en 5600-kaarten zit, beweert Expreview. Er zou alleen ondersteuning voor ddr3 zijn en de prestaties zouden dan ook dichter in de buurt van de HD 5500 komen te liggen dan van de HD 5600.

Eerder leek het er nog op dat de gpu van Llano 480 streamprocessors krijgt. Het zal dus mogelijk om een aangepaste Redwood-gpu gaan en de kans bestaat dat de prestaties daarom toch hoger liggen dan die van de HD 5500. Desondanks zou Intel flinke vooruitgang met zijn igp's moeten boeken om de Redwood-gpu, die onder andere DirectX 11 ondersteunt, te kunnen bijbenen. Intel claimde begin juni nog dat de geïntegreerde gpu's van het Sandy Bridge-platform zouden kunnen wedijveren met mainstream-gpu's. Onduidelijk is echter wat Intel daarbij onder mainstream verstaat.

Moderatie-faq Wijzig weergave

Reacties (49)

Best wel grappig dat niet iedereen de Fusion plannen van AMD bij rekent want wat ze gaan doen met fusion technologies CPU specific en GPU specific work loads verspreiden onder de twee waar ze alle twee heel goed in zijn zodat er maximale performance kan worden behaald ongeacht dat het modified athlon II cores zijn die misschien iets minder goed/snel zijn dan zeg een intel i3/i5.

Als ze echt de labeling door zetten van AMD fusion zou dit wel eens waar de basic set worden ( voor mensen die de conference hebben gezien ;) ) en dan moet je vooral denken dat deze APU in laptops komt of voor de tweakers in HTPC's daarnaast zodra de Bulldozer is uitgekomen ik kan je wel verzekeren dat ze een APU gaan uitbrengen gebaseerd op die architectuur samen met misschien wel een 6000 serie ati graphic solution er in en dat zal wel lukken aangezien de bulldozer op 32nm word gebakken.

ik heb nog niet gezegd dat de APU ongetwijfeld goedkoop zal zijn, AMD zal je niet in de steek laten :D intel zal je portemonnee leeg trekken :+
Erg mooi. Hoop wel dat je meerdere monitoren tegelijk digitaal kunt aansturen. Dit is toch echt een behoorlijke beperking van de 785G.
Doordat AMD aardig bezig is met EyeFinity, zal het toch minimaal 2 monitoren gaan ondersteuning via de HDMI en DVI uitgangen die vermoedelijk standaard op de backplate komen. Denk dat de markt voor 3 monitoren vanuit moederbord zo laag zullen zijn dat ze om kosten overweging dit niet standaard zullen doen, maar als de CPU+GPU (APU) er ondersteuning voor krijgt (de uitgang moet uiteidelijk ondersteunt worden), dan zal er zeker een moederbord fabrikant er op inspringen.

Verder zie ik vele reacties onderop over nadelen qua warmte, wat je niet moet vergeten is dat deze chip vermoedelijk volledig op 32nm gemaakt zal worden, dus er worden juist gigantische voordelen behaald, aangezien de gehele HD5000 series op 40nm zit.

Verder is de ruimte voor CPU/APU koeling veel gemakkelijker, het plaatsen van een 120mm custom koeler doen de meeste gebruikers met gemak zelf, maar het aanpassen van de videokaart koeling wordt door weinig gebruikers gedaan, en veel ruimte is er vaak ook niet voor.

Nadelen zijn er natuurlijk ook, overklokken zal lastiger worden, omdat de GPU vaak gebruik maakt van dezelfde clock/bus. Echter de Intel Core i3/i5s met dezelfde CPU+GPU structuur lieten al zien dat er toch nog vaak wat ruimte is, en wie weet dan AMD het niet zo nauw koppelt, zodat de CPU apart over te klokken is. Echter ik denk dat vooral de eerste Fusion-APUs nu niet echt bedoeld zijn voor de overklok markt, de ingebouwde GPU kwaliteit is natuurlijk vooral mainstream.

Het is dus wel meteen de ideale HTPC combinatie, met genoeg kracht om de Cheese Slice test goed te doorstaan qua de-interlacing. De HD5450 was ook al snel genoeg nadat AMD betere drivers uitbracht, maar niet voor alle testen, en vaak was een HD5670 nodig om er zeker van te zijn. Ik blijf dus hopen dat de uiteindelijke HTPC kracht gelijkwaardig is aan dit model en niet de HD5500 series zoals in het artikel staat. Dat wordt gewoon afwachten op de uiteindelijke testen.

In ieder geval tilt AMD het PC-platform voor spelletjes naar een veel hoger punt, omdat dit soort CPUs ook vaak in office/internet systemen belanden, wat dan uiteindelijk de minimale systeemeisen ten goede komt. Als de game prestaties dus tussen een HD5550 en HD5670 komen te liggen, dan zitten we zeer dicht tegen de grafische kwaliteiten van de huidige next-gen consoles aan.

DirectX11, OpenGL, OpenCL / DirectCompute, DTS-MA, Dolby-DD worden allemaal keurig ondersteunt (albeit in tragere snelheden natuurlijk dan het aankomende HD6000 geweld, of de huidige topkaarten), dus een gebruiker kan in ieder geval 'zien' waar een spel toe in staat is, voordat ze een zwaardere videokaart aanschaffen.
overklokken zal lastiger worden, omdat de GPU vaak gebruik maakt van dezelfde clock/bus

Welke bus , die zal echt wel locking of discreet zijn , cpu/fsb -cpu/nb htlink
Uit berichten die ik lees blijkt dat een keuze van fabrikanten te zijn: de chipsets van AMD ondersteunen dat gewoon.
Kan iemand mij vertellen waar dit handig voor is? CPU + GPU = veel warmte...

Ik zie dit hooguit in notebooks/htpc's. Tenzij de APU ook andere berekeningen (zoals physics) gaat doen.
Dat kan ik je heel goed uitleggen. Al die technische details als warmte enzo zal AMD wel in orde hebben als dat niet zo is dan geeft dat bij de klant niks anders dan problemen en raakte AMD zijn goede naam kwijt wat faillissement kan betekenen. Ik vertrouw erop dat de warmte afvoer in orde is en zo niet dan zal het lang duren voordat ik weer een AMD product koop. Let maar ook niet op die mensen die zeggen dat het sneller is zonder een redelijke uitleg te geven, alle argumenten die hier worden aangehaald zijn ook van toepassing als je een externe kaart hebt dus dat is ook niet echt logische.

Anyway, het idee van systemen integreren tot een geheel is niet nieuw en het gebeurd al jaren. Waarom doen ze dit dan? Omdat men alles dicht op elkaar wil zetten. En waarom wil men dat? Dat is een goede vraag.

In de natuur gebeuren veel dingen die wij als mens niet kunnen waarnemen en/of niet onder controle hebben. Zo ook elektriciteit. Als je elektriciteit van dichtbij gaat bekijken dan zie je dat het zich heel raar (voor ons meestal zeer nadelig) gedraagt. Je hebt te maken met dingen als impedantie, capacitantie en reactantie maar ook met dingen als (voor dit verhaal veel belangrijker) reflectie en energie transfer.

Als je een willekeurige puls op een lijn zet dan zul je zien dat deze puls zal reflecteren. Op korte afstanden zul je het niet merken maar op lange afstanden wordt het steeds meer en meer duidelijker. Hoe langer de lijn des te meer energie deze reflectie zal bevatten. Het duurt ook even (afhankelijk van de lengte van de kabel) voordat deze reflectie terug komt dus wat het doet is, de volgende puls die jij wilt versturen, verstoren.

Hier een leuke animatie welke dit duidelijk maakt.
http://williamson-labs.com/xmission.htm

Wat je moet doen is dus of met een afsluit weerstand werken om die reflectie puls op te vangen of een accepteren dat die reflectie er is en er rekening mee houden. Als je een afsluit weerstand plaats dan heb je weer te maken met meer warmte, meer energie en meer oppervlakte in je ontwerp dus dat is niet altijd een even goede optie.

Dan heb je nog iets als energie transfer. Als twee signaal lijnen (zullen we zeggen lijn A en lijn B) naast elkaar lopen dan kunnen een van drie dingen gebeuren.

1. Op lijn A staat een puls en op lijn B staat niks. Dan zal een deel van de energie van de puls op lijn A overgedragen worden naar lijn B. Als je lijn lang zat is dan zal er op een gegeven moment zoveel energie worden overgedragen dat het lijkt alsof er een puls op beide lijnen staat.

2. Op lijn A staat een puls en meteen achter die puls staat er op lijn B een andere puls (dus ze staan achter elkaar maar dan op twee lijnen). Dan zal het signaal op lijn A het signaal op lijn B versnellen. Als de lijnen maar lang genoeg zijn dan zal het ene signaal steeds meer en meer naar de andere toe gaan waardoor ze beide tegelijk aankomen.

3. Op lijn A en B staan parallel aan elkaar twee pulsen. Dan zullen die twee pulsen elkaar vertragen.

Het ergste van alles is nog dat dit gedrag sowieso al irritant is maar het wordt erger naarmate je communicatie snelheid hoger wordt. Hoe sneller jij gaat zenden des te meer je signaal wordt verstoord en je timing niet meer klopt. Dus wat je moet doen is:

* Iets zenden
* Even wachten tot de lijn weer goed is
* Kijken of er geen ander signaal is wat weg moet
* Wachten tot dat signaal weg is
* Wachten tot er genoeg afstand is tussen jou en het voorgaande signaal
* Zenden
* Wachten
* etc.

Hoe sneller je gaat communiceren des te hoger het percentage van wachttijden.

Je kan uit het verhaal ook al een beetje opmaken dat het te maken heeft met de lengte van de kabel die je gebruikt, hoe langer je kabel des te erger het wordt. Daarom willen ze alles wat hoge hoeveelheden data moet verwerken (memory controller en GPU zijn perfecte kandidaten) zo dicht mogelijk op elkaar hebben zodat de lengte van de "kabels" die tussen die componenten liggen korter worden en dus je minder last hebt van dit gedrag, plus dat het gedrag vele malen voorspelbaarder wordt waardoor je er rekening mee kan houden.

Nu weet je dus, het is niet alleen sneller. Het is sneller omdat het geheel voorspelbaarder wordt en dat je het daardoor beter op elkaar kan afstemmen zodat je meer data sneller kan versturen.

[Reactie gewijzigd door SizzLorr op 23 juli 2010 11:25]

Zo, da's een lang verhaal... ;)
Anyway, het idee van systemen integreren tot een geheel is niet nieuw en het gebeurd al jaren. Waarom doen ze dit dan? Omdat men alles dicht op elkaar wil zetten. En waarom wil men dat? Dat is een goede vraag.
Antwoord: omdat integratie tot goedkopere producten leidt.
Minder componenten = minder materiaal, , minder distributie en logistiek, minder assemblage, minder transportkosten, minder testen, etc..
Mwah, niet altijd en zeer zeker niet in dit geval. Het enige wat gebeurd is dat de GPU met de CPU wordt gecombineerd. De externe componenten blijven hetzelfde. Investeren in een productielijn, een masker en ontwerp dit zijn allemaal significante kosten en hoe meer structuur op je die hoe duurder het wordt. Wat jij allemaal aankaart is afhankelijk van een zeer grote hoeveelheid omstandigheden dus kun je niet zeggen dat het in elk geval zo is. Wat je wel kan zeggen is dat de performance omhoog gaat zodra je componenten bij elkaar zet vanwege de natuurkundige redenen die ik hierboven heb uitgelegd.
Dat is een beetje onzin. Uiteindelijk heb je gewoon een die voor de CPU en een die voor de GPU. Beide heb je tegenwoordig altijd nodig in een PC. Je moet dus inderdaad in een productielijn investeren voor je nieuwe chip maar zonder integratie zou je moeten investeren in een productielijn voor een nieuwe CPU, een productielijn voor een nieuwe GPU en een productielijn om PCI-E kaartjes in elkaar te zetten. Die laatste 2 kun je dus besparen.

Daarnaast speelt voor Intel ook nog mee dat als er een GPU in de chip zit, klanten veel minder snel een losse GPU zullen kopen. Aangezien intel die kaartjes niet verkoopt verliest intel daar geen omzet, maar door de extra feature (GPU) kan intel wel iets meer rekenen voor zijn CPU + Chipset combinatie. Intel wordt hierdoor dus nog sterker op de markt voor low tot mid range GPUs en dwingt AMD en met name nVidia steeds verder in het kleine performance segment.

Deze economische redenen spelen zeker een rol in dit verhaal. Goedkoper en concurrerender is gewoon een belangrijke reden voor integratie. Dat neemt niet weg dat er ook technische redenen zijn zoals hierboven aangegeven. Maar stellen dat het puur een technisch verhaal is, is onrealistisch in deze kapitalistische wereld.
Nou er zijn veel meer mensen die eingelijk helemaal geen extra video kaart nodig heeft. het voordeel hier van is dat het geheel minder stroom verbruikt en je een performance boost krijgt. dit is omdat hij de main memmory direct van of de socket kan benaderen dus er minder latency aanwezig is.

http://arstechnica.com/hardware/news/2006/11/8250.ars
niet op een zeer kleine process zoals 32nm bijvoorbeeld.
zolang de afvoer van de hitte fatsoenlijk is zal het erg mee vallen.
Daarbij kan de onboard GPU waarschijnlijk straks allerlij symetrische taken uitvoeren wat misschien de workload voor de cpu onder bepaalde omstandigheden aanzienlijk zal besparen
Wanneer Komt er een GPGPGPu die de taken overneemt van de GPGPU ^^.
Zo kunnen we wel door blijven gaan en eindige we weer in de jaren 80 kwa ontwerp alleen dan verbeterd ;) .

Systemen integreren de nadelen:

Meer warmte
single point of faillure
minder lange levensduur
kwalitatief minder
limieten van het productie proces.
Hoogst waarschijnlijk op lange termijn een stuk duurder voor de consument.

Wat gebeurt er met zon systeem als je dat in een kast hebt zitten ergens onder een bureau met weinig airflow, zoals bij een gemiddeld bedrijf waar ze in de winter vaak dan ook nog eens de kachel aan hebben ^^.

Geef mij maar losse onderdelen die ik zelf makkelijk en goedkoop kan vervangen.
zullen we de FPU dan ook maar weer los halen en op een 2de eigen socket zetten? geluid en usb en sata controler weer uit de chipset halen en op hun eigen insteek kaart zetten ect?

en als elektronica kapot gaat is het eigenlijk nooit de chip die daar verantwoordelijk voor is.
dus minder lange levensduur en single point of failure is hier een non-issue.
warmte is ook weinig van belang. cpu is veel gemakkelijker te koelen meestal als de chipset gewoon omdat er meer en beter materiaal voor beschikbaar is.
er is ook gewoon even veel warmte, niet meer. hij is alleen meer geconcentreerd misschien, maar wel op een punt dat er veel beter mee om kan gaan.

kwalitatief minder moet je me even uitleggen want die is hier ook niet van belang.
in tegendeel, het GPU gedeelte is beter en welke IGP dan ook.

limieten van het productie process heb je altijd. het word juist nu gedaan omdat er nu de ruimte voor is vanwege die productie process ontwikkeling.

en duurder voor de consument? waarom?

en je GPGPGPu slaat nergens op.
een GPGPU is een massive paralene processor, en kan dus bepaalde taken vele malen sneller als een CPU dat zou kunnen.
net als een FPU bepaalde taken veel beter en sneller kan doen als een CPU.

[Reactie gewijzigd door Countess op 23 juli 2010 14:14]

Dude, hoe verkeerd kan je het hebben?

Alles wat je opnoemt is juist exact het tegenovergestelde van wat je bereikt met het integreren van de GPU.

Je krijgt juist de voordelen:

- Minder warmte.
- Minder points of failure.
- Langere levensduur (door verminderen van componenten)
- Kwaliteit beter doordat de fabrikant de GPU werkend aflevert en niet de moederbord productent.
- Efficientere productieproces, geen aparte GPU productie meer dus meer productie efficientie.
- Duurder? AMD past zijn prijzen aan aan Intel en zijn eigen verkoopverwachtingen dus geen prijsveranderingen en hoogstwaarschijnlijk zelfs goedkoper voor de consument.

Jij hebt blijkbaar echt geen verstand van PC componenten.

Een CPU wordt altijd gestandaardiseerd verkocht, dus zal die het standaard altijd doen volgens de toegekende TDP waarden.

Dus hoe kom je erbij dat hij te warm zou worden? We leven niet meer in de jaren 80, er zijn tegenwoordig talloze functies op het moederbord en CPU om frequentie en warmte te regelen als het uberhaupt al nodig zou zijn om een dergelijk CPU extra te koelen.

En aangezien er geen communicatie hoeft plaats te vinden tussen CPU en Northbridge zal het stroomverbruik en warmte ontwikkeling juist minder worden.
CPU+GPU = minder lange levensduur doordat het meer energie verbruikt en je hebt 2 onderdelen die stuk kunnen gaan. Voor een simpele meeneem computer, of htpc is dat perfect, ik zou er alleen niet al te veel mee gamen want dan willen de chipjes nog weleens te heet worden. Als nvidia en amd al problemen hebben met normale notebook IGP's door de warmet ontwikkeling, hoe moet dat dan gaan met de CPU+GPU combinatie.
En hoevaak heb jij meegemaakt dat jouw processor stuk ging? Zolang je niet pootjes ombuigt of extreme overclock experimenten doet gaan die dingen nauwelijks kapot. Datzelfde geld waarschijnlijk ook voor de GPU.

Ik zou eerder zeggen dat de combinatie een minder lange levensduur heeft omdat je ze niet onafhankelijk van elkaar kan vervangen, dus bij een upgrade een nieuwe CPU+GPU moet kopen.
Is voor het gros van de gebruikers toch geen bezwaar - de meesten daarvan vervangen toch gewoon de hele PC. Diegenen die zelf videokaarten vervangen, weten meestal wel een beetje waar ze mee bezig zijn en zullen waarschijnlijk al niet voor zo'n APU gaan, maar gewoon een standaard CPU met een losse GPU.
Een CPU bestaat sowieso al uit miljoenen onderdelen, dus dat lijkt me het punt niet. Huidige CPU's bevatten bovendien ook een geheugencontroller, dat wordt ook niet als een kwetsbaarheid gezien.
AMD APU + dedicted GPU = geweldig voor gamen.

dedicated GPU voor de graphics, en het GPU gedeelte van de APU om AI en physics taken van de CPU over te nemen op basis van openCL of direct-compute.

[Reactie gewijzigd door Countess op 23 juli 2010 11:51]

Ook moet de kloksnelheid op 3GHz of hoger komen te liggen en zou het verbruik tussen de 2,5W en 25W per kern moeten uitkomen.
Wow 3 GHz @ 2,5W dat is fantastisch. Zie ik Intel niet zo gauw doen. AMD geeft het MAXIMUM verbruik op. Intel geeft het gemiddelde verbruik. Al is dit nog maar de Llano/Athlon II v2 ze kunnen zeker concurreren met de SandyBridge modellen qua verbruik van de cpu en grafische prestaties.
Dat zal dus waarschijnlijk idle zijn met teruggeklokte cores.
Ik denk dat tweakers daar iets ongelukkig heeft geformuleerd, want dat zijn vrijwel onhaalbare prestaties. Reken maar op een (max) clocksnelheid tussen de X GHz en 3 GHz en een TDP dat afhankelijk van de (max) clocksnelheden van de chips dan meeschaalt tussen 2.5W en 25W per kern.
AMD gaf eerder al informatie vrij over het cpu-gedeelte van Llano, zoals de eerste accelerated processing unit van het Fusion-platform gaat heten. Llano krijgt Athlon II-cores die op enkele punten gewijzigd zijn: zo krijgt elke kern de beschikking over 1MB L2-cache, maar ontbreekt L3-cache.
Kortom het is een Athlon II.
Een Athlon II heeft nooit L3 cache, dat is iets dat uniek is voor de Phenom II.

Dat is heel duidelijk binnen het AMD aanbod. Een Phenom II heeft L3 een Athlon II niet ongeacht welke X* c.q. hoeveel cores. De sempron single core zonder L3.
He, ik wou al precies hetzelfde posten maar zag halverwege het typen jouw tekst al staan.

Best een slechte fout van tweakers. Echter hebben niet alle Athlon 2 processors 1MB cache. Hij is dus gebaseerd op de meest recente Athlon 2 core.

Ik verwacht echter wel dat ze verdere aanpassingen in het ontwerp gemaakt hebben om aan die 2,5W per core te komen.
Inderdaad ja. :P Maar, daar moet wel bij gezegd worden dat ze niet zomaar een Athlon II hebben genomen - er zijn aardig wat tweaks aan te pas gekomen (power gating, naar alle waarschijnlijkheid een betere turbo, kleine update aan de INT en FP execution etc. etc.).
Juist voor een geïntegreerde gpu zou het mij niet zoveel boeien hoe snel dat is. Zolang het maar wat 3D kan en fatsoenlijk HD kan afspelen. Als je wil gamen dan ga je toch voor de losse gpu als de 57xx/58xx of de 47x/48x.
Zo'n gpu is vooral bedoeld voor standaard desktop gebruik, waarbij van belang is dat ie je compiz cq. aero goed weergeeft, hd video goed gaat en zo min mogelijk stroom verbruikt.
Hiervoor voldoen de bestaande intel igp's in de core i3/i5 al, en zal deze het ook wel prima doen.
Wellicht dat je op deze AMD beter zult kunnen gamen, maar voor de meeste mensen die een dergelijke cpu/gpu combo kopen is dat echt van ondergeschikt belang.
De meeste gamers gamen volgens mij op een pc zonder dedicated videokaart. Denk bijvoorbeeld aan de online (flash) games. En de megagroep mensen die graag af en toe een game speelt maar geen geld aan een videokaart gaat uitgeven.
een van de dingen die de APU bijzonder moet gaan maken is GPGPU. zodat je taken van je CPU kunt off-loaden naar je integrated GPU. (AI, physics, encoding ect)
om dat zinvol te maken moet je er wel een redelijke GPU inzetten. en dat heeft AMD hier dan dus ook gedaan.

het idee is dat je een dedicated massive-parallel-co-processor krijgt.
hiermee kan AMD gehakt maken van intel in alle tests/taken waarvoor GPGPU ondersteuning is.

edit: raid 5 algoritme zou er idd ook goed op te doen moeten zijn, en encryptie was idd even vergeten in dit rijtje.

[Reactie gewijzigd door Countess op 24 juli 2010 00:11]

Software RAID en eventueel encryptie lijkt me ook een leuke toepassing, dus zou leuk kunnen worden voor een thuis-servertje ook...
Het ziet er naar uit dat het een solide product wordt, en denk dat hier veel toekomst muziek in zit voor AMD/ATI.
Als ze het goed doen zullen waarschijnlijk een groter aandeel op de markt verwerven.
Een product dat al 5 jaar in ontwikkeling is mag ondertussen ook wel goed zijn ja, als je het mij vraagt ;)

Maar ik ben er zelf ook wel positief over. Als Fusion aan slaat, en Intel/nVidia moeten daarmee concurreren dan verwacht ik een kleine revolutie voor IGP graphics. Gezien een HD 5500 véééél sneller is dan enig andere IGP die we ooit gezien hebben, betekend dit een grote stap voorwaards voor voornamelijk goedkope systemen.

Stel je eens voor dat Fusion als eerste terecht komt in Netbooks, mjammie, dan kan je er spontaan op gaan gamen :)
Blijkbaar totaal geen idee van wat er komt kijken bij een processor/architectuur ontwerpen. Elke nieuwe architectuur is wel meer als 5 jaar in ontwikkeling, maar ze zijn lang niet allemaal even goed.


Ik vraag me wel af hoe dit gaat presteren t.o.v. Intels volgende generatie met verbeterde GPU. Qua pure rekenkracht wint intel waarschijnlijk wel, i3/i5/i7 is al sneller als de Athlon 2, en Sandy Bridge zou weer een flinke verbetering op moeten leveren, vooral AVX lijkt mooi te gaan worden.

AMD zal het wel winnen op het gebied van GPU prestaties, maar de vraag is met hoeveel. De eerste previews van de Sandy Bridge IGP zijn veelbelovend. Ook zal deze een soort SLI/crossfire hebben, elke 2 CPU cores heeft een IGP/GPU, en er komen quadcores met 2 GPU's.

@hieronder - De eerste meldingen van de Nehalam architectuur stammen al uit 2002/2003. Goed, deze was destijds nog niet aangekondigt met onboard IGP, en waarschijnlijk stond dit nog niet eens in de planning. Maar een architectuur ontwikkelen, processors met deze architectuur ontwerpen, architectuur eventueel herzien wegens ontwikkelingen, fabriceren, valideren, wijzigingen aanbrengen, etc kost gewoon jaren.
En we weten ook dat intel al weer een paar jaar bezig is met de opvolger van de Sandy Bridge architectuur, genaamd Haswell, waarvan de eerste processor geplanned stond voor 2012, maar waarschijnlijk pas in 2013 komt (2 Sandy Bridge Tocks als 22nm lastig blijkt te zijn).

Daarnaast is Fusion voor zover ik me kan herinneren ergens in 2006 voor het eerst aangekondigt, en is daar destijds nooit een verwachtingsdatum van 2009 aan gehangen. De eerste meldingen van Bobcat en Bulldozer zijn volgens mij zelfs al ouders als 2006.

[Reactie gewijzigd door knirfie244 op 23 juli 2010 11:36]

Als je zuur wilt doen, dan OK, wat toelichting:
AMD had origineel belooft dat er omstreeks 2008/2009 een Fusion product zou zijn, maar we zullen waarschijnlijk tot 2011 moeten wachten totdat we enigzins presterende hardware gaan zien. Dus AMD heeft sowieso veel meer ontwikkelingtijd nodig gehad dan ze zelf en iedereen anders had verwacht.
Plus, Intel is veel later begonnen met hun integrated CPU/GPU oplossing en die is al een tijdje op de markt. Wat nou 5 jaar ontwikkelingstijd?
intel is weinig meer als een cpu en een gpu die in de zelfde package. daar is weinig extra ontwikkeltijd bij komen kijken.

daarbij is intels gpu flink underpowerd en voor weinig goed behalve beeld op je scherm toveren. bij AMD kan de gpu ook nog echt werk verrichten, zo wel 3d als GPGPU taken.
Het lijkt mij dat dit een poging van AMD is om een plekje in de (3D) HTPC markt te scoren.
Vooral voor mini ITX bordjes lijkt mij dit zeer handig.
AMD heeft al jaren een flinke plek in de HTPC markt sinds de 780G...
Maak daar maar 690G van, al ontbrak DXVA ondersteuning voor het huidige High Definition geweld, was het een goede combinatie voor AM2/AM2+ CPUs met vaak onboard Composite/ComponentHD ondersteuning.

Nu is het allemaal HighDefinition met HDMI, maar er was zeker een markt voor die tijd, waarbij het voormamelijk om DivX/XviD bestanden ging, en CoreAVC een opgeving maakte om HighDefinition via de CPU mogelijk te maken.

Ik draai zelf ook nog steeds op een Gigabyte GA-MA69GM-S2H moederbord met AMD BE-2400 CPU, fanless CPU koeler, en een HD4350 fanless videokaart. Heeft voor mij persoonlijk dan ook nog geen nut om dat systeem te verbeteren omdat mijn projector en TV nog steeds ComponentHD gebruiken en ik dan liever eerst voor een 55" 1080p LCD spaar (zitten nu rond de $1500).
Dan kan je beter een 60 inch Plasma nemen van LG.

Die zit rond de 1300 euro.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True