Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 115 reacties

Een op een Chinese website verschenen roadmap van AMD maakt melding van Komodo-cpu's voor het Corona-consumentenplatform die over tien cores met codenaam Piledriver gaan beschikken. De opvolger van Brazos krijgt quadcores.

Op een vorige roadmap stonden de Komodo-processors van het Corona-platform al, maar toen werd nog gesproken over maximaal acht cores. Op de nieuwe roadmap, gepubliceerd door de Chinese site Zol, staan bovendien meer details. Zo gaan de opvolgers van de Zambezi-processors, oftewel de FX Serie-processors, over een nieuwe generatie Turbo Core beschikken en nemen ze zitting op een FM2-voet. De cpu's worden voor het Corona-platform gecombineerd met de Hudson D4-chipset, die onder andere vier usb 3.0-poorten en acht sata600-interfaces biedt.

De roadmap bevat ook informatie over nieuwe apu's. De Trinity-apu's van het Virgo-platform gaan de huidige Llano-modellen in de A-series opvolgen en over vier Piledriver-cores beschikken. Ook deze chips gaan Turbo Core 3.0 ondersteunen, maar de chipset blijft de AMD A75 en A55. Zowel het Corona- als het Virgo-platform gaat over gpu's van de nieuwe generatie beschikken, maar details hierover geeft AMD niet.

Ten slotte staat het Decca-platform met de Wichita-apu's op de roadmap voor 2012. Dit platform moet het energiezuinige Brazos voor mini-pc's en htpc's opvolgen. Waar Brazos nog apu's met maximaal twee core bevat, komen de Wichita-apu's ook in quadcore-uitvoering op de markt. Het blijven wel Bobcat-cores, net als bij het huidige Brazos, en ook de gpu lijkt dezelfde te blijven. Over de chipset met codenaam Yuba meldt AMD nog niets in de roadmap.

AMD roadmap 2011 2012

Moderatie-faq Wijzig weergave

Reacties (115)

Ik wil niet dom doen ofzo. Maar als je kijkt naar de prestaties die amd's hexacores op dit moment leveren in games die alle cores ook daadwerkelijk ondersteuen dan zul je zien dat amd toch goed op weg is.

Crysis 2 is zo'n game. (ken er eigenlijk ook nog niet meer) Crysis kan 8 threads tegelijk wat te doen geven en als we dan de vergelijking trekken met een i7 2600(k) en een 1100t. dan moet ik amd toch een pluim geven, want dan is de prestatie nagenoeg gelijk aan de i7.
Daarbij is het ook nog zo dat amd niet hetzelfde budget heeft als intel, dus dat zij eerder met meer cores aankomen kan komen omdat ze dat er goedkoper in kunnen zetten en zo meer geld overhouden voor hun bulldozers. Ook moet je nog niet vergeten dat er nog geen benchmarks van de bulldozer zijn.

bron:http://nl.hardware.info/productinfo/vergelijk/3/114150;112595
Ik heb met verbazing hier veel reacties gelezen in de trant van " totaal onnodig, gebruik je nooit etc.
Vooral een site als deze waar toch liefhebbers van innovatie techniek komen , mensen die de grenzen van hun eigen als dan niet krachtige computer vaak tot het uiterste willen pushen gewoon om het fijt dat ze daar plezier in hebben !!
Dat er 10, 20, etc core processors komen waarom niet ? , als veel software daar "nog" geen gebruik van maakt is niet te wijten aan de hardware ontwikkelaars, mischien zouden die eens wat beter moeten overleggen.
Het is gelukkig de mens eigen om te innoveren , ik heb er zeker i vergelijking van velen hier niet heel veel verstand van qua techniek maar wie weet worden firefox,chrome,explor, etc straks zo geschreven dat zij specifiek aan aantal cores hebben toegewezen, of komt er in nieuwe processors een los gedeelte met cores die dat voor zijn rekening neemt.
Toen de eerste straal vliegtuigen hun intrede namen dachten we toch ook niet nou dan landen we toch nog maar 4 keer tussendoor want dat was toch prima.
Of neem de mainframe "watson" van IBM die jeopardy won tegen mensen, de dingen daar mee geleerd vinden toch zijn weg naar de computer die voor ons consumenten bereikbaar zijn.
Dus ik zou hel veel interessanter dat er een discussie ontstond er eventueel mogelijk zou zijn ermee, misschien toepassingen waar nog niet aan is gedacht ik weet het niet....
Ik wil ge´nspireerd worden , geprikkeld door dingen die mogelijk gaan zijn , dat het allemaal overdreven is en overkill etc , daar zit ik persoonlijk niet zo op te wachten en ook totaal oninteressant.
Ik denk dat je tweakers overschat. Ik denk dat je eerder de power users bedoeld. Die taken uitvoeren die reken kract hongerig zijn. En nog steeds meer kunnen gebruiken. Maar dat geld niet voor alle tweakers. Vaak is nieuwe software ook kwa hardware veeleisender.
Maar er komt een punt wanneer voor bepaalde taken ruim voldoende reken kracht beschikbaar is.
Daarbij is er ook dit. De taak moet van het soort zijn dat relatiev genoeg te parralleiseerbaar is. dat meer cores redelijk schalen kwa performance.
en multitasken ja 2 to 4 apps. is redelijk dat haal je al onbewust door achtergrond taken.
Maar 10 tot 20 dat is niet meer reeel.

Nu zijn tweakers een kleinere doel groep. De massa daar gaat het om. Power user zijn daar ook. Zoals photoshoper en home video editors. Die hebben een redelijke bak nodig.
Maar het volk dat voornamelijk websurft chat en email doet. voldoet de PC van 5 jaar geleden nog. Als men niet mee gaat met nieuwe software rage dan zelf voldoet een PC voor een onbepaalde tijd.

Probleem is dat veel programma's SmP te weinig baad bij hebben. En extreem SMP schalende aps zelfs zeldzaam zijn. Games zitten in het midden. Wat inhoud moeilijk maar wel te doen en de performance winst is gevarieerd maar middelmatig.

Ik heb eerder het idee dat de PC industrie aan stallen is. Op gegeven moment voldoet het. En nieuw Osje push ook niet meer zo hard. Veel taken waar nieuwe software van komt zijn zwaarder. Maar hardware over compenseerd dit nu.

Games pushen hardware nu ook marginaal. Denk dat door next gen console release de game ndustrie de PC hardware markt een milde impus gaat geven.
Maar niet zo sterk als het vroeger was
Maak je geen zorgen. Er zijn mensen die toepassingen hebben voor computers met oneindig veel 'cores'.
Nu nog games en programma's die deze cores alllemaal kunnen benutten..
Als je veel multi-tasked, dan kom je zo aan de 10 cores hoor.
Het is niet zo dat 1 programma / game alle 10 cores per se moet benutten...
Als jij tijdens het downloaden / rarren / parren nog effe een film wilt kijken dan gaat het al hard. Ook een beetje video / audio bewerk programma kan moeiteloos met 10 cores overweg.

Voor de standaard gebruiker is 10-cores wel overkill natuurlijk...
ben je nog altijd gelimiteerd aan je bus-snelheid
De meeste processoren hebben tegenwoordig bakken met cache. Dankzij de cache is de vraag naar de beschikbaarheid van de bus minder en kan de data in bursts uitgelezen/weggeschreven worden.
Voor de standaard gebruiker is 10-cores wel overkill natuurlijk...
ROFL! Dat doet me denken aan iets met 640K....

Ik ben benieuwd, alle programmas vreten steeds meer CPU tijd (en geheugen), tegen de tijd dat deze op de markt ingeburgerd zijn hebben we ze wellicht wel echt nodig.
Maar het is niet dat je voor meer tasks ook meer cores nodig hebt (mutitasking deden we op een single core al).
Nee maar het is wel sneller en dus fijner en dus voor sommigen het gewoon waard om een decacore te draaien :)

Het is wel voor consumenten maar heus niet direct voor iedereen weggelegd...

@ADQ ja duh met de tijd wordt het wel gebruikt, hij zegt niet 'nooit' dus waarom je 640k erbij moet halen...
Dat klopt maar de 3 GHz Pentium had ik al in 2005, sindien zijn we niet veel verder gekomen dan 5 GHz (en de normal desktop CPUs ala Intel/AMD zitten meestal onder de 4 GHz). Van 3 GHz naar 5 GHz is nog geen verdubbeling, van 1 core naar 10 cores is tezamen met de iets hogere kloksnelheid een vertienvoudiging. De rek uit de gigahertzen is eruit dus in plaats van in de hoogte te investeren, wordt er nu in de breedte geinvesteerd.
Die bestaan. Veel foto- en videobewerkingssoftware heeft baar bij zoveel mogelijk cores. om maar niet te beginnen over consumenten die op hun pc 3ds-jes renderen. Zeker als je gaat raytracen is 'heel veel cores' beter dan 'gewoon veel cores'.
"Zeker als je gaat raytracen is 'heel veel cores' beter dan 'gewoon veel cores'."
Denk dat GPUGPU meer belangrijker zal worden in de toekomst dan cores voor die zaken.

Mijn 6950 maakt gehakt van mijn i7-860 als ik wat test in luxrender (cpu vs gpu) en het is niet de enige renderengine die naar GPU's kijkt.

Als je kijkt naar Cycles (http://www.youtube.com/watch?v=8bDaRXvXG0E) die voor Blender in ontwikkeling is, dan weet je wel waarom.

[Reactie gewijzigd door simplicidad op 25 juli 2011 13:25]

Helaas kunnen nog lang niet alle programma's en renderers overweg met GPU rendering als cuda oid.
Gezien de ontwikkelingstijd van deze dingen kan ik (of andere mensen met een nut ervoor) zeker nog gebruik maken van deze 10 cores voor renderen voordat GPU rendering massaal gebruikt gaat worden.
Maar zo te lezen gaat al dit geweld uitkomen tegen de tijd dat Win 8 gaat verschijnen. Met daarin een support voor ARMcores onder windows. M.a.w. je kunt dedicated code makkelijker verwerken, wat ervoor zorgt dat je "vertalingen" voor videokaarten minder hard nodig gaat hebben.

Het zou daarom ook al helemaal interessant zijn als deze decacores met diverse instructiesets overweg zouden kunnen. Maar goed, ik verwacht het eigenlijk niet, tenzij AMD opeens Intels Larabee project heeft overgekocht en het in een CPU gaat stoppen.
Haha. :D
Dat zou net zoiets zijn als dat McLaren een downsized Prius motor koopt omdat ie voor hybrid gemaakt is.
Inderdaad. Een GPU kan bepaalde taken veel beter en sneller op zich nemen dan een CPU. 10 Core CPU oogt in mijn optiek overbodig als je het mij vraagt. Met een dual core kan ik nog prima mee overweg; mits maar vlot genoeg. Voor veeleisende applicaties of juist virtualisatie-omgevingen / server niveau is een 10core wellicht een must. Maar voor thuisgebruik (ik doe geen 3d modelling of voer 100 taken tegelijk uit) nog wat overbodig. Los daarvan is het wel innovatief want uiteindelijk gaan we ook richting multicore / rendering.
GPGPU, in de nabije of in de verre toekomst?

In de nabij toekomst zie ik het nog niet zo snel gebeuren.
Zoals Jism hierboven zegt is een GPU voor bepaalde taken veel sneller, maar lang niet voor alle taken en zeker met betrekking tot raytracing/rendering:

Micropolygon displacements at rendertime, is nog lang niet op een vergelijkbaar niveau qua prestaties en mogelijkheden vergeleken met een CPU.
Hetzelfde geldt voor het tracen van incoherent rays. Ook dit gaat nog lang niet zo snel op een GPU als op een CPU.
Incoherent rays, veelal de secondary rays, zorgen juist voor het realisme in een render. Coherent rays, veelal de primary rays, zijn zeer goed te renderen op een GPU, maar deze zijn voor het visuele resultaat van ondergeschikt belang aan de secondary (veelal) incoherent rays.

De instructiesets voor een CPU zijn veel uitgebreider en niet 1:1 te porteren naar een GPU, immers de hardware is fundamenteel verschillend.

Ik ben het dus enigzins met je eens, maar dan wel met de kanttekening dat het niet de nabije toekomst zal zijn.

Overigens zijn 10-cores (of meer) hartstikke nuttig, niet alleen voor renderen, maar ook bijvoorbeeld voor particle sims van water/rook/vuur e.d. welke dus ook incoherent zijn.

[Reactie gewijzigd door TangledUniverse op 25 juli 2011 13:45]

De meeste servertoepassingen kunnen dit al. Voor consumenten is deze decacore echter wat minder handig.
Wat moet je als consument met 10 cores?
Het voelt een beetje als een 100 Gb internet verbinding, alleen bruikbaar voor specifieke gevallen.
Alleen als daardoor de energieconsumptie omlaag gaat, zie ik toegevoegde waarde voor de doorsnee consument.

Wel weer interessant om te zien dat een NDA document gepuliceerd wordt....als dit er niet door de chinese site zelf op gezet is natuurlijk
Nog niets.

Wat moet je met een P4 op 2Ghz werd in P3 tijdperk waarschijnlijk ook gedacht,
Performance "moet" nog steeds omhoog, met extra cores wordt dat bereikt.

Over een jaar of 10 weten we waarom we het nodig hadden.
Behoefte wordt gekweekt, maar er is natuurlijk een breekpunt waarop de toegevoegde waarde dermate afneemt dat het niet loont.
Kijk maar naar de resolutie van een tv/monitor/phone.
Op een gegeven moment slaat de balans de andere kant door en heeft het geen zin meer om nog verder te verhogen.
Precies, zo was het uitbrengen van een Atom een aantal jaren geleden nog ondenkbaar, want dat zou gewoonweg te traag zijn. Nu is de consument al bereid om concessies te doen op prestaties in ruil voor accuduur en energiezuinigheid.

edit @skoozie:
Ik begrijp je punt niet helemaal, want die 10-core is vast niet bedoeld om zuinig te zijn. Mijn punt is dat het acceptabel is tegenwoordig om een 'langzamere' processor te hebben. Ik durf zelfs te beweren dat de hedendaagse PC zal gaan verdwijnen omdat je telefoon dezelfde rekenkracht kan bieden voor wat jij nodig hebt (en de telefoon aan een monitor hangen natuurlijk).

En tja, multicore is tot zekere hoogte nuttig. Maar bijv. 40x500 is toch minder dan 10x2000, puur omdat je software nooit 100% optimaal kan maken voor meerdere cores.

[Reactie gewijzigd door poepkop op 25 juli 2011 21:46]

Maar ook zijn er berekeningen die aantonen dat een lager geklokte (/gevolte) dual-core zuiniger is dan een singlecore. Dat kan je m.i. ook doorschalen naar 10-cores.
natuurlijk vraag ik mij ook af: "Waarom heb ik dat nu nodig?"
maar als je naar het verleden keek kon je je ook afragen waarom je 2 floppy's mee moest nemen. een WP5.0 document nam maar een paar KB in beslag. Toen kwamen er plaatjes en had je zo je schijfje vol. Vervolgens had ik een 128MB USB-stick, die kreeg ik nooit vol in het begin. Nu is hij voor de meeste bestanden al te klein. Ook met internet aansluitingen, waarom zou je vroeger na moeten denken of je 1Mbps nodig had of laat staan 20Mbps terwijl je 56Kbps modem het snelste was wat je kon krijgen. Onze Amiga hadden we van 500K naar 1MB werkgeheugen gemod zodat we meer spelletjes konden spelen!! ik vraag me tegenwoordig niet meer af: "Waarom hebben we dat nodig??" maar: "Wanneer of waarvoor hebben we later zoveel nodig."

edit @poepkop:
het punt is dat de 10 core niet perse zoveel meer vermogen hoeft te vragen om toch sneller te zijn. Je stelling of de GSM de hedendaagse PCs zal vervangen kan je op 2 manieren opvatten, de kracht van de PCs van 2011 zou over een x tijd inderdaad in GSMs te vinden zijn, echter zijn de paketten/taken die we tegen die tijd gebruiken te zwaar om op telefoons te draaien. De spelletjes van de snes en playstation 1 draaien inderdaad op huidige telefoons. De spellen die tegenwoordig uitkomen heb je toch een goede pc/console voor nodig. Ik zie dan ook nooit de GSM de PC vervangen.
Vergeet ook niet dat we pas 7 jaar bezig zijn met meerdere core processoren. Het heeft tijd nodig om dat netjes met elkaar te laten werken. 100% efficiency zullen we misschien nooit halen maar de efficiency zal wel stijgen.

@pkuppens: Dat verhaal ging inderdaad om mobiele telefoons om met het zelfde vermogen toch meer kracht te hebben, door 2 cores lager te klokken. In mobiele telefoons is power consumption het belangrijkst omdat je GSM geacht wordt om van opstaan tot naar bed gaan mee te kunnen, maar je kan dit ook toepassen in zuinige (thuis)servers en tablets/laptops.

[Reactie gewijzigd door skoozie op 26 juli 2011 08:52]

Was dat lager geklokte dual-core berekening verhaal niet van toepassing op mobiele telefoons?

En 10 cores is inderdaad niet onvoorstelbaar.
2 voor virus scannen, en als we voor nu ook eens op 2 verschillende cores data compressie en data encryptie aan mekaar koppelen.
En een paar servertjes voor het een of ander.
Behoefte wordt gekweekt, maar er is natuurlijk een breekpunt waarop de toegevoegde waarde dermate afneemt dat het niet loont.
Kijk maar naar de resolutie van een tv/monitor/phone.
Op een gegeven moment slaat de balans de andere kant door en heeft het geen zin meer om nog verder te verhogen.
Totdat elk gebruik van anti-aliasing overbodig is geworden kunnen de resoluties van monitoren/tv/phones nog omhoog :)
Performance "moet" nog steeds omhoog, met extra cores wordt dat bereikt.
Is dat wel zo? Je software moet die cores wel zinvol kunnen gebruiken, met Windows, je webbrowser, Word, Excel, Outlook (de meeste gebruikte software) is het niet erg zinvol om meer cores te hebben omdat die uit niet te paralleliserende processen bestaan. De performance gaat sneller omhoog als je de klok omhoog doet.
Als je alleen browsed, wat word en wat exel doet dan had je na pentium 4 en windows xp allang af kunnen haken, daarop konden deze taken allemaal prima en vloeiend! :Y)
Och, ik ken mensen die formules met grote datasets draaien in Excel waar hun PC gewoon een half uur mee bezig is, die zitten niet te wachten op een P4.
Toch vind ik het wel lekker dat mijn vrouw niet meer loopt te zeuren over de prestaties van de pc bij het spelen van Farm-nogwattes (ja, alle 100 varianten ervan...), terwijl ik de DVD van mijn kameraad z'n bruiloft op datzelfde ding om aan het zetten ben naar een voor alle familieleden downable formaat en Steam op exact datzelfde moment HL2 opnieuw aan het installeren is...

Elke taak z'n eigen affiniteit (en via andere hdd uiteraard) en mama is tevreden...
Nee, dat werd toen niet gedacht. Sneller was gewoon altijd beter omdat het om singlecores ging die altijd benut werden. De 1GHz barriere was aardig om te doorbreken maar het is niet voor niets dat ze tot 3.8GHz doorgingen.

En performance moet nog steeds omhoog, maar het punt is juist dat meer cores dat niet altijd bereiken omdat de software er niet mee om kan gaan.
het om singlecores ging die altijd benut werden
dus die pentium 4 3.8Ghz van jou destijd liep ook het grootste deel van zijn tijd op 100% ?
Wat moet je met een P4 op 2Ghz werd in P3 tijdperk waarschijnlijk ook gedacht
Niets, de eerste P4's waren langzamer dan de laatste P3's. Pas bij de 2.4GHz. was de P4 significant sneller.

[Reactie gewijzigd door Sir Isaac op 25 juli 2011 16:30]

Als de applicaties er voor geschikt worden gemaakt ben ik als AV student heel blij met 10 cores hoor... lekker renderen over meerdere cores Maya en After Effects
Wat moet je ermee? Nu misschien niks, maar het kan wel en waarom zou je het dus niet doen? Deze decacores zijn zometeen dezelfde prijs als de Quad-cores van nu... waarom zou je geen decacore willen hebben voor dezelfde prijs ook al gebruik je op dit moment misschien maar 6 cores.. of minder... en bovendien dat jij er niks mee kan zegt niet dat je buurman er ook niks mee kan... er is altijd wel iemand die het wel kan gebruiken.

Waarom kunnen autos harder dan de maximale toegestane snelheid? Gewoon omdat het kan. Is er echt toepassing voor? Nee... maar het kan, dus waarom niet.
Was toch wel blij dat, toen die vrachtwagen naast me in de berm belandde en begon te scharen, ik terug kon schakelen naar de 3 en door kon trekken naar 150... _/-\o_
1 citaat: "640K ought to be enough for anybody." [Bill Gates]

edit: Exacte citaat toegevoegd

@ hieronder: je het gelijk, maar het blijft natuurlijk een mooie internet-meme

[Reactie gewijzigd door tes_shavon op 25 juli 2011 13:32]

En dat heeft 'ie nou juist nooit gezegd. Leuk hoe zo'n citaat een eigen leven gaat leiden, ook al heeft de betreffende persoon het nooit gezegd.
De frasering die ik heb staan :
"I can't imagine ever needing more than 640K." - Bill Gates, 1981
Het feit dat hij het ontkent wil natuurlijk nog niet zeggen dat hij het niet heeft gezegd.

Een aantal andere citaten over de toekomst van computers :
"I think there is a world market for as many as 5 computers." - Thomas Watson, head of IBM, 1943.
"There is no need for any individual to have a computer in their home." - Ken Olsen, President of Digital Equipment, 1977.
Computers in the future may weigh no more than 1.5 tons - Popular Mechanics, 1949.
"We will never make a 32-bit operating system" - Bill Gates
Computers in the future may weigh no more than 1.5 tons - Popular Mechanics, 1949.
Die is dus uitgekomen! _/-\o_
AMD moet zich eens meer gaan richten op performance-per-clock dan het aantal cores. iets meer dan 4 cores is volstrekt en compleet nutteloos voor thuisgebruik. maak liever een Quadcore die gehakt maakt van de huidige intel lineup , een die zich echt goed kan meten met de duurdere intel chips.
Tja, ieder zijn keuze. AMD heeft al jaren gekozen om niet met de GHz rage mee te doen, maar gewoon een beter chip-design te maken. Daardoor is hun quad-core al jaren een echte quad-core, en geen Core2 Duo oid.

Vandaar ook dat AMD een 'echte' decacore kan plannen, ipv te moeten denken in 2x core 2 duo + een dual core oid.

AMD kennende, zal er ook wel een goedkope negen-core komen, waarbij de uitval van de decacore alsnog aan consumenten geleverd kan worden (en er dus 1 core uit staat, want die voldeed niet).

Overigens zou ik niet weten waarom meer dan vier cores niet nuttig zou zijn voor thuisgebruik. Dat is helemaal afhankelijk van hoe goed programma's met multi-core om kunnen gaan. Bovendien is meer cores de enige manier nog om processoren krachtiger te krijgen, en kan er tevens goed energie-beheer op los gelaten worden (uitschakelen cores als ze niet nodig zijn).
Bovendien is meer cores de enige manier nog om processoren krachtiger te krijgen, en kan er tevens goed energie-beheer op los gelaten worden (uitschakelen cores als ze niet nodig zijn).
Vandaar dat er zoveel aandacht wordt geschonken aan "turbo" systemen om toepassingen waarbij maar weinig cores gebruikt worden deze cores hoger te klokken. Veel te kort door de bocht dus. Meer cores zullen bepaalde taken nˇˇit sneller maken omdat ze niet geparalleliseerd kunnen worden.
AMD kennende, zal er ook wel een goedkope negen-core komen, waarbij de uitval van de decacore alsnog aan consumenten geleverd kan worden (en er dus 1 core uit staat, want die voldeed niet).
Dit zal dus niet meer gebeuren. Piledriver is de evolutie van Bulldozer en de hele architectuur is feitelijk zo opgebouwd dat een oneven aantal cores niet meer mogelijk is. Daarom komen er voor bulldozer ook quad-, hexa- en octacores, maar niks daar tussenin.

Om het helemaal in detail uit te leggen gaat me niet lukken, want er zijn voor mij ook nog wat onduidelijkheden, (los van het feit dat er een hoop is wat betreft processorontwerp wat mij compleet boven mijn pet gaat) maar het hele principe van bulldozer is een processorontwerp wat de sterke kanten van x86 processoren benadrukt. Dat levert dus modules op met 2 integercores, maar een gedeelde fetch en decode op. Bij bulldozer kijk je dus ook niet zozeer naar uitgeschakelde cores, maar uitgeschakelde modules. Het zou dus bijvoorbeeld wel mogelijk zijn dat er van een hexacore een octacore gemaakt kan worden, in theorie. Of dat in de praktijk ook blijkt te werken, is nog maar de vraag.

[Reactie gewijzigd door Vengeful op 25 juli 2011 14:24]

Ehh... Jouw verhaal is natuurlijk heel erg leuk, maar "beter chip design" en "echte quad-core" is natuurlijk een beetje onzin. AMD chips zijn niet beter. niet op technologisch gebied en niet op snelheid. stabiliteit en compatabiliteit ok , maar daar houdt het gewoon op.

Wat heb je aan een "echte" native quadcore als je gewoon verslagen wordt door een "niet" echte quadcore? iets wat we zagen gebeuren in het begin van de quad's, leuk dat AMD toen een "echte" quadcore had, maar kon toch niet op tegen de intel's.

Je geeft aan dat je niet inziet waarom 4+ cores niet nuttig zouden zijn, en dat dit de enige manier is om processors krachtiger te maken.

Hier ben ik het niet mee eens. de enige echte manier om cpu's sneller te maken dan ze nu zijn , is af te stappen van de huidige architectuur. dat geld voor Intel en voor AMD, dÓt is wat de processor development tegenhoudt , en daar komt ook nog eens bij dat er maar weinig programma's zijn die Ŕcht goed gebruik maken van meerdere cores, en nog een kleiner percentage daarvan bij de thuisgebruiker draait. uitzonderingen daargelaten.
Denk je niet dat AMD dat ook niet graag zou willen, alleen de winst van Intel is al meer dan de totale omzet van AMD (3,17miljard vs 1,57 miljard kw1 2011), amd heeft het geld gewoon niet om die ontwikkeling te doen, dus dan maar meer cores om in de buurt te komen van de prestaties, iets wat gezien de kosten van de cpu goed werkt. Zolang de cpu goedkoper te maken is en prijs lager is dan een vergelijkbare cpu van Intel blijft het een interresante cpu.

[Reactie gewijzigd door MeNTaL_TO op 25 juli 2011 15:43]

We zijn in de afgelopen jaren van Single Core naar Deca Cores (10) gegaan. Hierbij heb ik zelf de kloksnelheid jaren stabiel zien zijn. Deze steeg in de afgelopen 13 jaar van 300mhz naar 3800mhz. Echter zie ik dat we nu al een geruime tijd stilstaan met die snelheid en nu steeds meer cores erbij krijgen. Is de toekomst van de snelheid nu meer dat we meerdere threads op een bepaalde snelheid gooien en niet meer dat we de snelheid omhoog gooien?
niet alleen meer cores, maar ook meer instructies per clocktick.
Op gegeven moment zit je op een bepaald punt, waarbij je tegen fysieke limitaties zit.

Zie het als een emmer water die je leeggooit in een kamer voor rommel... Daar waar het niet over of doorheen kan, gaat het erlangs..
If you cant go straight.. go sideways ;)
Het probleem is dat bij het verhogen van de kloksnelheid, het verbruik exponentieel stijgt, dit valt misschien wel te optimaliseren maar waarschijnlijk zitten we nu bijna aan onze limiet met de huidige materialen en technieken voor de productie van CPU's. Het combineren van meerdere cores heeft als voordeel dat het energieverbruik veel lager is terwijl de rekenkracht even groot is. Nadeel is natuurlijk dat de meeste programma's hier nog weinig gebruik van kunnen maken (multithreading), maar dit probleem zal volgens mij uiteindelijk wel verdwijnen.

[Reactie gewijzigd door asx245 op 25 juli 2011 20:42]

Hoop dat er een tefal pan op past, anders vind ik het maar overkill om thuis 10 cores te hebben.
Moeten maar weer eens focus op performance gaan zetten in plaats van multi of power reduction. Allemaal leuk en aardig, maar zo koopt niemand iets van AMD als het dik onder Intel blijft presteren.
Ja, maar wie zegt dat deze chip zoveel verstookt waarmee je je eitjes goed kunt bakken? En ga je de heletijd dat je achter je pc zit zitten bakken en computeren tegelijk? Lijkt me geen gezonde combinatie ;)

Ik vraag me af wat voor prestatie verbetering die turbo core 3.0 brengt.
Want clock voor clock zitten ze nog aardig ver achter op intel.
Hoop dat er een tefal pan op past, anders vind ik het maar overkill om thuis 10 cores te hebben.
Moeten maar weer eens focus op performance gaan zetten in plaats van multi of power reduction. Allemaal leuk en aardig, maar zo koopt niemand iets van AMD als het dik onder Intel blijft presteren.
Anders lees je je eens in zodat je niet zo'n onzin uitkraamt. :/
Wat moet je (als consument) met 10 cores als 90% van alle consumentenapplicaties net 2 en soms 4 cores kunnen benutten?
@donny007
Inderdaad, vrijwel geen enkele consumentenapplicatie maakt gebruik van zoveel cores. In mijn optiek een totaal zinloos product. Die paar lieden die thuis zitten te renderen, daar kan Amd nooit van in leven blijven. Meer is niet altijd beter, en in dit geval geld dit dan ook.

Uiteraard praten we bij enterprise omgevingen over heel andere zaken, echter, daar is deze cpu niet voor bedoeld. In die wereld is de Intel Nehalem 6core redelijk favoriet.
Word ed. heeft ook geen multicore nodig en heel veel andere "consumentenapplicaties" hebben ook geen 4Ghz of meer nodig en/of die 2 threads per clock (is niet ook voor alles te gebruiken!) omdat het verschil tussen de cpu's niet of nauwelijks merkbaar is!
@donny007:
Wat moet je met een i7 6-core als consument? Consument is een breed woord.
Heten deze dan decacores? Of zijn het gewoon twee quadcores en een dualcore?
kzie dat ze ook over gaan op een nieuw socket (1 socket voor alles) aangezien de Corona 10 Core op Socket FM2 zit en Virgo ook.

Dus AM3+ word uitgefaseerd dan? :p naja het is een leak dus we weten het niet zeker. we zien wel
FM1 en FM2 zijn niet compatible met AM3 etc, omdat dit APU's zijn. met ingebouwde videomodule.

AM3 zal op zichzelf denk ik nog wel blijven bestaan met AM4 etc. Omdat dat simpelweg CPU's zijn, wat voor de die-hard gamer veel interessanter is. Die-Hard Gamers kopen toch wel een enorme videokaart.

Zelf ben ik superbenieuwd naar de grafische prestaties van deze APU's. Met een beetje mazzel kan ik prima gamen zonder extra GPU!

[Reactie gewijzigd door maartenverbaan op 25 juli 2011 14:24]

Die-hard gamers willen juist een APU. Hun videokaart heeft het al zwaar genoeg op 2048*1536, dan wil je de particle physics op het GPGPU deel van je APU doen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True