Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 111 reacties, 23.181 views •

AMD heeft bevestigd dat het met een hexacore-processor komt. Thuban, zoals de codenaam van het model luidt, zal volgens de fabrikant compatibel zijn met AM2+- en AM3-moederborden.

Thuban zal op 45nm worden gebakken, zes cores op een enkele die bieden en een geïntegreerde ddr3-controller hebben. Specificaties weigerde AMD nog te noemen, maar aangezien het om een afgeleide van de Opteron met zes cores gaat, kan gesteld worden dat het waarschijnlijk om een chip van 346mm2 met 904 miljoen transistors gaat. MaximumPC geeft ter vergelijking de omvang van de Intel Core i7 975 Extreme Edition, die een die van 262mm2 heeft en 731 miljoen transistors. De Phenom  II X4 965 Black Edition van AMD heeft 758 miljoen transistors en meet 258mm2.

De verwachting is daarnaast dat de hexacore 3MB L2-cache en 6MB L3-cache krijgt en dat deze als Phenom II X6 op de markt gebracht gaat worden. De bevestiging komt een dag voor de start van het Intel Developer Forum, waarop Intel meestal een groot aantal producten en nieuwe technologieën aankondigt. Thuban zal volgend jaar de concurrentie met Intels Gulftown aangaan. Die hexacore wordt op 32nm gebakken en kan dankzij HyperThreading aan twaalf draadjes tegelijk werken. Gulftown zal waarschijnlijk als Core i9 op de markt komen en deze chip moet gecombineerd worden met een LGA1366-socket.

AMD Opteron Istanbul

Reacties (111)

Reactiefilter:-11110110+170+22+30
Moderatie-faq Wijzig weergave
Na megahertz en megapixel hebben we er een martketingwapen bij?!? Ik zie het al voor me: "Meneertje, u heeft nog een duo-core thuis? U heeft toch zeker minimaal 4 cores nodig als u een beetje snel wilt downloaden en emailen... Nou heb ik net een mooi modelletje binnen...bla-die-bla-die-blah"

Het is nu al zo dat bij de gemiddelde consument 1 of meerdere cores bijna continue uit zn neus staat te peuteren. OK, dit komt ook mede door de software maar je moet wel erg gek lopen wil een consument vaak meer dan 2 rekenintensieve processen hebben lopen.

Als je niet zoiets specifieks als rendering, simulatie of nieuwe games speelt (zijn er al games die uberhaupt quad-core goed benutten?), krijg je nooit alle 6 de cores tegelijk aan het werk.

Hele mooie ontwikkeling dus maar zonder goed software en toepassingen heb je er niks aan. Nou het IE 8 en de nieuwst Chrome wel zoiets als 1 proces per tabblad (oftewel: als je 12 tabs open hebt staan, kunnen ze allemaal een eigen hardware-thread krijgen) maar ik denk dat browsers nou niet de plek is waar zo veel processor kracht voor nodig is (ook niet voor AIR of FX applicaties)
browserbased gamen? gamen an sich? photoshoppen? videoeditting? winrar? multitasken? Het is vooral dat software niet geoptimaliseerd is voor multicore systemen of meer dan 2 cores maar er is genoeg wat je oude pc kan vertragen.

ik denk dat er wel genoeg mensen achter hun oude amd pctje zitten en zitten te zuchten en te steunen dat een x aantal IE6/7 pagina's + msn + norton + utorrent + word/excell + allerhande kleine driver programma's en mal/spyware op je oude athlon niet echt soepeltjes meer lopen.
Laat staan als je een van de bovenstaande taken gaat doen.
even voor de duidelijkheid msn was vroeger een mb of 2 , nu zit het programma op 56,mb alleen voor de messenger. het is met 270% gegroeid qua grootte, zo ook het gebruik van de cpu. Dit geld ook voor office, IE in mindere mate en allerhande programma's. Photoshop is ook zo enorm geworden.
Dus nee jou verhaal gaat lang niet helemaal op en daarbij is er ook gewoon iets als meegaan in de tijd. klaar.
Dit is dus absolute onzin. Ik bewerk regelmatig mijn foto's (diverse programma's inclusief een relationele database die tegelijkertijd draaien) waarbij ik download op de achtergrond (inclusief parren en rarren). Hierbij zit mijn E6600 dual core regelmatig aan de 100%, loop ik tegen de 2 GB geheugen grens aan en ondervind ik ook bottlenecks op I/O vlak dus, meer cores, meer geheugen en betere opslag is niet overbodig. Hangt allemaal af wat je doet uiteraard.
voor veel toepassingen staat een '1' cpu nu al uit zijn neus te eten ...

Nu snap ik dat, als er meer power beschikbaar is, er meer gebruik van gaat worden.

Toch snap ik het niet zo goed. Infeite zouden 6 cpu's veel meer dataoverdracht kunnen generen. Echter, dan moet de rest daarmee uit de voeten kunnen. Ik geloof dat als je zo'n 6 of 8 core machine hebt, je toch nog steeds op een trage harddisk moet wachten...

Hoe zijn alle andere bussen ingericht? Heeft het zin om met meerdere cores richting je videokaart te praten? Moeten de cores wachten om in het geheugen te schrijven? Waar zit nu de bottleneck?
Een bekende uitspraak uit de wereld van de computernetwerken is "Het is eenvoudig/goedkoop om meer bandbreedte te kopen, het is veel lastiger/duurder om lagere latency te kopen." (als ik me goed herinner van Tanenbaum, geen exacte quote trouwens).
Iets soortgelijks heb je met CPUs: extra processing kracht (meer "brute force" [=~ bandbreedte]) is makkelijk te regelen: meer cores per CPU (of meer CPUs per mobo) bij elkaar plempen. Dit helpt echter niks (als in: letterlijk niks, 0%, 0 cycles) als je maar één thread hebt die iets staat te doen; dan moet je nog net zolang wachten tot het klaar is [=~ latency]. Toegegeven, de meeste taken kun je óf splitsen over meerdere threads (en dus over meerdere cores), óf ze zijn zo simpel dat ze toch "meteen" klaar zijn.

Uiteindelijk is de grap dat de meeste cores toch 99% van de tijd staan te niksen (uitzonderingen: gamen, RARen en een paar andere dingen die je wel regelmatig maar niet super vaak doet). Voor de low-end user (Internet surfen, MSNen, briefje tikken in Word, mailen, af en toe een (Flash-)spelletje) zou twee, hooguit drie, cores gewoon voldoende moeten zijn. Maar ja, "hexacore" klinkt nou eenmaal veel hipper dan "dualcore" (dat klinkt ook zo vreselijk 2008, vind je niet?) en veel verkopers zijn niet te beroerd om mensen duurdere producten (met voor de verkoper een hogere marge) aan te smeren die ze eigenlijk niet nodig hebben.
Dus ja, over een tijdje (2030 ofzo??) gaan we ruzieën of een kilocore 1000 of 1024 cores dient te hebben, terwijl niemand er echt bij stilstaat dat die goeie ouwe 8-core CPUs eigenlijk nog prima zouden voldoen als programmeurs niet zo gruwelijk lui waren en geen zin meer hebben in het schrijven van efficiënte code (ter vergelijking: kijk eens wat er vroeger met 8 MB geheugen werd gedaan en leg me uit waarom we nu op het punt staan om letterlijk duizend keer zoveel RAM nodig te hebben).
Vroeger gebruikten we veel eenvoudigere applicaties. Het zwaarste was bv een foto openen in VGA resolutie. Nu maken we vele thumbnails per seconde van 10+ megapixel fotos. We coderen DVD's in enkele minuten (DVD maker maakt overigens gebruik van meerdere cores :)) Naarmate we meer computerkracht krijgen veranderen ook de toepassingen, dus hoe meer cores hoe leuker het wordt. Denk bv aan games die niet meer van films te onderscheiden zijn of een desktop in 3D!
zouden voldoen als programmeurs niet zo gruwelijk lui waren en geen zin meer hebben in het schrijven van efficiënte code (ter vergelijking: kijk eens wat er vroeger met 8 MB geheugen werd gedaan en leg me uit waarom we nu op het punt staan om letterlijk duizend keer zoveel RAM nodig te hebben).
Het ontwikkelen van software bestaat niet alleen uit het schrijven van code. Wanneer men van meer CPU power gebruik kan maken en dus minder efficiënt hoeft te programmeren, ik spreek liever van optimaliseren., bespaard men dus op de kosten. Men kan deze besparing doorberekenen naar de klant of men heeft mer budget om te steken in andere delen van de software zoals disign, gebruikersgemakt etc etc.
Lijkt erop dat AMD dan toch beetje na aan het hinken is als je de specs ziet, zal nog wel enkele jaren duren eer ze terug kans maken om Intel het vuur aan de schenen te leggen.
Terwijl ik nog niet al te lang geleden dacht dat ze volgend jaar al terug bij zouden zijn door de samenwerking met IBM.
Ik vind het opzich wel een goeie zet... maar zinvol... neej.... de huidige quad-cores worden nog niet eens ten volle benut....

In server omgevingen en dergelijk kan ik het me voorstellen...

de andere zet van AMD betreft de budget quad core.... tjsa... das gewoon geniaal... dat ze voor zo weinig een quad core kunnen maken die prima mee kan lopen met de rest... Goed bezig AMD....
Ik vind het opzich wel een goeie zet... maar zinvol... neej.... de huidige quad-cores worden nog niet eens ten volle benut....
Ik heb daar een hele simpele oplossing voor:

Ze WEL gebruiken! |:(

Zo moeilijk is het nu ook weer niet. Een groepje programmeurs houdt graag de mythe in leven dat parallel programmeren allemaal zo moeilijk is en dat het niet kan en dat het moeilijk is en dat het geen winst oplevert en dat het moeilijk is (of had ik dat al gezegt) en dat het niet kan en dat het...

Met moderne concurrency tools is het allemaal niet zo moeilijk, zie b.v. de Java concurent package of lees eens over Apple's GCD: http://arstechnica.com/ap...9/08/mac-os-x-10-6.ars/12 en http://arstechnica.com/ap...9/08/mac-os-x-10-6.ars/13

Vooral code sample'tje op laatste link is leuk om te lezen.
Grappig dat je dat zegt "Zo moeilijk is het nu ook weer niet"; toevallig heb ik hier een discussie met iemand die zelf programmeert:
reviews: Athlon II X4 620: de nieuwe budgetkoning

Hij zegt eigenlijk precies hetzelfde als wat OMX2000 zegt; de huidige programmeertalen zijn niet toereikend om efficient multthreaded software te schrijven. Hij zegt ook dat binnen drie jaar die software er wel is, er word har daan gewerkt. Wel, in hoeverre die software idd verbetering laat zien moeten we maar afwachten. Hijzelf gelooft er heilig in. Zelf denk ik, mede door het lezen van verschillende developers artikelen; dat het nog een hele noot is om te kraken en er vele hindernissen te nemen zijn.

Verder kun je je afvragen: Hoeveel cores heb ik nodig?
Ben ervan overtuigt dat voor ruim 80% van de computeraars eigenlijk niet meer dan twee meer dan voldoende is. Moet er niet aan denken dat we straks allemaal met megacores stroomslurpende Pc-bakken thuis zitten; die vooral duimen aan het draaien zijn.

[Reactie gewijzigd door Madrox op 22 september 2009 23:10]

Grappig dat je dat zegt "Zo moeilijk is het nu ook weer niet"; toevallig heb ik hier een discussie met iemand die zelf programmeert:
Voor als het nog niet helemaal duidelijk was: ik ben ook iemand die "zelf programmeert". Sterker nog, ik leid een team van developers als development lead en train en coach de mensen dan ook in... parallel programmeren.
Moet er niet aan denken dat we straks allemaal met megacores stroomslurpende Pc-bakken thuis zitten; die vooral duimen aan het draaien zijn.
De zoveelste variatie op het stokoude argument '100Mhz is zo snel, dat zullen we wel nooit gebruiken', en de bekende '640Kb ought to be enough'.

Maar ja, dan blijf jij toch lekker je 1Mhz C64 gebruiken joh. Wij (als developers) zoeken wel naar nieuwe innovatieve toepassingen om alle kracht van een computer volledig te gebruiken.
Gebeurde dat maar...

Wat je tegenwoordig steeds meer ziet, is dat mensen lui zijn of steeds hogere talen gaan gebruiken, zodat alle winst, verdwijnt ergens. PC's zijn nu 20x zo snel als enkele jaren terug en ze lijken 20x trager. Dat ze meer doen en kunnen, neemt niet weg dat het niet helemaal loopt zoals je zou verwachten. En zelfs de experts zijn het hierin over eens.

Hoe dat komt? Heb je wel is naar de kwaliteit van je gemiddelde HBO opleiding gekeken? Het gaat heel erg richting Java en C#; grappige talen, maar slepen een hoop overhead met zich mee. Daar gaat je snelheids winst. En die nieuwe budge X4 van AMD moet Windows 7 gaan voeden ... why? Het is een OS, waarom heb je een quad core voor een OS nodig? Omdat het lomp log en traag is, dus gooien we er meer resources achter, dan loopt het weer een beetje.
Pc's zijn maar marginaal sneller geworden weet je, de beperking blijft namelijk de HDD. Koop een SSD en je zal je snelheidswinst halen die onderdelen zoals de cpu, geheugen en grafische kaart over de jaren mogelijk hebben gemaakt.
hangt ervanaf hoe je het bekijkt

als je een game speelt krijg je niet meer frames per seconde
door een ssd te gebruiken, maar alles start wel sneller op
Wat ook mee speelt, is dat de programma's van nu een heel stuk gebruiks vriendelijker zijn dat vroegah.
Tuurlijk zijn er ook genoeg ontwikkelaars die erg gemakzuchtig zijn.
Ik erger mij ook blind aan het feit dat mijn oude pc met WinXP sneller opstart dan mijn nieuwe met Vista, maar ja...
Wat je tegenwoordig steeds meer ziet, is dat mensen lui zijn of steeds hogere talen gaan gebruiken, zodat alle winst, verdwijnt ergens.
Ga jij maar eens in een development team mee draaien. Er wordt keihard gewerkt. Goed er zijn luie mensen, maar weet je, die had je in de jaren 80 net zo goed.

Het grote verschil is dat je nu veel grotere software systemen bouwt met veel en veel meer features en mogelijkheden. Probeer maar eens een gemiddeld enterprise systeem (laten we zeggen, de backend van ebay ofzo) in assembly te ontwikkelen. Ik wens je veel success.
Het gaat heel erg richting Java en C#; grappige talen, maar slepen een hoop overhead met zich mee.
Overhead t.o.v. van wat? JIT compilatie talen zijn in benchmarks sneller of hooguit een factor 2 langzamer dan performance koningen als C en C++. Een sleutel concept is het kunnen gebruiken van runtime gegevens voor dynamische optimalisatie aan de code.

Het kunnen hergebruiken van een enorme rijke set van libraries (wat jij 'overhead' noemt) maakt wel dat je niet elke suffe linked list of hash map die je nodig hebt van scratch hoeft te schrijven. En die dingen in die libraries zijn overigens dikwijls sneller en robuuster dan je zelf zou kunnen schrijven. Ga maar eens een code base van een half miljoen regels onderhouden puur met home grown spul. Dat gaat niet werken joh.

Het is een leuke mythe dat we maar allemaal in assembly super geoptimaliseerde code moeten schrijven en dat we dan nog steeds met een C64 hadden kunnen werken. Ik kan me nog herinneren dat een simpele animatie laten uitrekenen op de C64 uren en uren duurde! Dan hadden we het over een stom vierkantje wat om z'n as draaide en er totaal niet uitzag. Dat was dan in super geoptimaliseerde assembly.

Wake up!
Waar jij naar verwijst lost niet alle problemen op. Ontwikkelaars kunnen nog steeds code schrijven die absoluut geen voordeel heeft van multi-core cpu's.

Het is geen mythe, het is gewoon dat de ontwikkeltalen die de meeste ontwikkelaars gewend zijn moeilijker parallel te programmeren zijn. Als functionele programmeertalen de overhand zouden hebben, dan hadden we heel deze discussie niet gehad.
gewend aan betekent niet dat het andere per se lastigere is.
alleen als ze niet aanpassen blijft het lastig lijken.

en dat ze het kunnen schrijven. betekent niet dat het goed is.
over 2-3 jaar is zelfs word gewoon dik multithreaded.

er kan niet veel meer per core aan winst gehaald worden.
dus multicore is de toekomst. of je het nou leuk vindt of niet
Het gaat nu lijken alsof ik tegen multi-core cpu's ben, wat ik dus absoluut niet ben.

Ik zeg ook niet dat "gewend aan" betekent dat het lastiger is. Ik zeg dat in C/C++/C#/Java etc het lastiger is om parallel (multi-threaded) te programmeren.

Functioneel programmeren (versus imperatief) is voor veel programmeurs vreemd en onbekend, dus per definitie moeilijker. Maar ik geloof ook zeker dan functionele talen in opkomst zijn en zoals vaak zullen de imperatieve talen ook aspecten uit functionele talen overnemen.
Mensen denken niet multithreaded, zo simpel is het. Zelfs dat vrouwen multithreaded kunnen denken of werken is een grote fabel. Vrouwen hun hersenen kunnen wel sneller taken afwisselen in hun hersenen en daardoor zijn ze beter in dingen gelijk te doen.
Aangezien we hersenen niet zomaar kunnen herprogrammeren is het wachten tot we de programmeertalen aanpassen. Mensen kunnen niet multithreaded denken.
De reden waarom programmeurs dat zeggen is...omdat het moeilijk is!

Natuurlijk kan het wel, of in ieder geval meer dan vaak wordt gedaan. Maar: voor veel applicaties is het niet nodig en je software wordt qua ontwikkelkosten gewoon 2 tot 6 keer zo duur.

Die concurrency tools lossen de problemen niet zomaar op. De meeste programmeertalen zijn nu eenmaal ontworpen naar een sequentieel model. En zo denken mensen ook.

De hele freaking computer science is dit probleem (al jaren) aan het bestuderen en iedereen roept dat concurrency een onopgelost probleem is. Ik heb sommige experts horen zeggen dat er maar een handjevol mensen op de wereld zijn die de problemen echt begrijpen. Dan kan je niet beweren dat het allemaal maar zo makkelijk is.
De vergelijking gaat niet helemaal op, maar ik ben van een naar 3GHz overgeklockte E4400 C2D naar een Q9550 gegaan en het reageert allemaal toch een klap sneller. Helemaal als ik een paar (zware) programma's open heb staan.

Ik ben daarna tevens overgestapt op Windows 7 x64 en heb er 4GB RAM bijgeprikt voor een totaal van 8GB en ik kan nu makkelijk Mediacenter, Photoshop CS4 en 1 of 2 virtualpc's open hebben staan zonder enige hapering. Zelfs tijdens een prime test reageert ie nog prima.

De programma's hebben net even wat meer speelruimte, en ook al gebruikt het programma zelf geen gebruik van meerdere cores, W7 doet volgens mij goed zijn best om de programma's zo veel mogelijk over de 4 cores te verspreiden.
AMD heeft misschien geen schokkende specs in hun CPU's, het is wel verdomd goedkoop instappen op een AMD platform op dit moment. Ik denk dat AMD daar een hele hoop mee wint ten opzichte van Intel.
dat betekent wel dat amd kleine marges heeft.
en intel erg grote.....

en dat zorft ervoor dat intel steeds meer budget krijgt
om door te blijven ontwikkelen en de voorsprong te vergroten
Niet noodzakelijkerwijs....

De vooruitgang die een fabrikant boekt is niet recht evenredig met het ontwikkelbudget dat er tegen aan gesmeten wordt.

Soms kan je leren van je concurent, door direct zijn technologie te kopieren, zoals men in China doet. Daar ben ik geen voorstander van en volgens mij doet AMD dat ook niet.
Soms kan je leren van je concurent, door zijn fouten niet te maken.

Soms kan je met een veel kleiner budget een veel grotere technologische stap maken door slimmer te ontwikkelen. Veel van de huidige theorien over ontwikkelingen, hebben tegenwoordig betrekking op het vroeg uitfilteren van slechte ontwikkelpaden (en die dus stil te leggen) en goede ontwikkelpaden (en die dus verder stimuleren).
Een fabrikant die dat kunstje goed onder de knie heeft, kan soms verrassend snel hele goede resultaten neer zetten.

Het simpele feit dat de AMD prijzen lager liggen, kan dan ook niet automatisch leiden tot de conclusie dat dus de marges lager liggen. Het feit dat de AMD prijzen lager liggen kan al helemaal niet tot de conclusie leiden dat de technologische voorsprong van Intel per definitie groter gaat worden.
AMD begint juist langzaam maar zeker steeds meer grip op de cpu markt te krijgen als je het mij vraagt, ze zitten met de meeste cpu's in de grootste sweetspot van de markt; the most bang for your bucks :) Intel kan allemaal indrukwekkende cpu's op de markt brengen, maar zal die aan het grootste gedeelte van de markt niet verkopen omdat ze simpelweg veeeeel te duur zijn ;)

Het maximale wat ik voor een CPU betaal is €200, ik hoef qua prestaties niet haantje de voorste te zijn. als games maar lekker lopen op minimaal 720p (icm met een goede betaalbare videokaart uiteraard). Nou heb ik op het moment een e8400 omdat ik die voor weinig kon krijgen toen de cpu net nieuw was. Had ik nu een keuze moeten maken dan was Intel niet eens in beeld geweest, ze hebben in die prijsrange bijna geen enkele cpu die kan opboksen tegen de zeer betaalbare maar toch snelle cpu's van AMD.
Daar vergis jij je dan in: Intel heeft met zijn Core i5 750 een hele goede prijs / prestatie verhouding. Dat komt omdat die toch wel vergelijkend presteert aan de AMD Phenom II X4 955 BE, en in verhouding is die maar een tientje duurder. Én Intel's Core i3's komen er ook nog aan! Dat worden helemaal goedkope quads! Plus dat het hele Socket 1156 platform een stuk betaalbaarder is: Hier heb je ook voor 100 euro een moederbord, en voor het geheugen betaal je toch maar evenveel als bij de 955 BE, aangezien het in DC werkt...

Ik wil je dus alleen vragen of je Intel's Core i5 met je mee wilt nemen in "beeld".

Ik ben niet direct een Intel fan, altijd al AMD fan geweest, juist vanwege hun goede prijs / performance. Maar de release van de i5 heeft mij een nieuwe favoriet gegeven, en AMD zal nu weer iets moeten bedenken. (Het zullen wel weer prijsdalingen worden...)
Ik denk dat dat wel meevalt, als je bedenkt wat voor prijs Intel gaat vragen voor hun Gulftown: 1500 dollar!
Dan moet het mogelijk zijn voor AMD om daar een wat minder snelle maar goedkopere cpu tegenover te stellen en toch nog een mooie winstmarge te pakken.
Misschien heb je gelijk als je alleen naar de top modellen van beide fabrikanten kijkt. In praktijk kopen bedrijven en normale klanten zelden de top model CPU. Laat staan als je een Media PC of een huis-tuin-keuken ding wilt bouwen voor je tante.
De meeste tweakers zullen eerder de neiging hebben: Wat heeft de gebruiker nodig? Waar kun je de meeste bang voor je bucks halen?

Stel: 2 CPU's van gelijke snelheid een met 4 en andere met 6 cores zijn uitgerust voor dezelfde prijs. Je kan natuurlijk de eerste nemen, maar niet zonder reden. Anders mag je het woord 'tweaker' wel uit je hoofd wissen. Als je alleen in marketingsverhalen gelooft.

[Reactie gewijzigd door onno2 op 22 september 2009 18:28]

Alhoewel de prestaties waarschijnlijk niet zo goed zijn als die van een i7/i5, vind ik het toch erg mooi dat AMD nog steeds de AM2+ socket blijft ondersteunen. Daar vind ik Intel namelijk toch wel in teleurstellen(even de goede excuses dat de nieuwe processoren niet compatibel kúnnen zijn daar buiten gelaten).
Dat is natuurlijk ook weer lekker krom wat je daar zegt.

Jij stelt "Intel doet het niet juist met nieuwe sockets" en vervolgens "Maar ze doen het wel voor de juiste redenen".

Dus wat wil je nu?

En is het niet DOORDAT AMD zo blijft vasthouden aan hetzelfde socket, dat ze maar achter INTEL aan blijven hinkelen?
En is het niet DOORDAT AMD zo blijft vasthouden aan hetzelfde socket, dat ze maar achter INTEL aan blijven hinkelen?
Nee, want het socket van AMD is nog steeds toereikend. Juist Intel moest met een nieuw socket komen om niet achter AMD aan te lopen. Socket 939/AM2 heeft nog genoeg ruimte.

AMD moet wel met een nieuw socket komen als ze de gpu ook integreren, net als Intel nu doet met de Core i5 en nieuwe i7's
In de huidige i5 en i7's is de gpu nog niet geïntegreerd, maar voor het P55 is wel de PCIe controller geïntegreerd wat voor de X58 nog niet het geval was.

AMD houdt inderdaad enkel nog de geheugencontroller in de cpu, de rest gaat nog via de northbridge.
AMD houdt inderdaad enkel nog de geheugencontroller in de cpu, de rest gaat nog via de northbridge.
Dat is niet helemaal waar. AMD regelt I/O over de HT bus. I/O arbitrage regelen de CPU's dus onderling, zonder dat er een northbridge bij komt kijken.
Uhm nee niet helemaal, dat Intel over moest is waar maar echt niet omdat socket 775 niet meer kan, maar omdat ze de extra pinnentjes nodig hebben (veel NB functies zitten nu in de CPU).

Een QX9770 (veel te duur oke maar daar gaat het niet om) kan de I7 serie anders heel erg goed bijhouden, dat is de snelste CPU van S775 tegen de nieuwe high end serie...
En ja die raced dus ook zo goed als alle AMD's eruit! Dus ze lopen op S775 nog niet eens achter, en wie weet komt daar ook nog het 1 en ander voor uit.

Daarbij kan je bijv. de gem. C2D/C2Q Ocen naar 4Ghz of (veel) hoger, oftewel het hele platform kan die snelheden makkelijk aan als er chips werden gemaakt die zo snel waren (stock).
Dat ligt ook maar net aan welke applicaties/games je speelt hoor, vrijwel elke uitgebreide review laat dit zien. Je hebt wel gelijk dat voor gamers de overstap naar i7 van een quad/phII x4 van de nieuwere reeks weinig meerwaarde zal opleveren.

op gebied van applicaties en vooral die multithreaded zijn, gaan stukken harder op een i7 dan een andere huidige cpu.

Overclocken heeft weer een heel andere insteek en kan niet 1 op 1 worden gebruikt voor de vergelijking op stock cpu's.
Daarbij heeft elke chip zijn beperkingen, ik kan mijn 6750 niet stabiel draaien zonder enorme voltages erdoor te jagen boven de 3,6igig. een vriend van mij kreeg hem op 4,2 met dezelfde settings qua voltage ed.

Diezelfde vriend heeft nu een phII x4 die op 4 gig loopt.
Tja wat wil je. Ben je innovatief door verbeteringen door te voeren. Wat vaker leid tot incompatible platformen.
Of wil je vooral die upgrader een plezier doen in die retail markt. En how je met lagacy de handrem erop.

iNtel met hun 80% OEM markt. is upgrade pad afzet markt minder interresant. En Amerken OEM zijn een veel grotere klant die tezamen al 80 % afnemen.
Dan die upgrade die net zo hard naar de andere kant rend bij kleine tegenvaller.

Tja AMD ze zitten voor consumenten grotendeels in de retail markt. Daar waar de upgrades. En die gasten die hard weg rennen als het een keer tegen zit.

AMD heeft niet die reserves om altijd innovatie in hoog vaandel te zetten. Eerder bij vlagen. Omdat het vaak niet anders kan.

Ik mis nog steeds bij AMD die 256bit breede L1 / L2 cache bus.
Daarmee laten ze al IPC liggen.
True. Ik begrijp dat een overstap nodig was voor Intel, maar het splitten van hun productlijnen (LGA1156 en LGA1366) is imo een ERG slecht idee, en erg nadelig consument.
Sinds 2000:

AMD (6 sockets):
Socket A, Socket 754, Socket 939, Socket AM2, Socket AM2+ Socket AM3

Intel (4 sockets):
Socket 478, Socket 775, Socket 1366, Socket 1156

Amd had in de tijd van 754 en 939 zowat dezelfde techniek als Intel nu. 754 was budget en 939 was snellere single en dual core's.

Socket 775 is zowat de langst gebruikte socket bij intel geweest (ongeveer 4 jaar tussen de introductie van So939 en So1366). Van Pentium 4, Pentium D tot core 2 duo en core 2 quad hebben daar op gelopen. En daar worden nog steeds nieuwe cpu's voor uitgebracht.

Omdat jij 1156 en 1366 een 'ERG' slecht idee vindt, is het dat nog niet. Zo heb je in ieder geval een overzicht wat eerder budget is en wat high-end. En die 1000 tweakers die in Nederland rond lopen die al eens van budget naar high-end willen upgraden, gaan niet opwegen tegenover de gemiddelde pc gebruiker die gewoon wil dat het werkt en alleen maar wat office moet kunnen draaien. Die gaan eerder een nieuwe pc kopen of doen die in de winkel terug binnen voor een upgrade, en hebben dan nog steeds geen So1366 nodig.
Je vergeet Socket 423 te noemen.
In 2000 kon je ook nog volop socket 370's kopen van Intel (PIII en zo)

Daarbij moet ook nog gezegd worden dat de ene socket 775 de andere niet is. Niet elke socket 775 CPU kan in elk socket 775 moederbord. De verschillen zitten in frontside bus snelheid e.d. Met name een nieuwere CPU in een ouder moederbord ging erg slecht.

Daarbij kan eem AM3 CPU in een AM2+ moederbord, een AM2+ CPU in een AM2 moederbord en zo verder. AM2/AM2+/AM3 kun je dus niet helemaal als verschillende sockets zien.

Al met al is het opsommen van de sockets dus niet zo'n goede vergelijking, zeker niet als je er twee buiten beschouwing laat bij Intel.
Daarbij moet ook nog gezegd worden dat de ene socket 775 de andere niet is. Niet elke socket 775 CPU kan in elk socket 775 moederbord.
Hetzelfde kon gezegd worden voor Socket A. Lang niet elke processor werd ondersteung in ouder moederborden wegens frequenties en spanningen. Zelfs S939 heeft problemen ondervonden met enkele chipsets die niet goed) overweg konden met de dualcore processors.

@HK6273 - S604 is een server socket, als je die mee telt kan je ook al AMD's server sockets mee tellen.

[Reactie gewijzigd door knirfie244 op 22 september 2009 20:32]

Is er dan ooit een niet-xeon cpu uitgekomen en een niet-xeon moederbord op So604?

Ja, ik heb een aantal sockets weggelaten. Xeon en Opteron vond ik minder noemenswaardig. AMD heeft zo bv ook So940 gehad.
Anders tel je AM2 en AM2+ even apart ofzo; het enige verschil is een BIOS-upgrade... 8)7 Bovendien passen CPUs die bedoeld zijn voor een AM3-socket ook op een AM2+-socket (al weet ik niet zeker of er uitzonderingen op die regel zijn).
En goed, jij begint nu te tellen vanaf 2000, maar als we beginnen te tellen vanaf 2006 ofzo dan ziet het plaatje er opeens heel anders uit. Om ongeveer dezelfde reden kan ik me niet zo vinden in jouw redenatie over de 1156/1366 splitsing: dat AMD bijna tien jaar geleden ook iets stoms/onhandigs heeft gedaan betekent toch niet dat het daarom opeens een goed idee is voor Intel om nu hetzelfde te doen??
Tot slot gaat het niet om die 1000 tweakers, het gaat om de leveranciers en winkels die voorraden aan moeten houden; daar gaat verrassend veel geld in zitten. Als ze twee keer zoveel moederborden in magazijnen moeten hebben liggen dan kost dat gewoon een boel duiten. Alles zoveel mogelijk via één socket draaien maakt upgraden veel makkelijker voor een kleine niche-markt, maar maakt het ook voor de grote OEMs goedkoper (en dus aantrekkelijker) om jouw product te gebruiken.
Hardwarematig zit er toch wel een verschil in AM2 en AM2+, andere hypertransport frequentie en gescheiden power aansluitingen voor de core's en de memory controller.

Dat ze voor de rest volledig compatibel zijn, maakt niet uit. Het feit is dat het een ander voetje is (andere benaming) die de gemiddelde (niet tweaker) consument in mijn ogen harder verwart dan So1366 en So1156.

En ja, als je stopt met tellen bij 2006 ziet het er nog anders uit. Ja Intel doet iets vervelends en indien de concurrent in het verleden hetzelfde heeft gedaan, telt dat niet mee. Anders komt Intel er minder slecht uit?

[Reactie gewijzigd door kluyze op 22 september 2009 20:44]

Sinds 2000:

AMD (6 sockets):
Socket A, Socket 754, Socket 939, Socket AM2, Socket AM2+ Socket AM3

Intel (4 sockets):
Socket 478, Socket 775, Socket 1366, Socket 1156

Amd had in de tijd van 754 en 939 zowat dezelfde techniek als Intel nu. 754 was budget en 939 was snellere single en dual core's.

Socket 775 is zowat de langst gebruikte socket bij intel geweest (ongeveer 4 jaar tussen de introductie van So939 en So1366). Van Pentium 4, Pentium D tot core 2 duo en core 2 quad hebben daar op gelopen. En daar worden nog steeds nieuwe cpu's voor uitgebracht.

Omdat jij 1156 en 1366 een 'ERG' slecht idee vindt, is het dat nog niet. Zo heb je in ieder geval een overzicht wat eerder budget is en wat high-end. En die 1000 tweakers die in Nederland rond lopen die al eens van budget naar high-end willen upgraden, gaan niet opwegen tegenover de gemiddelde pc gebruiker die gewoon wil dat het werkt en alleen maar wat office moet kunnen draaien. Die gaan eerder een nieuwe pc kopen of doen die in de winkel terug binnen voor een upgrade, en hebben dan nog steeds geen So1366 nodig.
Ja en je kon ook alle cpu's met voetje 478 op alle 478 bordjes kwijt., niet dus, dat kon bij amd wel! Intel heeft per socket nog vaak incompatibiliteit gehad, zodat je eigenlijk s478 niet in 1 categorie kan plaatsen want daar waren verschillende versies van. Zelfde verhaal met S775, ook daar waren niet allen nieuwe cpu's compatibel al hadden ze s775 voetje.

Dat heb je bij amd nooit gehad, en zelfs AM2 t/m AM3 cpu's zijn backward compatibel, je kan dus een nieuwe cpu op je oude socket kwijt. Bij intel kan het soms al niet al heb je dezelfde cpu voetje en socket, toch zijn ze niet compatibel.

Is maar net door welke roze bril je wilt kijken, maar wij weten wel beter, intel stond daar niet voor niks jarenlang bekent om. ;)

[Reactie gewijzigd door mad_max234 op 22 september 2009 19:36]

Dat heb je bij amd nooit gehad, en zelfs AM2 t/m AM3 cpu's zijn backward compatibel, je kan dus een nieuwe cpu op je oude socket kwijt.
Niet elke AM3 cpu past zomaar op elk AM2 moederbord! Ook werkt een bios update dan niet altijd.
Ho Ho wacht eens even, deze processors hebben een DDR3 geheugen chip inzich, je moet dus wel een socket AM2+ hebben met DDR3 neem ik dan aan, anders is het zeer knap.
Nee deze processors hebben een DDR2 en een DDR3 controller aan boord en kunnen dus op AM2+ op DDR2 prima uit de voeten en op AM3 gebruiken ze DDR3.
Ik snap het niet iedereen loopt te zeuren dat het socket ten opzichte van AMD snel is.

LGA775 komt uit Julie 2006, AM2 komt uit Mei van dat zelfde jaar.

Oftewel AMD was nog eerder met het nieuwe slot (AM2+/AM3) als Intel :) Want LGA bestaat al ruim 3 jaar, maar AM2+/3 nog niet toch dus tja wat zegt dat dan? Backwards compatible is leuk maar niet als het de performance aantast!

[Reactie gewijzigd door watercoolertje op 22 september 2009 16:47]

op LGA775 zijn wel 5 verschillende snelheden geweest, geen van alle backwards compatibel met het zelfde moederbord. en nu lanceren ze 2 verschillende sockets min of meer tegelijk.

en AMD's backward compatibility tast niet hun performance aan in dit geval, kost ze hooguit een paar extra transistors in de geheugen controller.
Intel heeft altijd 2 sockets gehad, net zoals AMD nu heeft en ook altijd heeft gehad. Het enige verschil is dat je bij AMD nu eens fysiek een AM3 cpu in een AM2+ kan steken maar dan ben je wel je extra features kwijt.
Ietsje beter lezen als je snel Wikipedia opent om te klagen. Ten eerste bestaat 'LGA' (wat gewoon staat voor land grid array) al meer dan 10 jaar, maar de LGA775-socket die jij bedoelt bestaat ook al langer dan jij zegt. De Pentium 4 'Prescott' gebruikte deze socket namelijk al, en die komt uit februari 2004.

Verder snap ik niet echt goed wat je met je post probeert te zeggen. Mensen zeggen juist dat AMD nog niet van socket hoeft te wisselen (wat ze natuurlijk wel hebben gedaan; AM2/AM2+/AM3) omdat die meer dan snel genoeg is, terwijl dat bij Intel niet het geval was.
Goed werk AMD, ik hoop dat ze veel ondersteuning gaan krijgen van de multi-core software en verwacht niets anders dan performance van ze! ;)

Zelfs dus met DDR-2 ondersteuning, het AM3 platform zal ook dus nog wel even blijven bestaan. Ik ben benieuwd, aangezien een upgrade binnenkort komen gaat, of dit het wachten waard zal zijn, gezien de 'what's next' vraag die ik mij stel.

[edit] Core A6 Core A5 rofl :o

[Reactie gewijzigd door darkcarlaza op 22 september 2009 16:13]

Er zou eigenlijk een soort thread-raid moeten komen. Net als bij een harde schijf in stripe, waarbij het besturingssysteem naar 1 device denkt te schrijven, maar dat hard- of software ervoor zorgt dat het meerdere schijven zijn.

Dus 1 thread die door een soort software cpu wordt afgehandeld, die zijn werk verdeeld over meerdere fysieke cpu' s.

Maar ja, dat zal wel niet mogelijk zijn.
Eén thread kun je (disclaimer: met de huidige staat der techniek) niet verspreiden over meerdere cores/processoren, daarvoor zijn er veel te veel afhankelijkheden. Anders gezegd: hyper threading is een kunstje om één core "tegelijk" twee threads te voeren, omdat één thread de core (onder bepaalde omstandigheden) niet eens bezig kan houden.
Ik heb wel vage ideeën langs horen komen over onderzoek naar het splitsen van één thread over meerdere cores, maar dat klonk allemaal nog erg experimenteel en hypothetisch, dus reken er voorlopig nog maar niet op.
offtopic:
Trouwens, ik neem aan dat je het redundancy-verhaal van RAID niet over wou nemen? Anders ben ik heeeel nieuwsgierig hoe je dat in gedachte had! :p
Niet helemaal waar, een thread kan de core weldegelijk bezig houden. Het is wenselijk om een tweede Thread klaar te hebben staan, mocht de eerste thread een "mismatch" of zo opleveren. Als je vier cores hebt, kunnen er in het beste geval maar 4 threads tegelijk door de execution unit heen.
Nee dat is dus niet mogelijk want bij vele zaken gaan ze gewoon altijd op elkaar wachten. Wacht nog af op .NET 4 framework en je zal vele sneller dan ervoor in het dagelijks leven veel meer multithreading tegenkomen. Dx11 gaat daar ook mee aan helpen bij games.
Sorry, dus in jouw beleving is meer cores direct gelijk aan meer prestaties? Wordt nog een flinke schok dan voor je straks...

Dan heeft Intel al een monster van een "cpu" met 80 cores........
dat is toch ook zo? een processor met meer cores can op dezelfde snelhied meer informatie verwerken.
Dat niet alles software de mogelijkheid gebruiken is een ander verhaal.

De single core zit aan zijn top, om meer performance te kunnen geven worden er multi cores gebakken.
Mwoa, denk dat er op zich nog wel wat "juice" uit singlecores te halen is, maar meer cores levert gewoon meer op (omdat applicaties parallel kunnen werken). Dit is gewoon de makkelijkste oplossing, waarom optimaliseren als je ook twee cores aan elkaar kunt plakken?
Of die 2 combineren, 2 opgefokte cores :9 :P
Het is ook geen A7 of A9 :+
Thuban zal op 45nm worden gebakken, zes cores op een enkele die bieden en een geïntegreerde ddr3-controller hebben.
Dus ook een geïntegreerde ddr2-controller ;)

Het is mooi dan AMD zijn processors allemaal backwards compatibel maakt :)

Al vrees ik wel dat AMD hier niet genoeg inhaalt tov Intel. Zolang de architectuur niet wordt vernieuwd hoeft Intel denk ik nog weinig te vrezen. Ze kunnen dus maar de hoofdprijs blijven vragen voor hun processoren...

[Reactie gewijzigd door StefanvanGelder op 22 september 2009 16:24]

Dat ben ik niet met je eens.

Ik ben iemand die wanneer zijn PC nog prima voldoet niet eens aan upgraden denkt en zo zijn er veel mensen, ik denk dat alleen de tweakers en de echte freaks of mensen met geld teveel zullen upgraden van bijv. een Core 2 duo cpu naar een Core i7, maar voor de huis -tuin en keukengebruiker is daar geen meerwaarde die die investering rechtvaardigd.

Toen ik mijn eerste PC wou upgraden was PCI vervangen door AGP, dus toen moest ik toch wel een nieuwe plank halen, daarna kwam PCI-E en moest ik weer alles vervangen. Vervolgens heb je nog een hoop andere zaken zoals SSE ondersteuning, ander soort geheugen, virtualisatie support, USB 2/3, S-ATA etc etc etc.

Conclusie: Wanneer de huis -tuin en keukengebruiker na 5 jaar eindelijk eens een keer besluit te upgraden is dit toch al lang niet meer mogelijk omdat alle technieken in zijn PC al verouderd zijn en hij alles moet vervangen dus vraag ik me af wat voor zin het heeft om vast te houden aan die compatibiliteit.

De freaks kopen toch gelijk het nieuwste, de rest over 5 jaar wel weer dus imho bedien je maar een echt zeer kleine markt met het behouden van die compatibiliteit en kom je over als 'niet vernieuwend' ook al bedoel je het als bedrijf goed.

Wat het bedrijfsleven betreft zie ik dat hetzelfde, vroeger was de afschrijvingstermijn voor hardware 3 jaar, maar overal waar ik kom zie ik hardware die al 4 of 5 jaar of soms zelfs nog wel langer meegaat.
Is denk ik toch wat kort door de bocht.

Er zijn nog veel tussenvormen te bedenken:

- Als er een onderdeel kapot gaat. Je kan dan bijv vast een nieuwe proc kopen terwijl alles het gewoon blijft doen. Op die manier begin je vast aan een upgrade, maar hoef je niet alles te vervangen.

- Je kan als je een paar tientjes over heb je huidige proc verkopen en zo zeer voordelig upgraden naar een veel beter component. Zo heb ik dat onlangs zelf gedaan van een Athlon X2 5000+ naar een PhenomII X3 720. Ivm een leuke deal koste me dit maar 5 tientjes.

Daarnaast zijn er ook genoeg freaks zonder een groot budget die dus eerst wat afwachten.

Ook zie ik genoeg mensen om me heen met hardware van 3jr oud die beginnen te klagen dat alles trager wordt. Gewoon omdat de programma's e.d. zwaarder worden voor het destijds budget pc'tje. Met AMD heb je dan met lage kosten weer een upgrade. Soms dus zelfs zonder alles te hoeven vervangen.

En kwa bedrijfsleven: als je bij 4bedrijven geweest bent zegt dat nog niets over de rest! Ik ken zelf een paar bedrijven die gewoon om de 3jr vervangen. Dus dat is gewoon onzin!
Conclusie: Wanneer de huis -tuin en keukengebruiker na 5 jaar eindelijk eens een keer besluit te upgraden is dit toch al lang niet meer mogelijk omdat alle technieken in zijn PC al verouderd zijn en hij alles moet vervangen dus vraag ik me af wat voor zin het heeft om vast te houden aan die compatibiliteit.
Nee hoor. Ik zit hier met een systeem dat toch wat trager begint te worden, dus nu ik de reviews zie ben ik toch wel redelijk aan het plannen om binnenkort mijn Athlon 64 X2 4800+ te vervangen door een Athlon II X4 620 (en een extra schijf erbij). Ik heb pas geleden mijn RAM nog uitgebreid en mijn mobo doet het op zich nog prima. Dus als ik nog even een jaartje of twee kan wachten (tot USB3 en SATA3 standaard zijn en DDR3 nog wat goedkoper is geworden) voordat ik mijn mobo vervang dan vind ik dat eigenlijk wel prima.

Ik ben de eerste om toe te geven dat erg weinig mensen daadwerkelijk ooit hun pc upgraden (de meesten zullen toch kant-en-klare bakken bij de MyCom of de MediaMarkt halen), maar dat het niet mogelijk of niet zinnig zou zijn is gewoonweg niet waar.
Doordat iedereen tegelijk gepost heeft, is mijn post gelijk aan eerder verkondigde meningen;

Je kan van AMD zeggen wat je wilt, maar ze bieden een uitgebreide compatibiliteit met hun sockets (AM2+ / AM3). Voor mensen die hun systeem willen upgraden en al in het bezit zijn van een van deze mobo's, is dit veelal een ultieme prijs/prestatie verhouding, simpelweg omdat er enkel een nieuwe processor benodigd is.

Wil je van een socket 775 upgraden naar een BV 1366, dan moet je een hoop geld bij leggen voor alle hardware.

[Reactie gewijzigd door mcsluis op 22 september 2009 16:23]

Wil je van 939 naar AM2/3 upgraden moet je ook een hoop geld bijleggen. Zijn AMDboys zo blind geworden dat ze maar een jaar terug kunnen zien :/
Zo moest je voor 478 naar 775 ook veel geld neerleggen. En zelfde met 462 naar 939...
Nog daarvoor moest je zelfs alles upgraden want cpu en geheugen zaten gesoldeerd op het moederbord. PC's zijn echt zo goedkoop en simpel geworden.
de 775 en AM2+ stammen af uit dezelfde release periode. Daarom leek mij dit ee eerlijke vergelijking.

Een 6core processor om een oude socket is wat bij intel momenteel niet mogelijk is.
Dat is dus wel mogelijk. De Gulftown past gewoon in de huidige LGA1336 met de X58. Er is enkel een update van je bios nodig.
Als ze hier ook leuke "Budget Koning" versies mee kunnen maken, en een beetje snel, dan gaat dat helemaalgoed komen.

Geintegreerde DDR3 controller, maar ook AM2+...snap ik niet helemaal.
Dat is toch wel een beetje een verspilling dan, als je 'em in AM2+ steekt.
Maar aan de andere kant, welk AM3 ord heeft geen DDR3 controller?
ddr2 en 3 lijken zo veel op elkaar dat echt geen aparte controller nodig hebben. met een paar extra transistors kan de controller allebei aan.
Erg goed dit. Ook handig dat ze de zelfde socket blijven ondersteunen, zodat je niet steeds een nieuw moederboard en geheugen hoeft te kopen!
Ja, want straks zit Intel op een socket 2400 met DDR5 geheugen en AMD nog gezellig op AM2 met DDR2....

Ergens houdt dat op he, dat besef je ook wel....
Nee want AMD heeft ook DDR3 gewoon op het AM3 platform. AM3 is redelijk nieuw, ja niet zo'n groot verschil t.o.v AM2 maar wel met DDR3.
Ja, dat begrijp ik ook wel, maar Intel heeft wel erg veel sockets uitgebracht niet? Tuurlijk is AMD ook wel eens toe aan een nieuw platform, maar niet in zo'n rap tempo als Intel dat doet, ergens is dat wel slim toch?

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True