Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties
Submitter: player-x

AMD werkt aan een Opteron-processor met acht dualcore-modules voor een totaal van zestien cores op een enkele die. Ook de uncore is op de die geintegreerd. Het gaat om een Opteron-processor met Steamroller-cores.

Het werk aan de processor blijkt uit een document die Planet3dnow ontdekte op de AMD-site. Het document toont het schema van een processor met aanduiding 'Family 15h processor model 30h-3Fh'. Daaruit is af te leiden dat het om een chip met Bulldozer-modules en Steamroller-cores gaat, en niet om een model met Excavator-cores, die Steamroller gaan opvolgen.

Verder is op te maken dat er acht modules en daarmee zestien cores op de die aanwezig zijn en dat een sri-interconnect in verbinding staat met een crossbar, die op zijn beurt de communicatie met aan de ene kant de geheugencontroller en aan de andere kant de HyperTransport-links afhandelt. Van de HT-links ondersteunt er een exclusief pci-e 3.0, terwijl er twee puur voor HyperTransport en twee gecombineerde links zijn.

Onbekend is of en zo ja wanneer AMD de chip op de markt brengt, maar aangezien het chipontwerpbedrijf het in 2014 en 2015 met zijn Opteron 6300-reeks, genaamd Warsaw, wil doen, lijkt het niet waarschijnlijk dat de processor voor eind 2015 verschijnt. Ook de Opteron 6300-lijn krijgt overigens chips met zestien cores, maar daarbij gaat het om twee dies met elk acht cores in een enkele G34-package. De eerste modellen in die lijn zijn net verschenen bij webshops, constateert Cpu-world. 

AMD Family 15h processor model 30h – 3Fh

Moderatie-faq Wijzig weergave

Reacties (105)

Vooral interresant voor workstations en severs maar niet zo zeer voor gamers.
De meeste (oude) games ondersteunen namelijk maar 2-4 cores soms eens 6-8 core ondersteuning maar meer ben ik nog niet tegen gekomen.

Dit heeft ook te maken met het feit dat weinig (game) pc's een cpu hebben met meer dan 8 cores, pas als 16 cores normaal word (beetje als de i5's of de FX dat nu is) dan worden games daar meer voor aangepast, Ook is het meestal zo: meer cores = minder kloksnelheid, ik vraag me dan ook af hoe hoog de snelheid per core is en hoop dat er snel benchmarks komen.
Er wordt tegenwoordig geprogrammeerd in "Multithreaded", dus je zegt in je programma niet van dit gaat naar core 1, dit gaat naar core 2, t/m 8, maar de PC beslist zelf welk thread naar welke core gaat. Dus meer cores is in principe beter en wordt automatisch gebruikt. Het is dan ook bijvoorbeeld niet nodig voor games zoals Battlefield om eerst een patch uit te brengen alvorens het alle cores van de processor kan gerbuiken.
Maar ook aan multithreading zitten limieten binnenin de engine. Je gaat niet elk klein ding dat je wenst te doen van je main thread afsplitsen, enkel die taken die meer CPU belasting nodig hebben wil je afsplitsen en indien mogelijk opsplitsen over verschillende threads. Zeker in een game blijft het belangrijk dat een deel van het werk linear blijft verlopen en dat alles in sync blijft wat weer moeilijker word als je meer taken gaat verdelen over meer cores. Het is dan ook een immense uitdaging om die taken op te splitsen.
Ik heb altijd het idee (zeker weten doe ik het niet) dat de hele hardware/computer-markt de consument op dat gebied vanaf het begin op het verkeerde been heeft gezet. In een applicatie is feitelijk elke activiteit terug te herleiden naar low-level machinecode die in vergelijking tot het uiteindelijke programma zeer eenzijdig is. Volgens mij zou dat in theorie het modulair en multithreaded ontwikkelen juist moeten bevorderen, maar alles is monolitisch, te beginnnen bij de meest gangbare besturingssystemen.

Misschien een hoog conspiracy-gehalte, maar zou dergelijke technologie niet bewust uit de winkel worden gehouden om te voorkomen dat bij CPU's eigenlijk alleen de kwantiteit nog maar telt en dus een enkel exemplaar waardeloos wordt. We worden nu iedere keer lekker gemaakt met op zichzelf staande produkten zoals waar AMD dit ontwerp voor gaat gebruiken maar ergens heb ik het gevoel dat een enorme hoeveelheid 386-kernen ook een heleboel kunnen mits daar de juiste infrastructuur omheen wordt gebakken.
Je instructies worden steeds toegepast op data. Het probleem is eerder dat veel algoritmes bestaan uit een aantal lineair uit te voeren instructies. Je moet dus het resultaat van de eerste instructie afwachten voordat de tweede uitgevoerd kan worden. Als je dit zou willen opsplitsen over meerdere rekeneenheden zal alles trager gaan, aangezien je moet bijhouden wanneer welke eenheid klaar is met rekenen. Ook zul je het resultaat moeten kopiëren vanuit de registers van de ene eenheid naar de andere.

CPU's zijn geoptimaliseerd om veel instructies na elkaar uit te voeren op dezelfde data. Multi-threaded code heeft dus voornamelijk zin voor algoritmes die het toelaten en data die los gebonden is. Vandaar dat multi-threading vooral heel zinvol is in servertoepassingen, aangezien je moet antwoorden op veel requests de weinig zijn gebonden aan elkaar.
Wat in theorie wel mogelijk is om branch prediction over meerdere cores uit te smeren. Bijvoorbeeld je hebt ergens een IF instructie staan in een single threaded programma en je kan in feite niet verder rekenen tot je die branch afgehandeld hebt. Momenteel gebruikt men branch prediction die gaat gokken wat waarschijnlijk de uitkomst zal zijn en dan verder rekent. Met het risico dat de CPU nadien alles moet weggooien en opnieuw vanaf de branch moet herberekenen als blijkt dat de prediction de verkeerde keus heeft gemaakt.

De CPU zou beide opties tegelijk kunnen uitrekenen op verschillende cores. Als dan eindelijk de IF instructie afgehandeld is moet de branch prediction alleen de juiste branch kiezen en de andere weggooien. Maar er zijn te veel nadelen aan dit idee:

- Huidige branch prediction zet ver boven de 90% success rate
- Extra energieverbruik en hitte voor dubbel werk

Een IF instructie heeft maar 2 mogelijk branches, meeste instructies hebben er veel meer. Stel je zit op een integer te wachten die gaat van 0 tm 9, dan heb je 10 mogelijk branches die tegelijk uitgerekend zouden worden waar er maar 1 correct is. Dan heb je ineens 90% CPU tijd en energie verspild.

Dus in theorie kan je wel een single thread programma versnellen met meerdere cores. In praktijk ben je alleen stroom aan het verspillen voor een marginale snelheidswinst.
Het is al eventjes geleden dat ik de theorie gezien heb, maar voor zover ik mij herinner:

Branch prediction geeft tegenwoordig erg goede resultaten. In heel veel gevallen zit je meer dan 90% van de keren juist. Denk bvb aan een while- of for-lus (wat heel veel if's na elkaar is). Je gaat steeds uitgaan van het feit dat het resultaat correct is, wat n-1 keer het geval zal zijn. n is vaak een getal > 100. Je zit dus in meer dan 99% van de gevallen juist.

Stel nu dat je voor je branch prediction steeds het negatief voorspelde resultaat laat uitrekenen door een andere rekenkern. Dan moet je eerst enkele cycles verliezen aan het kopiëren van je data van de registers van de ene CPU naar de andere, en dit waarschijnlijk via een trage L2 of L3 cache. Dit ga je n keer moeten doen.

Die andere CPU moet de data ontvangen, beginnen rekenen en het resultaat terug in de cache steken (anders kan hij ondertussen niets anders doen). De eerste core moet vervolgens weer het resultaat uit de cache halen, wat menigeen cycles kost. Ik kan mij moeilijk inbeelden dat hier veel winst in te boeken valt? Tenzij je steeds 2 cores aan 1 thread wil dedicaten. De vraag is dan of de vergrote complexiteit van de die het wel waard blijft (lagere yield, lagere kloksnelheid, meer kans op fouten, etc...). Het is niet voor niets dat moderne architecturen steeds meer RISC dan CISC zijn.

edit:
Ik weet niet of je je reactie gewijzigd hebt, of dat ik je reactie niet geheel gelezen had. Blijkbaar komen we tot dezelfde conclusie :).

[Reactie gewijzigd door needless to say op 19 januari 2014 17:45]

Nee, we kwamen allebei zelf tot dezelfde conclusie. :p

De overhead van kopieren van en naar de cache en registers kan wel meevallen als een CPU hier echt voor ontworpen is. Hyperthreading bij Intel is eigenlijk ook maar een oplossing om een core heel snel van taak te laten wisselen in geval van een stalled pipeline. (wat bij de P4 destijds heel kostbaar was) En dat werkt nu ook zo goed dat bijna niemand er nog aan denkt om HT uit te zetten. (Ik heb het geprobeerd bij mijn I7 970, prestaties in multithreaded programma's vielen zo hard achteruit dat ik het direct terug aanzette.)
Wat in theorie wel mogelijk is om branch prediction over meerdere cores uit te smeren.
Kijk voor de gein eens naar de Itanium (met name "predication" zit heel dicht aan tegen wat jij wil doen, maar dan zonder een extra core nodig te hebben... en met heel weinig overhead).
Dat artikel linkt door naar http://en.wikipedia.org/wiki/Speculative_execution en inderdaad, wat ik bedoel staat daar dus beschreven. Wordt de Itanium eigenlijk nog ontwikkeld door intel of is IA-64 een gedoemd platform?
Is einde oefening. Officieel nog niet, want ze hebben een zwik overeenkomsten met andere partijen, maar je ziet alle vernieuwing opduiken in Xeon.
Vaak is het een combinatie van beide die je wilt, hoge single threaded voor bepaalde taken die linear af gehandeld moeten worden, maar daar naast andere taken weer beter via multithreading verdeed worden.

Zie vaak op mijn 3930K een of twee cores met hoge belasting en de rest rond de 10 tot 30~50%
Stel je hebt een lijst gesorteerde data (standaardvoorbeeld: telefoonboek) en daar wil je in zoeken met een groot aantal (laten we zeggen: 16) cores. Dan kun je het hele blok data in 16 even grote stukken verdelen, 16 cores aanslingeren om in elk van die blokken te zoeken en daarna de resultaten te combineren.

Denk je dat dat als een goed idee klinkt? Sorry, slecht nieuws: dat is flink langzamer dan al het werk door één core laten doen. In gesorteerde data zoek je namelijk met behulp van een methode die "binary search" heet en die bepaalt in vier hele kleine, snelle stappen in welk van de 16 blokken je moet zijn. Dat is aanzienlijk sneller dan het aanmaken van 16 threads (puur het aanmaken, ze hebben dan nog niks nuttigs gedaan). Ook het combineren van de 16 deel-antwoorden tot één totaal-antwoord kost in het algemeen nog wat extra werk.

Sommige taken lenen zich prima voor opdeling in meerdere kleine, (bijna) onafhankelijke deel-taken. Die zullen enorm profiteren van meer cores. Er zijn echter ook taken die zich totaal niet lenen voor opdeling. Die hebben helemaal niks aan meerdere cores; zoals in bovenstaand voorbeeld, waar de efficiëntste methode om te zoeken met 16 cores is: "laat 1 al het werk doen, negeer de andere 15 compleet".

[Reactie gewijzigd door robvanwijk op 19 januari 2014 14:01]

Tja, je telefoonboek sorteren kan dan weer wel parellel met bijvoorbeeld een mergesort.

Doorgaans is het echter de moeite niet, als je set maar zo groot is als een telefoonboek, ga je maar weinig winnen door 16 cores te gebruiken. Pas als je er enkele miljarden instopt gaat het misschien verschil uitmaken. Maar voor een doorsnee applicatie maakt het weinig uit.
Leuk dat je mergesort als voorbeeld gebruikt: de deelproblemen kun je inderdaad parallel doen, maar daarna heb je nog de postprocessing stap waarbij de kleinere blokken samengevoegd worden tot één groot, gesorteerd blok... en die stap is (bij mijn beste weten) niet te parallelliseren.

Denk er ook aan dat dit een reactie was op blorf, die redeneerde:
Ik heb altijd het idee (zeker weten doe ik het niet) dat de hele hardware/computer-markt de consument op dat gebied vanaf het begin op het verkeerde been heeft gezet (..) ergens heb ik het gevoel dat een enorme hoeveelheid 386-kernen ook een heleboel kunnen
Datasets van miljarden items klinkt meer als scientific computing of big data, niet als iets wat een consumenten pc vaak zal doen, dus dat is (in die context) inderdaad irrelevant.

[Reactie gewijzigd door robvanwijk op 19 januari 2014 20:44]

Ja je pakte toevallig verkeerd voorbeeld. Ook embarrassingly parallel is radixsort. Radixsort is de snelste methode als je die kunt toepassen. De TNT gebruikt RADIX sort bijvoorbeeld.

Probleem waar AMD meer mee zit als het gaat om server cpu's is drieledig.

Ten eerste gaan meer en meer workloads op supercomputers naar GPU's toe, dus da's Nvidia terwijl Intel ook moeite doet met larrabee. Op supercomputers draaien grotendeels matrixcalculaties en FFT gerelateerde workloads (ook de NSA gebruikt vormen van FFT naar we kunnen verwachten om priemgetallen te vermenigvuldigen - bijvoorbeeld GIMPS gebruikt DWT wat een vorm van FFT is). Dus belangrijkste is de snelheid van de vermenigvuldigingsinstructie. AMD heeft op bulldozer de vermenigvuldigingsunit op elke minicore gewoon 2x trager gemaakt dan op de 6 core cpu's (1090T etc) ervoor. Van 4 naar 8 klokjes (cycles).

Ten tweede heel belangrijk in de servermarkt is latency. Dus de tijd die het kost om een stukje geheugen op te halen en te WACHTEN tot je het hebt (dus niet throughput).

Intel is megasneller qua latency op 2 sockets en 4 socket machines zijn simpelweg veel trager qua latency dan de 2 socket machines.. AMD zal altijd trager zijn met deze generaties CPU's,daar ze trage L2 cache hebben en nog tragere SRAM vorm (L3 cache).

Dus qua latency verliezen ze 't altijd van de 2 socket intels.

2 socketmachines zijn eigenlijk altijd trager dan 1 socketmachines qua latency.

Zelfs wat oude beursmachines die allang niet meer gebruikt worden omdat ze te traag nu zijn qua latency, die waren met hun i7 Xeons toen ik testte al rond de 90 nanosecondes qua blocked read latency (alle cores busy).

Als je zelfde doet met bulldozer dan is dat 160 nanosecondes.

meer sockets is natuurlijk nog veel trager. Er zullen er dus erg weinig zijn die die opterons gaan kopen.

De 1090T verslaat qua (blocked read) latency met 2 vingers in de neus elke willekeurige bulldozer of latere incarnatie. Zo'n enorme zelfmoord is dat hele ontwerp van bulldozer of later. Dus het is inpakken en wegwezen voor AMD op grond van latency. Totaal zelfmoordontwerp. Hierop wint intel eigenlijk vrijwel elke benchmark die niet FFT georienteerd is.

Al die kadootjes en presentjes die intel altijd geeft aan websites en testers, terwijl AMD dat hoegenaamd niet doet (en ook vrijwel nooit deed) en gerommel met compilers, dat is al bijna niet nodig zo'n zelfmoordontwerp is bulldozer en de latere afgeleide CPU's van AMD hierop.

Enige nadeel van intel is de megahoge prijs voor hun CPU's. Dat is echt enige waarop AMD kan concurreren.

Echt handig is AMD daar niet. Ze vragen te veel gewoon om de stap makkelijk te maken AMD 4 socket opteron machines met 64 minicores te kopen voor de hobbyist. Idemdito 32 minicore machines. 2e hands loopt het ook van geen meter met socket G34. De moederborden zijn te duur. tweede hands is de 6176 geweldige cpu met 12 echte cores en ligt voor 100 dollar op ebay. Moederbord is echter fortuin.

Ook AMD's snelle gpgpu kaart hebben ze 3500+ dollar geprijst in plaats van keihard de concurrentie aan te gaan en er een duizendje voor te vragen.

AMD overvraagt - krijg je met veel van die Arabische invloeden daar.

Verder rust intel toch behoorlijk op zijn lauweren als het gaat om de servermarkt. Enige echt belangrijke wapenfeit in nieuwere i7's t.o.v. de oude is dat de vermenigvuldigingsinstructie (belangrijk dus voor supercomputers, NSA en vrijwel alle wetenschappers) dus van 2 clocks naar 1 clock ging in AVX qua throughput (het gaat dan om throughput dus niet om latency zoals hierboven die 8 clocks is van AMD - die van AMD gaf ik alleen om te laten zien dat ze feitelijk de zaak teruggeschroefd hebben in 't bulldozer ontwerp t.o.v. de vorige architectuur).

Het derde probleem zie ik als iets waar AMD wel aan kan werken en ook aan werkt. Dat is de praktische power usage. In veel server ruimtes is de hoeveelheid energie beperkt. Dus server cpu's dienen EFFICIENT te zijn.

AMD heeft daar ACP uitgevonden. Daar klopt natuurlijk geen hol van als je 't gaat meten. Intels TDP aan de andere kant klopt ook al paar decennia niet veel van. Er wordt altijd maar mee gegoocheld met die TDP's. Dat zijn allang compleet theoretische getallen.

Vergeet al die getallen wat TDP's betreft. Fabrikanten claimen maar wat daar.

Toen opteron in 2003 net uitkwam veroverde hij snel 50% van de servermarkt. Hij was vet sneller qua latency dan intel en won op alle benchmarks.

Waar het op neerkomt is dat een CPU net zo goed is als zijn caches zijn. AMD's L2 cache is lachwekkend traag echter. inpakken en wegwezen voor AMD uit die servermarkt joh.

[Reactie gewijzigd door hardwareaddict op 20 januari 2014 02:27]

Sorry maar je kan alles niet gewoon multithreaded maken... er zijn veel berekeningen die je niet kan opsplitsen omdat je voor het volgende deel de uitkomst van het vorige nodig hebt. Sommige problemen kan je wel degelijk multithreaded maken zoals bijvoorbeeld een sort algoritme.

Een moderne kernel is wel degelijk echt multithreaded. Die zal een deel van de kernelspace in elk process mappen (meestal volledig bovenaan de adresseerbare ruimte, wat zeer simpel is met paging) en zal op elke cpu draaien. Zelf de Linux kernel is niet meer strikt monolitisch, hij kan modules laden met nieuwe functies.
Ja games zijn niet puur concurrent ook niet puur serieel. Maar beetje serieel hak helaas al zwaar in de concurrent winst. ( ref een Cuda pro book )
Er is code afhankelijkheid op andere code output. Bijvoorbeeld branching.

Wat er wel kan is alles wat afhankelijk is in que laten wachten en waar andere code op wacht voorang geven. Het is dan normal dat een crusiale taak even de gross van de cores bezet en in record tijd gedaan wordt zodat afhankelijke code daar op sneller kan beginnen en als meerdere onafhankelijke taken zijn die met de hoogste preoriteit. die waar andere taken van afhankelijk zijn. wat meer cores kan bezetten.

Men noemt dit fine gain mutitreading. Dat werkt niet bij alle taken. En dus de betere oplossing is een hybride form van die easy way en fine grain threading.
Het voordeel is de game kan veel beter schalen met steeds nieuwere hardware met veel meer cores.

Ook is voor veel games de CPU last op renderen na fixed als een bepaalde AIM op mainstream hardware. En daarmee is de CPU taak niet zo zwaar. De vrijheid zit meer in settings voor grafische deel.

Nu zijn er games die AI zwaarder of lichter kan zetten. Extra veel bots. Ook nog slimmer dan gewoon. BF2 bijvoorbeeld.
Of het zijn die optionele GPGPU Effect PhysX enable games.
Maar daarvoor zijn de GPU eisen ietswat hoger door die extra GPGPU belasting.

Meeste games zijn niet zo CPU intensief met wat uitzonderingen.
Of Physics setting trapje hoger maar dat is zeldzaam. De CPU eisen zijn vaak fixed load lag egnoeg zodat de mainstream CPU mee kan. En dan doen quad of meer dan quad voor die games eigenlijk niet toe. De CPU voldoet al ruim.

In die gevallen kan je nog nogal wat background taken er naast draaien.
Waar budged mainsteam samen met de game in verslikt.


Windows regeld het multitreaden met zijn kernel scheduler. Als dev heb je daar beperkt invloed op.
Bij consoles hebben de dev's meer inbreng in het gebruik van cores.
Daar zijn ook cores gereserveerd voor OS taken.

Een game als BF3/4 vereist wat meer van de CPU.
Misschien een hoog conspiracy-gehalte, maar zou dergelijke technologie niet bewust uit de winkel worden gehouden om te voorkomen dat bij CPU's eigenlijk alleen de kwantiteit nog maar telt en dus een enkel exemplaar waardeloos wordt. We worden nu iedere keer lekker gemaakt met op zichzelf staande produkten zoals waar AMD dit ontwerp voor gaat gebruiken maar ergens heb ik het gevoel dat een enorme hoeveelheid 386-kernen ook een heleboel kunnen mits daar de juiste infrastructuur omheen wordt gebakken.
Daar hebben ze ooit de Atom (P4 on steroids) CPU voor uitgevonden en dat was nou niet bepaald een doorslaand succes........
De laatste ontwikkeling hierin zijn servers met heel erg veel kleine rekenkernen, o.a. van Seamicro (AMD) met veel kleine ARM cpu's:
http://www.seamicro.com/

Voor servers loont dat soort geclusterd klein grut wel omdat je redelijk kan voorspellen wat zo'n CPU voornamelijk gaat doen, voor consumenten PC's is dat veel lastiger omdat die veel meer belang hebben bij X86 Legacy + GPU / Audio.

Je hebt dus wel een punt maar dan voornamelijk voor servers.

@hieronder cannibal: Nadat er een modbreak voor nodig was op het AMD topic, ga je nu hier verder, diep triest....... Zoek iemand anders om lastig te vallen !

[Reactie gewijzigd door trm0001 op 20 januari 2014 12:34]

ARM cpu's moeten daar juist nog komen.

Ze werken daar met Opteron's, Xeon's of ATOMS (als klein grut).
Seamicro levert daar de infrastructuur voor om al die CPU's aan elkaar te knopen.

Calxeda was wel met ARM processoren bezig met Fleet Fabric, maar deze zijn sinds kort gestopt.

[Reactie gewijzigd door cannibal op 20 januari 2014 12:30]

Vooral interresant voor workstations en severs maar niet zo zeer voor gamers.
De meeste (oude) games ondersteunen namelijk maar 2-4 cores soms eens 6-8 core ondersteuning maar meer ben ik nog niet tegen gekomen.
Daarintegen, als een (oude) game maar 2 of 4 cores ondersteunt, dan heeft hij waarschijnlijk ook niet meer nodig.
Hoeveel zou die zijn TDP zijn?
Ja ben ook idd benieuwd wat de TDP is als je nu kijkt naar een FX9550 die als tegen de 300 watt gaat belasten. En welk socket zou het zijn ,en zijn er dan ook fabrikanten die deze hoge vermogens ook ondersteund want nu wordt zonder waterkoeling bij geen een fabrikant die hoge TDP's ondersteund.
Mss gaat het mee vallen want AMD gaat ook naar 28 NM.
Hoeveel zou die zijn TDP zijn?
"Both parts fit into 99 Watt TDP, and work in socket G34."

Nice. Hopelijk ook voor consumenten beschikbaar en ik neem er eentje weg. :)
Voor het gros van de consumenten is een 16 core systeem niet bijster interessant. Een quad met fatsoenlijke singlecore prestatie's is al meer als zat. Eventueel met HT als extratje.

Sowieso is het voor AMD de grootste faal ooit geweest om zich te richten op veel cores en de singlecore prestatie's en het aantal "instructies per cloktik" daar de dupe van te laten zijn. De AMD Athlon, Athlon XP, Athlon XP-M en AMD 64 hadden voor hun tijd een goede IPC en intel kon daar met hun Ghz monsters met een veel lagere IPC niet tegen op. AMD won toen niet alleen wat betreft absolute prestatie's maar ook wat betreft energieverbruik. Pas met de core2 duo had Intel echt een antwoord. En ja dat was een Processor die voornamelijk gerichtwas op het hebben van een goede IPC.
Want de sofware die is er al om fatsoenlijk met 16 cores te werken?
Vergeet je niet dat opteron de concurrent is van de xeon?
De xeon en opteron zijn dus veelal in servers terug te vinden, daar waar ze ook voor bestemd zijn.
Zo nu en dan heb je een losse Flodder in een workstation zitten, maar het zijn duidelijk geen thuis cpu's. Voor thuis kan je beter de fx lijn of de Intel i3/7 lijn gebruiken.

@kees onder mij.

Gezien de reactie die je hieronder geeft, spreek je jezelf wel weer tegen toch met Windows 9 en etc. Je praat puur over thuis gebruik en nogmaals daar zijn deze cpu's niet voor gemaakt, dat het kan is een 2e.
Met 16cores heb je inderdaad niet veel thuis en al helemaal niet met Windows 7/8.... Daarom zijn ze ook niet gemaakt voor thuis...

[Reactie gewijzigd door LopendeVogel op 21 januari 2014 14:55]

Ik vergeet helemaal niets.

Ik reageer met een opmerking van een gebruiker die deze als een processor voor een desktop wil gaan gebruiken en geef aan dat desktop besturing systemen van Windows niet klaar zijn om fatsoenlijk met 16 cores om kunnen gaan , ik zie de relevantie van deze opmerking dan ook in het geheel niet.

en @ misterbennie : Dat server sofware wel met 16 cores kan omgaan is een bekend gegeven, daar gaat mijn reactie ook niet over.

Ik krijg helaas de indruk gezien de reacties dat sommige mensen wat problemen hebben met begrijpelijk lezen.
Zie jou reactie hier weer onder.
Je praat puur op basis van thuis gebruik. Daar waar de opteron niet hoort te draaien.
Gezien mijn vakgebied mag duidelijk zijn dat ik wel weet wat een Opteron is, het zou prettig zijn als sommige mensen zich eerst een in een reactie of topic verdiepen alvoren te reageren het hele topic blijft dan iets meer zinvol.

Je reageert op dit: "Ik reageer met een opmerking van een gebruiker die deze als een processor voor een desktop wil gaan gebruiken"

[Reactie gewijzigd door Kees de Jong op 21 januari 2014 15:04]

Kom op ik ga niet je hele post hieronder kopiëren he.
Pure onzin over thuis gebruik. Wat heeft Windows 8/9 of Mac os met 16cores te maken? Althans met de opteron? Helemaal niks..

k heb geen idee hoe een Linux distributie of een Apple OS hier mee omgaan eerlijk gezegd, ik ben maar een simpele Windows gebruiker.

Laten we hopen dat Windows 9 wat meer zal kunnen bieden op dit gebied.


Wil je dat ik door blijf gaan met kopiëren van wat jij zegt of ga je het over mijn begrijpend lezen hebben?
Alles wat ik hier heb draaien op server cpu's werkt prima op 16 cores, of is embarrassingly parallel (bijvoorbeeld priemgetalsoftware hier draai je gewoon 8 instanties op 8 core Xeons - profiteert niet van hyperthreading overigens die software. Gewoon harde 0%, want er kunnen niet meer instructies per clock doorheen gejast worden namelijk gezien feit dat die codes zo optimaal zijn).
Mijn reactie is op een gebruiker die deze zo goed als zeker gezien zijn profiel inventaris als desktop CPU wil gaan gebruiken, op desktop gebied heeft een 16 core cpu weinig nut daar het OS er lang nog niet klaar voor is.
Hier wil ik toch even op inhaken.

Je deponeert een stelling dat er geen software is om fatsoenlijk met 16 cores te werken. Die is er wel degelijk en er wordt op heel wat servers heel gretig gebruik van gemaakt.

Daar het onderwerp van dit topic over een server chip gaat......
Waar staat dat het een server chip betreft? De enige reden waarom mensen dat denken, is omdat het een enorme berg cores heeft. En aangezien normale consumenten software daar i.h.a. niets mee kan, is het "dus" een server chip.

Komt er dus op neer dat je het er impliciet mee eens bent dat er nauwelijks consumenten software is die fatsoenlijk met 16 cores kan werken.
Binnen de tekst wordt de term Opteron meerdere malen genoemd. En dit is de processor reeks van AMD voor servers: Opteron-processor.

Maar je hebt wel gelijk dat het er niet expliciet staat.

Verder zal je mij niet horen zeggen (impliciet of expliciet) dat consumenten software niet fatsoenlijk met 16 cores om kan gaan. Verder zit er een OS op je computer die de verschillende programma's over alle cores verdeelt. Dus zelfs als je programma's het niet allemaal ondersteunen, doet je OS dat wel.

Er zal altijd software blijven die single treaded uitgevoerd dient te worden, maar er is genoeg software die steeds beter gebruik gaat maken van meer dan 1 core.

Het klopt dat, wanneer je af en toe een documentje tik, een browser opent of naar je slide show van foto's zit te kijken, een 16 core processor een beetje overkill is. :)

[Reactie gewijzigd door misterbennie op 20 januari 2014 19:02]

Dat zeker wel. Alleen zal niet iedereen het gebruiken.

Maar ook ik heb er op zich wel oren naar. Vanmiddag nog, Ik speel een potje World Of Tanks, heb de browser open met een bende tabs en wat YT muziek op de achtergrond, Spotnet en SABnzbd+ zijn bezig met downloaden en uitpakken, er kopieert wat over en weer op het netwerk, en bam, een i7-2600 houdt het al niet meer bij, 100% volgestouwd. Echt heel veel is dat niet, en ik denk dat meerdere fervente multitaskers dit wel herkennen.
Die gebruikers die zwaar multi-tasken zullen dat vast ook wel herkenen maar of die 16 cores wel zo veel meer ontlasting zullen geven? Denkelijk alleen als je het leuk vindt om aan cores handmatig een programma toe te wijzen, gemak dient hier de mens dus nog niet.

Ik heb geen idee hoe een Linux distributie of een Apple OS hier mee omgaan eerlijk gezegd, ik ben maar een simpele Windows gebruiker.

Het lijkt wel of alles zich zo snel ontwikkelt maar voor mijn gevoel staan een hoop zaken nog in de prille kinderschoenen.

Laten we hopen dat Windows 9 wat meer zal kunnen bieden op dit gebied.

Voorlopig blijf ik lekker bij mijn oude 4 core processortje totdat er op software gebied niet meer een zo grote achterstand is ten aanzien van de reeds ontwikkelde hardware, geld uitgeven aan nieuw ontwikkelde hardware vindt ik niet erg maar het moet wel iets meer teweeg brengen dan alleen maar pijn in de portemonnee.

Vroeger was het andersom, de software was al geschreven en daar werd de hardware op ontwikkeld om er mee te kunnen werken.

http://www.tomshardware.c...threading-win8,13848.html
De CPUs in de url van 070856DRAGON zijn nog op 32nm gemaakt en hebben piledriver cores.
De CPUs in de url van 070856DRAGON zijn nog op 32nm gemaakt en hebben piledriver cores.
Niet waar
Op de pagina die je nota bene zelf linkte:

Microarchitecture Piledriver
Processor core ? Warsaw
Manufacturing process 0.032 micron
Ook de Opteron 6300-lijn krijgt overigens chips met zestien cores, maar daarbij gaat het om twee dies met elk acht cores in een enkele G34-package. De eerste modellen in die lijn zijn net verschenen bij webshops, constateert Cpu-world.
Er bestond al een 16 core cpu in de Opteron 6300 lijn: o.a. pricewatch: AMD Opteron AMD Opteron 6376 Processor Boxed

Door betere yields kunnen ze wss een hogere frequentie op gelijk TDP aanbieden.

[Reactie gewijzigd door C.Hariri op 19 januari 2014 18:58]

Welke socket? Nou iig een die o.a. dit
"Van de HT-links ondersteunt er een exclusief pci-e 3.0, terwijl er twee puur voor HyperTransport en twee gecombineerde links zijn." naar socket doorvoerd.
Het word tijd dat AMD de concurrentie weer tracht aan te vallen, in figuurlijke zin.
Een CPU markt dat enkel door Intel word gedomineerd, is op veel vlakken niet goed.
PC, consoles, etc..
Ook op het gebied van de GPU moet AMD tamelijk wat veranderen.
Al hoop ik wel dat de TDP gunstig is en niet tegen de 400watt aanleunt.
Denk aan 99 Watt

[Reactie gewijzigd door Dirk_P_Broer op 19 januari 2014 16:06]

99 watt TDP voor een HE versie is wel veel hoor.
Er is niet een enkele TDP voor deze chip. AMD kan er van maken wat ze willen, aangezien zij de klokfrequentie bepalen. 35 watt is waarschijnlijk prima mogelijk, mits de cores op, zeg, ~ 1 GHz laten werken.

Met andere woorden... Het heeft meer zin je af te vragen hoeveel performance je bij welk TDP krijgt. Met name ben ik benieuwd of de FP perfomance redelijk is - ik neem aan dat deze chips voor HPC gemaakt worden, en zo krachtig zijn AMD's chips niet wat dat betreft per core.
De klassieke FPU is niet zo krachtig, maar die wordt dan ook vervangen door de GPU. Als je de math libraries (BLAS, Lapack, etc) van AMD gebruikt ipv de generieke, kun je een enorme versnelling halen (factor 2 - 3). Omdat Blas en Lapack de meest gebruikte bibliotheken zijn kun je bijna all HPC software versnellen met je GPU. Dat betekent dat de oude FPU niet meer zo relevant is. Met een AMD gpu kun je hele chique prestaties halen, vooral in single precision.
TDP hangt voor een groot deel af van hoe hoog de cores geklokt zijn. Maar tis leuk dat AMD zich weer een beetje gaat mengen in de markt van de grote cpu's. Dit kan een leuke concurrent worden in de servermarkt voor Intel's loeidure 15-core Ivy Bridge-EX chip.

[Reactie gewijzigd door Dreamvoid op 19 januari 2014 20:41]

Weet niet welke chip je op doelt. Maar als ik er 1 bijpak bijvoorbeeld de ivy bridge 2697 die heeft 12 cores (24 hyperthreads) en kan dus 12 * 4 * 3.5Ghz (turbo) instructies decoden.

Deze 8 module@ 16 minicore chip kan dus maar 8 * 4 * klokhoogte aan instructies decoden.

Dus da's 50% trager al bij voorbaat indien deze chip de 3.5ghz weet te halen (grote twijfel).

Dan heb je verder een veel tragere L2 cache bij AMD, dus als het gaat om latencywerk dan is hij ook weg.

Hijvalt dus meer te vergelijken als een iets tragere versie van de 2640v2 of 2650v2 van intel. Die draait standaard op 2.0Ghz maar boost tot 3.4Ghz respectievelijk 3.5Ghz.

Die kost echter maar 885 dollar per stuk.

Hoe gaat AMD daarmee concurreren? Moeten ze deze cpu's hoog klokken EN dumpen voor rond de 300 dollar per stuk, anders is het hopeloos. Dat zie ik AMD niet zo snel doen.
Weet niet welke chip je op doelt.
Ivy Bridge-EX

Maar idd, dat 15-core monster is misschien wat te hoog gegrepen, een 16-core Opteron zal denk ik eerder concurreren met de 10 core/20 threads die van Ivy Bridge-EN, dat is een 350 mm2 chip. AMD heeft laten zien dat ze een ±350mm2 chip @ 28nm voor rond de 100 dollar kunnen verkopen (=de console APU's) dus er zou toch wel wat ruimte moeten zijn in de prijsstelling denk ik zo.

[Reactie gewijzigd door Dreamvoid op 21 januari 2014 11:52]

The thermal design power (TDP), sometimes called thermal design point, refers to the maximum amount of heat generated by the CPU, which the cooling system in a computer is required to dissipate.

bron:

en.wikipedia.org/wiki/Thermal_Design_Power More from en.wikipedia.org

Dank je wel voor deze toelichting!!!!! Niet iedereen beschikt over een parate zak met afkortingen.
Sommige lezers, zoals ik, stellen het op prijs, dat zo'n afkorting even wordt toegelicht, op zijn minst de eerste keer, dat ie opduikt in een discussie..
Dan kun je nooit afkortingen gebruiken, want dan kan er altijd iemand zijn die een bepaalde afkorting niet weet.

Als je een afkorting niet weet zoek je het op, precies hoe je het hebt gedaan.

Toch knap dat ze al 16 cores op een die weten te plakken.
Toch knap dat ze al 16 cores op een die weten te plakken.
Je bedoeld knap dat ze gaan inlopen op technologie uit 2010 van het toenmalige Sun Microsystems met hun SPARC T3 CPUs. (Een chip tot op 16 cores, met 8 threads)

http://en.wikipedia.org/wiki/SPARC_T3
Dat ding van SUN was voor slechts enkele workloads geschikt, in algemeen werden die dingen als vreselijk traag ervaren. Tevens ook te laat, i.v.m. in 2010 het al mogelijk was om webservers voor zeer grote sites op relatief standaard hardware/CPU's te draaien.
Vandaar dat er ook hard is doorgewerkt aan die architecturen en inmiddels de SPARC T4 en T5 ook zijn uitgekomen. Grappig dus ook eigenlijk dat lenwar de T3 aanhaalt, en niet de T5 van vorig jaar; wederom 16 cores en 8 threads per core, maar nu op 3.6 GHz en sinds de T4 zijn het out of order cores. Dit samen met vier memory controllers en op kunnen schalen tot 8-socket systemen geeft echt een belachelijke computing throughput in een enkele server, en tegenwoordig (in tegenstelling tot T3 en daarvoor) ook weer een redelijk fatsoenlijke single thread performance. Helaas blijft iedereen een beetje hangen in het 'SPARC is dood' gevoel heb ik het idee, maar het tegendeel is waar. Oracle heeft er juist flink in geinvesteerd en de focus verscherpt... de resultaten liegen er niet om.

Aangezien AMD hier dus ook duidelijk de servermarkt mee wil bedienen ben ik benieuwd hoe deze Opteron zich zal verhouden tot deze systemen. In het begin waren ze erg innovatief met hun schaalbare Hypertransport interconnect, maar daarin zijn ze door Intel met QPI allang weer ingehaald. Ik ben ook benieuwd wat verder de gedetailleerde specs zullen zijn, hoeveel memory controllers en/of kanalen? Een 16-core beest van een processor heeft flink wat bandbreedte nodig om gevoed te worden, anders staat alles het meeste van de tijd te wachten. Ik ben ook benieuwd wat ze qua frequentie zullen doen om hem binnen het 99W TDP te gaan houden.

[Reactie gewijzigd door Squee op 20 januari 2014 21:26]

99% hier zal weten wat TDP is.

Googelen kost je luttele seconden + hoe weet je of je een afkorting gebruikt die een ander niet kent?
dubbelklik, rechterklik, linkerklik op 'google doorzoeken op "zoekterm"' -> eerste resultaat.
Dat is wel het minste wat hier van je verwacht wordt, denk ik zo...
2 cores = dual core
4 cores = quadcore
6 cores = hexacore
8 cores = octacore
16 cores = ?
volgens mij is dat een Hexadeca-core
hexadeca-core. Ergens op wikipedia staat een lijst hoe je deze kunt benoemen.
Hollands bekt lekkerder: zestienkerner ;)
Octatwincore? Het zijn in dit geval 8 dualcores, dus 8 x 2
Dualoctacore :P

Nee ik denk dat hexadecacore wel klopt
Kan iemand mij vertellen wat ik hier als doorsnee consument aan zou hebben. Ik heb het gevoel dat voor mijn computer gebruik, inclusief grafisch intensieve games, zelfs nog maar sporadisch een keer een quadcore wordt gevraagd. Terwijl deze al een jaar of 6 (?) redelijk te verkrijgen zijn. Wat moet ik met 16 Cores?
Wellicht moet je je eerst afvragen of deze cpu('s) bedoelt zijn voor de consument, of ze verkrijgbaar zijn voor de consument, en betaalbaar zijn voor de consument. Als het antwoord op alle drie positief is zou ik me pas druk gaan maken of je er wat aan hebt als consument.
Vroeg of laat zal het wel voor de consument beschikbaar komen. Misschien niet onder de naam Opteron. Onze huidige processors zullen ook niet direct op de consumenten markt gezet zijn. Hiervoor zal destijds vast ook eerder een zakelijke toepassing gezocht zijn.
16 core CPU's zullen inderdaad wel voor consumenten beschikbaar worden, maar tegen die tijd zijn het OS en de toepassingen als weer verder geëvolueerd, en dan is het antwoord op de vraag of je er wat aan hebt als consument anno 2014 achterhaald.
Dat dit een Opteron processor is geeft al antwoord op je vraag: dit is niet gericht op consumenten.
De naam opteron geeft natuurlijk al het antwoord op die vragen: 3x nee :+
Heb jij helemaal niks aan Ben.
Opteron processors zijn bedoeld voor de servermarkt en voor supercomputers. Niet echt voor de consument.
Ik ben benieuwd of Autodesk Inventor hier beter op draait dan op processoren van Intel: het maakt geen verschil of ik dat draai op een i5 of een i7 omdat Inventor niets met hyperthreading kan. Wellicht dat deze AMD processor een uitkomst zou zijn omdat we toch wel flinke CAD-tekeningen moeten door rekenen.
Voor high end Cad moet je nooit AMD hebben, per core is een Intel daar gewoon wat sneller in. De meeste Cad draait vooral op 1 core.. Als je nu op een high end CPU werkt ( 4770/4670/xeon 1240v3 etc ) dan is de enige manier on meer snelheid te krijgen overclocken.

Kijk dan bijv. eens naar een overclocked werkstation van BOXX. Zelfdoen is natuurlijk goedkoper :)
die cad van een paar jaar terug ja
de nieuwste autodesk programma's gebruiken er meer
neem nu revit 2014 die gebruikt tot wel 16core's

dus in bepaalde gevallen is een amd 16core best interessant
Ik neem aan dat je weinig ervaring hebt met dit soort software?

Met renderen of bepaalde simulaties wel ja maar aangezien dat ook steeds meer op een farm al dan niet in de cloud gedaan wordt maakt dat ook minder uit.

Het meeste tekenwerk en interactie mat cad apps inc. Revit is singlethreaded. (dus intel met OC is snelste optie)

[Reactie gewijzigd door maratropa op 19 januari 2014 12:50]

ik doe niks anders..

als je onder tekenen verstaat het alleen ''streepjes'' zetten dan heb je gelijk
Niet verkeerd bedoeld hoor! Maar veel gebruikers snappen er zelf al niet zo veel van qua hardware is mijn ervaring en laat staan mensen die geen ervaring met dit soort apps hebben.. En dan maken mensen door wat te roepen het alleen nog maar onduidelijker..

Alleen streepjes zetten :) wordt natuurlijk niet snel ge-bottlenecked maar in veel software zoals revit, solidworks, sketchup maar ook 3dsmax etc is de singlecorensnelheid bepalend voor een groot deel van het werken met de applicatie. Als er eenmaal met wat zwaarde modellen gewerkt wordt is een Intel met zo veel mogelijk mhz op 1 core het meest belangrijk.
Hoe bedoel je? Volgens mij spreek ik fabrikanten niet tegen. Het zijn complexe programma's en daar kun je niet zo maar algemene uitspraken over doen.
zie de reactie van tinusbalpol waar jij op reageerde
en dat is nog maar een van de zoveel stukken die je kan vinden op de site van autodesk zelf

waarom doe je zelf dan wel een algemene uitspraak?
(door te zeggen; De meeste Cad draait vooral op 1 core)
sinds 2012 zijn de meeste programma's multie en of dat dat bij jou wel of niet zo is ligt aan wat jij doet met zoon programma

maar dit is inmiddels erg of topic en is niet interessant (vind ik)
Nou er zijn nogal verschillende fases in het werken met 3Dmax.
Het modeleren en het renderen. Dat is groot verschil en heeft andere hardware eisen.

Als noob op dit gebied zie ik wel de zin in workstation en een renderfarm.
Ik weet dat next gen games (frostbite 3 engine) meer dan 4 cores kunnen gebruiken, maar kunnen ze dan ook omgaan met 16 cores en krijg je er extra fps door. Of heb je er alleen wat aan voor dingen als renderen?
dat moet met de introductie van AMD mantle nog beter worden
Mantle zorgt er juist voor dat CPU veel minder belangrijk wordt.
Ik weet dat next gen games (frostbite 3 engine) meer dan 4 cores kunnen gebruiken, maar kunnen ze dan ook omgaan met 16 cores en krijg je er extra fps door. Of heb je er alleen wat aan voor dingen als renderen?
Het zijn Opterons, die zijn sowieso niet bedoeld als gaming-CPU's. Dit zijn serverprocessors dus de gaming-performance zal niet interessant zijn.
Battlefield 3 draaide al veel beter op een 4 core met HT. Die maakte ook al gebruik van 8 threads. Een Normale quadcore had er al moeite mee.

Dus, ja. je hebt er wat aan met de nieuwste games.

Overigens heb je aan de benchmarks op sites niets aan de scores, want dat is allemaal single player. Juist met een 64 player server merkte je dat je CPU belangrijk was.
Dan speel jij niet multiplayer. met 64 spelers op iedere grote map komt een dikke cpu met veel cores van pas.
Mijn amd 1100T cpu geeft anders aan dat bij btf3 toch echt drie cores in slaapstand staan?

Bij btf4 zijn er 5 van de 6 aan het werk....

Dikke cpu is al jaren niet meer nodig om games goed te draaien. Elke mid-range cpu is voldoende voor de zwaarste games. AMD of Intel maakt niet uit.
Wat moet je anders spelen bij BF3? 8)7

en ook op 64 player maps heb ik geen problemen met een quad core, en ik denk heel veel mensen met mij, want heel veel mensen met meer als 4 cores zijn er niet

Dat je minimaal 4 cores nodig hebt klopt wel ja
Op welke SOC van AMD gaat dit draaien, of lees ik er over heen?
Socket G34 dacht ik ergens te lezen
Ik ben wel benieuwd hoe snel deze gaan, aangezien in de fx serie des te meer cores minder kloksnelheid was.

http://en.wikipedia.org/wiki/Bulldozer_(microarchitecture)
Grote twijfel hier ook of ze wel hoge kloksnelheden halen. Echter AMD heeft 1 megavoordeel. Da's Sony en Microsoft. Daarvoor produceren ze veel processoren (apu's). Dat betekent in theorie dat er plek is in 't midden voor server cpu's en aan de buitenkant van de wafer alle sony en microsoft cpu's.

Mocht deze theorie kloppen dan kan AMD dus aan die binnenkant van de ronde wafer hele gave goed gedrukte modellen produceren die heel hoog klokken.

Is natuurlijk een theorie. De praktijk moeten we nog zien.

Probleem is prijs. De prestaties van deze cpu zullen gelijk zijn aan iets lager geklokte 8 core server cpu's van intel. Wil AMD op prijs gaan concurreren?

Als je zo ENORM VEEL cpu's al produceert voor sony en microsoft, zou het dit keer een keertje moeten kunnen voor AMD. Maar gaan ze 'm ook goedkoop dumpen?

Dus zeg 2.2Ghz chip die boosten kan naar 3Ghz, 8 modules @ 16 minicores heeft en voor 300-350 dollar in de winkel ligt EN werkt tot 4 sockets?

Eerst zien dan geloven. AMD's prijsstelling is gewoon AAN DE HOGE KANT afgelopen jaren voor hun server cpu's. Ze concurreren niet met intels goedkopere modellen die voor gros van workloads stuk sneller zijn ook nog.
Ik ken geen fabrikanten die meerdere designs op 1 die gebruikt. Heb je concrete voorbeelden?

De praktische reden is dat het gebruikte aantal lagen per design verschilt. Het is bepaald niet efficient om je APU's door 4 overbodige ets processen te sturen die volstrekt overbodig zijn en alleen maar schade kunnen veroorzaken. Maar een grotere chip heeft typisch wat meer lagen aan interconnects nodig.
DIt is natuurlijk heeeel leuk in een vSphere host.. :)
Als iedereen gelijk op google duikt .... heb jij niets meer te bekritiseren zou dat niet zonde zijn. Een dag geen kritiek een dag niet geleefd. ;-((

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True