Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties

AMD heeft een vernieuwde roadmap voor zijn Opteron-cpu's onthuld, waarin een Opteron met twaalf cores wordt aangekondigd. Vier prototypen van die processor werden in een moederbord geplaatst, om een 48 kernen tellend monster te maken.

Op de nieuwe roadmap van AMD prijkt de Opteron 6000-serie. De roadmap laat een vervroeging zien van de introductie van zowel de zeskernige Istanbul-cpu als van de 6000-serie Magny Cours-cpu. Die zullen nu respectievelijk in het tweede kwartaal van 2009 en in het eerste kwartaal van 2010 uitkomen. Magny Cours is feitelijk een multi-chip-module die uit twee Istanbul-packages bestaat. Dat impliceert dat Magny Cours over twaalf kernen kan beschikken. De cpu's in de 6000-serie kunnen in moederborden met twee of vier sockets gebruikt worden. AMD demonstreerde dit door vier twaalfkernige Magny Cours-cpu's in een enkel moederbord te plaatsen, waardoor er uiteindelijk 48 kernen konden worden aangesproken. AMD draaide echter geen benchmarks, waardoor onbekend is tot welke prestaties deze configuratie kan komen.

AMD verwacht dat de Istanbul met zijn zes kernen op het gebied van floating point-bewerkingen tot 30 procent beter zal presteren dan de huidige, vierkernige Shanghai-cpu. Bewerkingen met integers zouden zelfs 70 procent sneller verlopen. Magny Cours zou in vergelijking met de Istanbul-cpu bij floating point- en integer-berekeningen voor een prestatiewinst van respectievelijk 85 procent en 50 procent moeten zorgen.

Server met vier twaalfkernige cpu's

Moderatie-faq Wijzig weergave

Reacties (71)

Het is nogal logisch dat de processor een versnelling tot x procent gaat leveren, mits de aanvoer goed is. Het meeste verlies zal denk ik geleden worden op het coordineren van de taken die de cores te doen krijgen. Ik ben bang dat met zoveel cores het een lastige klus word om alles in goede banen te leiden.

[offtopic-maar-wel-leuk-om-te-vermelden]
Volgens mij is de marketinggozer die de namen verzint een enorme F1 fan, zijn allemaal steden waar F1 circuits liggen namelijk :P
[/offtopic-maar-wel-leuk-om-te-vermelden]
Ik ben bang dat met zoveel cores het een lastige klus word om alles in goede banen te leiden.
In ieder geval zijn Windows 7 en Windows Server 2008 R2 er klaar voor. De limiet is verhoogd van 32 cores naar 256 cores.
256 cores zullen binnen 5 jaar waarschijnlijk ook alweer achterhaald zijn, :p. Nouja, misschien niet voor de gemiddelde consument.
Ik dacht dat er geen limiet zat aan het aantal cores, maar aan het aantal CPU's. Tot op heden kan elke Home editie van Windows max 1CPU aan sturen, en Pro versies max 2. Gaan ze dit nu ook eens verhogen naar 4 of 8 CPU's? Ik heb het namelijk nog steeds raar gevonden dat je voor een high-end Workstation je steeds een Server OS moet pakken, terwijl het limiet eigenlijk een registerwaarde is als cap.
De limiet of het aantal CPU's (sockets) is een licentie aangelegenheid. Dus verschillende uitvoeringen van Windows hebben een beperking in het aantal ondersteunde sockets. Dit staat los van het aantal ondersteunde cores.

Tot nu toe ondersteund iedere 32-bits versie van Windows maximaal 32 cores. Voor 64-bits versies is dat 64 cores. Dus ook al ondersteund jouw Windows licentie maximaal vier sockets, dan kun je wel vier 8-core processors gebruiken.

Zoals YopY al is in Windows 7 en in Windows 2008 R2 het aantal cores verhoogd tot maximaal 256.
AMD sponsorde F1 racing, vandaar de naamgeving.
Het heeft allebei met zo snel mogelijk gaan te maken he :)
Allemachtig, wat een bak joh.
48 Cores, daar kan je genoeg op draaien denk ik maar :)
Handig voor grote bedrijven die grote servers nodig hebben, maar voor kleine bedrijven is dit echt veels te veel.
Gewoon overkill :P
Handig voor grote bedrijven die grote servers nodig hebben, maar voor kleine bedrijven is dit echt veels te veel.

Eigenlijk slopen ze hun eigen markt (ook Intel). Waar vroeger een 4 of 8-way machine nog interessant was is nu een dual socket al zo rap dat bijna alles erop draait. Zeker als je bedenkt dat alles met meer dan 2 sockets altijd maanden achterloopt op de 2 socket machines en soms ook nog eens lager geclocked blijft dan moet je wel een hele specifieke toepassing hebben om een 4 way machine te kunnen verantwoorden.

Als de 12 core pin compatible is met de 6 core cpu dan heeft de 12 core variant dus evenveel geheugenbandbreedte als de 6 core. Hangt dus echt van je toepassing af of dit interessant is.
Eigenlijk slopen ze hun eigen markt (ook Intel). Waar vroeger een 4 of 8-way machine nog interessant was is nu een dual socket al zo rap dat bijna alles erop draait. Zeker als je bedenkt dat alles met meer dan 2 sockets altijd maanden achterloopt op de 2 socket machines en soms ook nog eens lager geclocked blijft dan moet je wel een hele specifieke toepassing hebben om een 4 way machine te kunnen verantwoorden.
Inderdaad, waar je vroeger snel twee of drie servers nodig had (mail, file, database) kun je het nu met één server af en een aantal virtuele servers.

Ik heb het idee dat de hardware voor gaat lopen op de software ontwikkeling, dat ging altijd redelijk gelijk op, een windows had een "snelle" server nodig, tegewoordig is dat niet meer het geval. (uitgezonderd specifieke taken als hele grote databases, die draait het gros van het mkb toch niet)
Ik heb het idee dat de hardware voor gaat lopen op de software ontwikkeling
Daar lijkt het wel op ondertussen. Je ziet hetzelfde gebeuren met videokaarten. Een Radeon HD4890 krijg je al amper meer op z'n knieën, dan moet je alles uit de kast trekken en zelfs dan wordt het nog geen slideshow.

Als systeembeheerder is dit overigens wel ideaal. Met een entry level server draait alles al soepel en mocht je toch na een paar jaar ergens tegen aan lopen dan haal je zo weer een nieuwe. Geen high-end spullen, met high-end handleidingen en bijbehorende prijskaartjes meer.
Voor systeembeheer is dit idd ideaal. Vroeger had je voor elke taak een fysieke doos. Nu haal je gewoon 2 identieke dozen en virtualiseer je met 2 bakken waar je voorheen een compleet rack voor volgebouwd had. Die 2e bak is optioneel, maar wel zo handig ivm failover als de 1e kapot gaat ;)
Waar haal je dat de meer dan 2 sockets achterlopen? Bij de lancering van Shanghai werd anders de gehele lijn 1xxx, 2xxx en 8xxx samen gelanceerd. En kloksnelheden zijn over de gehele lijn te verkrijgen, nix lager geclockte processors op de 8xxx modellen.
Handig voor grote bedrijven die grote servers nodig hebben, maar voor kleine bedrijven is dit echt veels te veel.
Gewoon overkill :P
Daar kun je helemaal niets van zeggen. Als je een bedrijf hebt die (financiële) transacties doet of een flinke database heeft, dan kan die power best van pas komen, ook al ben je klein.

Overigens heeft Intel al een tijd 6-cores in de verkoop, maar weer niet in 8-socket servers voor zover ik weet, wel 4-socket zoals de DL580 G5.

Die berekeningen zullen wellicht sneller gaan op de chip, maar die data moet ook nog naar de chip gebracht worden. Ik ben dus benieuwd wat het in de praktijk voor winst oplevert.
Je zegt het zelf eigelijk ook al, maar databases hebben op zich weinig behoefte aan 48 cores, en meer aan snelle i/o. Dat is tenminste tot nu toe nog de meest bepalende factor bij databases.
Het is maar net at je database doet en hoe je database schaalt op meerdere cores. MySQL op deze bak uitvoeren is tamelijk nutteloos, na 8 cores gaat de performance amper omhoog bij MySQL.
Behalve snelle I/O heeft een database vooral belang bij genoeg geheugen. Ik heb liever een 8-core server met 64GB geheugen dan een 48 core server met 16GB geheugen.
deze 48 core server gaat quadro-channel geheugen krijgen en heeft een snoop filter voor de HTT links, waar ze er ook nog 1 extra van hebben.
de I/O zou hierdoor een heel stuk hoger moeten kunnen zijn als met de huidige opterons

(had eigenlijk @ yopy moeten zijn)

[Reactie gewijzigd door Countess op 27 april 2009 13:39]

In dergelijke servers kan men tegenwoordig 256GB plaatsen. Snelle IO kan met Infiniband via het HTX slot.
Die verhalen over financiële transacties heb ik nooit gesnapt. Zelfs het Nederlandse record dat in december werd neergezet is maar een paar transacties per seconde. Dat moet toch zelfs een enkele netbook bij kunnen houden?
Hetzelfde geld voor de belastingdienst: 20 M aangiftes x 50 nummers x 8 bytes = 8GB. Daar moet een beetje desktop in een paar minuten doorheen weten te komen, laat staan in een paar maanden.
Hoezo overkill, als jij een renderfarm wilt en je koopt 2 van zo'n bakken dan ben je toch redelijk snel gebakken. Daar zijn gaming studio's of animatie bureau's toch goed mee gediend!
Zouden renderbakken niet meer gediend zijn met GPGPU zooi? dwz processors met ingebouwde shaders / videokaarten of rijen met stevige videokaarten.

Dit soort systemen (48 core-bakken) zouden het ook wel kunnen doen op zich, maar volgens mij zijn GPU's toch iets beter / efficienter / sneller voor specifieke taken.
Het berekenen van 3d renders wordt door je cpu gedaan, niet je gpu. Het is uiteindelijk namelijk allemaal wiskundig.

Dus voor renderfarms kan dit leuk zijn... hangt er natuurlijk vanaf hoe goed de cpu's zijn in bepaalde specifieke berekeningen (niet elke cpu is hetzelfde en bedoeld voor het berekenen van 3d renders).

[Reactie gewijzigd door jlammertink op 27 april 2009 12:37]

3D renders kunnen prima op GPU gedaan worden. Doch wordt dit doorgaans niet erg vaak toegepast. Vroeger hadden kaarten compleet losse pipelines van de rest van het systeem, aparte rasterizers, texture units, deze zijn nu allemaal geintegreerd in één GPU. Echter met een render kom ik er toch wel achter dat renderen over de videokaarten geen goed resultaat geeft. Daarentegen zijn kaarten als bijv de Tesla wel geoptimaliseerd, en heb je losse kaarten in de vorm van Raytrace engines. Deze nemen de taken van de CPU over en renderproces gaat een factor 20 sneller.

Maar vaak blijkt een normale renderbak goedkoper, al is dit dus een waas die men vaak voor ogen houd. Een kaart die 10-20x sneller is, is 7x duurder dan een instap rendernode met 2 CPU's.

Echter als je gaat kijken naar geavanceerdere systemen, dan zit je toch snel in de kosten. Een paar GPU rendernodes van ART-VPS zullen goedkoper zijn dan een quad bak vol 6 core CPU's, en sneller.

AMD wilde gewoon een statement maken waar het bedrijf toe in staat is. Ondertussen heb ik gemerkt dat AMD zoveel paper launches heeft gemaakt, dat het vertrouwen een beetje wegglipt. Met zo'n demo wekt het weer vertrouwen.

edit:
@ reacties onder mij. Begrijpend lezen! Je spreekt in taalgebruik mij tegen door te bevestigen wat ik zeg. De drempel van 1 CPU rendernode is alleen lager dan 1 GPU rendernode, al is een GPU rendernode dus in prestatie veel sneller per euro. En ik geef ook aan dat een GPU rendernode veel goedkoper is dan een 48core CPU rendernode.

[Reactie gewijzigd door Hardware Junk op 27 april 2009 13:56]

Ik snap eerlijk gezegd niet hoe je een doodgewone consumer GPU met 480 cores en 1.8GB geheugen voor onder de $500 kan verslaan (GTX295), zeker als je die in quad setup draait. Dan zit je voor $2000 op 1920 render cores. Welliswaar draaien ze maar op 1Ghz oid, maar dan nog lijkt dat me een stuk beter dan 48x 3Ghz oid.
Ik snap niet waarom jij in Ghz rekent, en core's optelt en vergelijkt met elkaar, dat is onmogelijk, alleen de uit eindelijke resultaten zijn te vergelijken.

3 x 1ghz core van HD4890 staat niet gelijk aan 1 x 3 Ghz core van Opteron.

400 core's kunnen langzamer zijn dan 1 core, zolang je niet weet wat er gedaan word door die cores en wat de cores kunnen, en hoe ze opgebouwd zijn.

Vraag me ook af of je überhaupt wel alles kan renderen op een GPU en je niet nog steeds een dikke cpu nodig heb om het een en het andere te berekenen voor de gpu. Dat zie je ook bij folding@home GPU client, daar kan ook niet geheel door de gpu alleen gedaan worden, en heb je niks aan meer gpu's als je ook niet meer cpu kracht erbij zet.
Omdat het over rendering (raytracing eigenlijk in dit soort scenarios) ging, iets dat vrij lineair schaalt in alle dimensies. Bovendien zijn de GPU cores hier speciaal voor gemaakt. Ik zei overigens niet dat het 1-op-1 te vergelijken is. General purpose code draait slecht op GPUs. Branching is bijvoorbeeld een dure operatie. Floating point precisie zou ook een issue kunnen zijn; de meeste GPUs gebruiken maar 32bits, wat meestal genoeg is voor rendering. Aan de andere kant kunnen GPUs weer beter overweg met gigantische hoeveelheden "threads", ideaal voor rendering.

Ik had wel de clock iets te hoog voor GPUs met 1Ghz, dat moet eerder iets als 675Mhz zijn. Rendering gaat in de praktijk voornamelijk om FLOPS. Een voorbeeldje uit de praktijk:

Wikipedia info over FLOPS op quad-core en GPU:

"As of 2008, the fastest PC processors (quad-core) perform over 70 GFLOPS (Intel Core i7 965 XE) in double precision[17]. GPUs are considerably more powerful, for example, in the GeForce 200 Series the nVidia GTX 280 performs around 933 GFLOPS on 240 processing elements in single precision calculations."

Stel we nemen nu 0.675Ghz clock voor de GPU cores, maal 240 geeft dat 162. Voor de quad-core hebben we 3.2Ghz maal 4 geeft 12,8. De verhouding geeft dan aan dat de GPU ongeveer 162/12.8 = 12.7 keer "beter" zou presteren. GPU haalt volgens wiki 933 GFLOPs, en de CPU 70GFLOPS. die verhouding is 933/70 = 13.3. Aardig in de buurt van de 12.7 schatting aan de hand van het aantal cores en de kloksnelheden.

Natuurlijk zijn CPUs beter op andere gebieden. Data doorvoer is ook een belangrijk punt, aangezien je toch de data van en naar de GPU moet krijgen. Dat kan erg traag zijn.
Sorry maar je vergelijking is niet echt correct. Die resultaten voor de cpu is bij "double precision" en bij de gpu "single precision". Dit is nogal al een groot verschil en dus geen eerlijke vergelijking.

Volgens dit artikel http://perspectives.mvdir...ingGPGPUsNVidiaGT200.aspx heeft de GTX 280 zo een 78 GFLOPS bij "double precision", groot verschil niet? Een gpu is nog altijd sneller in raw flops, maar vergeet niet dat de x86 core kan genieten van zeer goede ontwikkel tools en goed optimaliseerde algoritmes.
je zult dan voornamelijk de bus snelheid missen, en natuurlijk driver optimalisaties...

en de energie optimalisaties...


maar een goedkope GPU oplossing is iig veel sneller dan 48 cpu'cores
ik denk dat je die cpu cores eerder in een compiler farm zult benutten, en natuurlijk in virtual clusters, (denk je eens in dat je met dit soort opstellingen maar 1 rack nodig hebt om een volledig server park te virtualiseren...
Goedkoper? dude die Tesla computer van Nivida zijn zo ontzettend veel sneller dan een even dure render farm. Als die goed overweg konden met MetalRay of Renderman waren er volgends mij al geen renderfarms meer.

edit: het deel waar ik op reageerde zie ik ook niet meer terug in je post. Hoe dan ook, we zijn het dus met elkaar eens =).

edit @ reactie onder mij: dat zeg ik,. (een tesla computer bestaat uit videokaarten btw)

[Reactie gewijzigd door nr12 op 27 april 2009 15:27]

Mental ray gebruikt nog gewoon de cpu hoor..
of gaat dat sinds 3ds max 2010 op de gpu?
nope.

de oude renderfarm van pixar bestond uit p3-866 processors en een onboard videokaart... zegt genoeg lijkt me :)
Tuurlijk kan het ook door GPU's gedaan worden... maar zo werkt de meeste software op het moment gewoon niet (renderers).

[Reactie gewijzigd door jlammertink op 27 april 2009 15:45]

je hebt helemaal gelijkt dat ze er meer snelheid uit zouden kunnen halen. Helaas is de software hier niet voor geschreven. Teminsten Maya hardware render kan hier wel goed gebruikt van maken, maar de goede renderers niet, zoals Metalray en Renderman.
Een 48 core bak komt dus zeer goed van pas in de animatie sector die geavanceerde renderers gebruiken.
AMD draaide echter geen benchmarks, waardoor onbekend is tot welke prestaties deze configuratie kan komen
Ongetwijfeld heeft AMD wel benchmarks gedraaid, maar deze alleen niet openbaar gemaakt. Zouden ze misschien tegenvallen in performance per watt?
Ik ben natuurlijk erg aan het speculeren... Misschien is het gewoon omdat het een prototype is en er nog aan getweakt moet worden.
Denk ik ook - 48 cores samen laten werken krijg je (volgens mij) enorm veel overhead bij, en ik betwijfel of deze bak precies 48 keer zo snel zou zijn als een vergelijkbaar systeem met 1 core.
ik betwijfel of deze bak precies 48 keer zo snel zou zijn als een vergelijkbaar systeem met 1 core.
Ik kan je garanderen dat dat niet zo is, opschalen naar meer cpu's gaat nooit met 100% winst.

Ik denk ook dat ze nu geen benchmarks vrijgeven om Intel nog geen richtgetallen te geven, zo ver voor introductie geef je Intel daarmee wel heel veel strategische info in handen.
Dat zeggen ze zelf toch ook al :?
AMD verwacht dat de Istanbul met zijn zes kernen op het gebied van floating point-bewerkingen tot 30 procent beter zal presteren dan de huidige, vierkernige Shanghai-cpu.
^^zie vet gedrukt
Van 4 naar 6 kernen is 50% + daarnaast nog nieuwe architectuur.
Ze gebruiken een prototype multi-chip module van een Instanbul core met 6 kernen die zelf nog niet eens officieel geintroduceerd is.
Als je uitgaat van een huidige Opteron (of Phenom) chip die een TDP van 95-125W heeft, dan is de TDP van zo'n multi-chip module een probleem-punt.
Ze kunnen op dit moment alleen een draaiende multi-chip module maken door de chips een niet al te hoge klok te geven...
Vandaar ook nog geen benchmark resultaten, schat ik zo in.

Zie ook: AMD komt met extra zuinige opterons.
Twee van die opterons hebben niet echt een hoge TDP, maar dan is de klok wel wat lager dan van de echte performance opterons (die op 3.0+ Ghz draaien).
Huidige Opterons hebben een ACP van 40-89W. AMD heeft Quadcore 2.3GHz CPU's met een ACP van 40W. Als je gaat beredeneren naar nieuw ontwerp waar yields minder goed zijn, moet je er toch 68W per 2GHz uit kunnen persen met de know-how die er toch al is. Dan zit je met 12 cores op 3x 68W = 204W. Haal er een Wattje of 10 vanaf vanwege geheugen controller, zit je nog onder de 200W. In de gebruikte kast is het prima mogelijk 4x 200W ACP te koelen. Eerst dacht ik van 'waarom niet ter demo een 8 CPU 12 core monster', dat gaat inderdaad lastig worden, maar 4x 200W is prima mogelijk. 800W voor 4 CPU's lijkt veel, maar over 48 cores valt dit allemaal mee hoor. Het is geen machine die je thuis neer zou zetten als gamebak.

Verder is het ook niet zo dat ze in de kast Noctua ventilatoren gebruiken en hele kleine koelblokjes. Twee rijen server ventilatoren + grote heatpipe blokken, en je hebt niet eens waterkoeling nodig.
Bij bepaalde server apps, is er meer voordeel te halen uit tragere, maar meerdere cores dan bij minder snelle cores. Daarom wil AMD in de toekomst de 4p meer naar de vele iets tragere cores willen duwen. En de 1p en 2p richting de minder, maar sneller cores.
Met 48cores kan ieder proces op zijn eigen core draaien.
hoeft een core eindelijk geen twee dingen tegelijk te doen. ;)
Is dat zo? Een proces heeft vaak meerdere threads. Beetje jammer als dat allemaal op 1 core wordt uitgevoerd. Zitten er 47 cores niks te doen en heeft mijn mutli-threaded app vertragingen door alle context switches die op die ene core worden uitgevoerd.

Lijkt me niet echt handig om de workload op die manier te verdelen. ;)
Inderdaad. Een core voert een thread uit en heeft niet zo veel met processen te maken. Om de X clock cycli wordt geswitched naar een andere thread, misschien wel (zeer waarschijnlijk zelfs) van een ander proces. Het maakt voor de performance ook niet uit of die thread van hetzelfde proces is of van een ander proces. Door een proces niet specifiek aan één core te "koppelen" kunnen meerdere thread van hetzelfde proces parallel op meerdere cores worden uitgevoerd.

Het is bijv. in Windows het overigens wel mogelijk om een proces specifiek aan één core te koppelen (processor affinity) maar dat is meer bedoeld voor processen die niet compatible zijn met een multi-core systeem (meestal veroorzaakt door slecht programmeerwerk). Het komt de performance over het algemeen echter niet ten goede.
Het maakt voor de performance zeker wel uit hoe je processen over cores mapt. Het probleem is dat de caches niet universeel zijn. Elke core heeft een kleine eigen cache (de zogenaamde Level 1 of L1 cache). Grotere caches worden typisch gedeeld tussen cores in 1 socket (Level 2=L2, soms Level 3=L3).

Die cache bevat zowel de code als de data van een programma, dus het helpt om threads en cores enigzins bij elkaar te houden. Threads van 1 proces delen code, dus het helpt ook om processen en cores geassocieerd te houden. En vanwege de per-socket L2 caches helpt het dus in multi-socket machines om threads en processen ook te associeren. Het spreekt voor zich dat dit een voortdurend onderwerp van OS optimalisaties is.
Goed punt !

Heeft een OS eigenlijk nog invloed op de caching in een processor ? Of wordt dit volledig door de hardware geregeld ?
Als je met grote hoeveelheden geheugenbewerkingen gaat werken kan ik me voorstellen dat je toch wel een paar reepjes per fysieke CPU wilt reserveren.. Het zal je geheugenbanen in ieder geval goed voltrekken...
Standaard vanaf de Magny cours en socket G34 is er quad-channel geheugen voorzien en voor elke processor tot 12 geheugenreepjes.
ben wel benieuwd of de chipset al dit cpu geweld wel aankan.
want met 48 cores wil je natuurlijk ook de nodige gigabytes data per seconde kunnen verwerken anders heeft het helemaal geen nut.
Gelukkig hebben deze CPU's allemaal hun eigen lokale geheugen via de ingebouwde geheugencontroller en twee of drie (?) HT connecties naar hun directe CPU buren. Dus hier komt nog geen chipset aan te pas.
Vanaf de 12-core magny cours en de socket G34 worden er 4 HT links per processor gebruikt, en wordt er gebruik gemaakt van quad-channel DDR3 geheugen.
De bandbreedte zal dus serieus de hoogte in gaan, om de vele cores te kunnen voeden met data.
allemaal fijn maar de data zal toch echt opgeslagen worden op een of ander medium en het is vooral die interface die volgens mij wel ééns zwaar te kort zou kunen schieten.

neem een database van 1TB, stel dat die 1TB data in het geheugen zit van dit monster zal de uitkomst van een Query rete snel op het scherm staan , moet deze data beetje bij beetje opgehaald worden dan mag je nog 48 cores hebben maar die zitten dan toch echt te wachten op data die veels en veels te traag aangeleverd wordt
Dat was al gemeld; wat jij beschrijft heet "IO-bound". Dat soort systemen hebben geen 48 cores nodig; die hebben 48 SSDs nodig. Daar kun je makkelijk een 1TB database in kwijt, met ruimte voor een hele zooi indexen.
Dit zullen leuke setups worden voor van die echte huge datacentres.

Paar rekken met dit soort setups, via fibrechannel links verbonden met nog een aantal rekken met flinke storage op flinke snelheid.

Ik denk dat dit soort setups behoorlijk ruimte besparend kunnen zijn voor echt hele grote bedrijven, en zo niet, iig veel meer performance op hetzelfde stuk vloeroppervlakte van het daadwerkelijke datacenter.
Super, jammer dat ik het geld niet heb om zo'n processor voor mijn toekomstige server te kopen.. Maar zeker wel wat waard 48 cores. En 24GB werkgeheugen en nog een goede videokaart, en je draait echt een hoop en snel te geijk ;)
Ik wil zeker als deze processoren wat goedkoper worden er eentje hebben :)
Goede videokaart? Voor je server?
Tis wel handig, als je bijvoorbeeld het videostream server doet ;) En het is toch zonde om iets achter wegen te laten als je het geld er voor hebt ;)
Ook een videostream server kan zonder videokaart. De videostreams gaan er namelijk via het netwerk uit. 't is de videsotream client die de stream via het netwerk binnenkrijgt en via de videokaart er weer uitstuurt, maar dat lukt je nog wel met een Atom.
nou, als deze dingen ook als 1 "cpu" setups komen, dan kan het best leuk zijn voor bijvoorbeeld games als Flight Sim X, die trekken het vol door tot aan de laatste core hoor, hoe meer hoe beter, ook zeker wat betreft videokaart, dus dan kan die wel handig uitkomen.
Ik had liever gezien dat ze aangaven hoeveel sneller hun proto type was dan bijv. een dual Xeon E5540 processor systeem van Intel. Ik mag toch wel hopen dat een nieuwe generatie beter en sneller is dan de vorige. De vraag is altijd, wat doet het ten opzichte van de concurrentie.

een quad cpu systeem koopt men niet omdat er Intel of AMD erop staat. Ze kopen een systeem omdat dat systeem met een bepaald budget de meeste performance koopt. Momenteel is dat meestal Intel, maar goede concurrentie is altijd welkom bij deze tak van sport.
even om jou een beetje aan te vullen @ Niemand_Anders

Wat jij zegt is gedeeltelijk waar, Jij zegt dat dat meestal Intel is, ik zeg dat dat waar kan zijn, maar maar tot dual socket systemen, voor 4 sockets en meer is over het algemeen toch echt wel AMD heer en meester met zijn Opteron setups, voorbij de 2 sockets schijnen die behoorlijk wat beter te schalen dan Xeons.
Engineering begint niet met "laten we het zo snel mogelijk maken op de eerste poging en kijken of het werkt". De eerste stap is kijken of je 12-core CPU wil booten, en vervolgens of die wil samenwerken met andere cores. Dat zouden ze best op 1GHz geprobeerd kunnen hebben, puur om timing problemen makkelijker te debuggen.
Zal nogal een groot verschil zitten tussen een dual Xeon E5540 (8 cores in totaal?) tegen een PC met 48 cores he? :+

Maarja meer cores zegt nog niet zo veel hoe snel hij is, wel over hoeveel hij tegelijk kan doen want 1 programma zou nooit alle 48 cores gebruiken dus je hebt er alleen wat aan als je bijv. een webserver, mail server, database etc. allemaal op 1 server wil draaien of veel clients op 1 server bijv voor remote desktop.
ja zo kan ik het ook verdraaien. je moet es goed lezen man. hahaha

ik zeg toch, voor 4 sockets en meer heerst AMD voor het grootste gedeelte, ook vergeleken met Intel setups met eenzelfde aantal sockets/cpu's/cores.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True