Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties

HP heeft aangekondigd dat het zijn xw9400 Workstation met de nieuwste Opteron-cpu's gaat uitrusten. De xw9400 is daarmee het eerste werkstation met AMD's Istanbul-cpu. Er passen twee van zulke hexacores in de HP-machine.

De AMD Opteron 2400-serie, ook wel bekend onder de codenaam Istanbul, omvat cpu's met zes cores. De processors moeten de Shanghai-quadcores opvolgen en passen in de huidige Socket F-voet van AMD. HP heeft nu als eerste een workstation geschikt gemaakt voor de hexacore. De xw9400 kan twee Istanbuls huisvesten, wat het maximum aantal cores in het systeem op 12 brengt. Daarnaast maakte HP bekend dat de xw9400 ook met de ATI FirePro V7750-videokaart van AMD kan worden geleverd. Voorheen bouwde HP uitsluitend Nvidia Quadro-kaarten in het systeem.

HP levert de xw9400 al langer met de dualcore-Opterons uit de 2200-serie en met de quadcores uit de 3200-serie. De startprijs van 1900 dollar die HP voor zijn werkstation opgeeft, zal dan ook niet voor de variant met de nieuwe hexacores gelden. Wat die prijs wel wordt en wanneer de levering van de xw9400 met de nieuwe Opterons van start gaat, is nog niet bekend.

HP xw9400
Moderatie-faq Wijzig weergave

Reacties (51)

Inmiddels is de HP Proliant DL585 G5 ook van 6-core AMD's voorzien:
http://h10010.www1.hp.com...1644-3328422-3949980.html

De Intel-equivalent (DL580 G5) is al een aantal maanden met de 7400 6-core processors leverbaar: http://h10010.www1.hp.com...1644-3328422-3454575.html
In Q4 dit jaar komen de G6 DL580 servers met intel Nehalem procs.

AMD is (althans bij HP) heer en meester op 8-socket gebied: de DL785 G6 heeft de 6-cores aan boord:
http://h10010.www1.hp.com...1644-3328423-3974962.html

[Reactie gewijzigd door PcDealer op 2 juli 2009 21:21]

Leuke evolutie natuurlijk. Maar ik vindt het nog altijd spijtig dat niet meer programma's er echt gebruik van maken. Meer cores betekenen meestal ook meer stroom en mijn dual-core wordt door de meeste programma's zelfs maar voor de helft gebruikt.
Het gaat hier om workstations niet om huis/tuin pc's (uiteraard is die grens soms wat vaag). Hier draait vaak specialistische software op welke vaak wel meerdere cores gebruikt.
Ik vind inderdaad dat de ontwikkeling van software die goed gebruik kan maken erg traag gaat. Als je alleen al gaat kijken naar besturingssystemen die efficiënt gebruik maken van de dual/quad cores weet je eigenlijk al genoeg.
Toch zijn deze workstations bedoeld om echt zware software op te laten draaien. Denk hierbij aan Cad programma's als Autocad en Solidworks. Deze programma's hebben echt baat bij multicore cpu's. En als je dan bedenkt dat zelfs met een quadcore de pc nog een dag aan het renderen is, is dit zeker een goede ontwikkeling. Ben benieuwd wanneer er een octacore in een workstation gepropt wordt.
Je OS is nu net dat ene stukje software op je systeem dat al sinds jaar en dag volledig gebruik kan maken van meerdere cores en CPU's (als je het over OS'en als Windows NT/XP/2000/etc, Unix varianten etc. hebt tenminste). Start jij 10 taken op op een machine met 4 cores dan worden die netjes verdeeld over de CPU's, heb je ook nog hyperthreading dan doet het OS zelfs alsof er 8 cores aanwezig zijn.

Dat nog niet zomaar ineens alle software helemaal geoptimaliseerd is om het parallelisme van moderne CPU's ook op het thread-niveau te benutten (ipv op het proces niveau, waar het OS dus voor zorgt) is omdat het domweg lang niet altijd mogelijk of zinvol is om een applicatie te paralleliseren. Sommige taken zijn gewoon inherent sequentieel, bijvoorbeeld omdat ze I/O-bound zijn (veel data via disk, netwerk of user nodig hebben) en telkens door moeten rekenen met tussen resultaten. Elke keer dat je een stuk software wilt gaan opsplitsen en over threads wilt verdelen moet je eerst nagaan of dat wel verstandig is, want als de verschillende delen veel gedeelde data hebben en weinig 'harde' rekentijd, dan wordt je programma niet alleen veel complexer en foutgevoeliger, maar door overmatige locking op gedeelde data zelfs trager.

Dus net als met de Ghz race die we na de Pentium-4 eindelijk achter gelaten hadden zitten we nu met een 'aantal cores'-race: technische specificaties en theoretische nummertjes worden ook nu weer voor marketing doeleinden gebruikt.

Kortom: meer cores betekent niet automatisch meer prestaties. Meer dan 2 cores (1 extra core om OS taken en processen te scheiden heeft vrijwel altijd een gunstig effect) heeft slechts zin als je veel processen tegelijk wilt draaien, of als je taken hebt die zeer goed paralleliseerbaar zijn (bijvoorbeeld video encoding/decoding, hoewel GPU's zich daar zelfs nog beter voor lenen, omdat die over nog veel en veel meer cores beschikken).
Wat wil je een OS dan laten doen met 4 cores na het opstarten? Volgens mijn heb je niet door hoe de processen werken van een OS (en hardware die os moet aansturen) en waarom er niet meer nuttig threads opgedeeld kan worden, en waarom die niet actieve zijn, en een quadcore bezig kan houden?

EN welk OS heb je het eigenlijk? Want dat maakt nogal een verschil, kan je niet over een kam strijken.

Octacores (Nehalem EX) komen 2H 2009 van intel en AMD zal wel einde van 2009 of begin 2010 volgen.

[Reactie gewijzigd door mad_max234 op 2 juli 2009 15:44]

Is het dan niet een manier om dat renderen via CUDA of ATI Stream door de GPU te laten doen? Die zijn toch veel sneller in het uitvoeren van parallelle taken?
Solidworks 2009 kan maar 1 core gebruiken. Sommige add-ins (Photoworks en Simulation bijvoorbeeld) wel allen.
Die programmas die er echt van profiteren maken er allang gebruik van. Ik trap hier regelmatig 8 core Nehalem op zijn staart. Het is wachten op de "huis-tuin & keuken" apps het ook gaan ondersteunen.
Dat is knap want er bestaat nog geen 8 cores Nehalem, of bedoel je 8 cores Syeteem waar twee Xeons inzitten. ;) Je trapt dus 2x 4 cores Nehalem op zijn staart. :P
of hij doelt op de dualthreaded heid van de quadcore
details! :P

2 x quad. Met nog een aantal nep cores natuurlijk... ;)
Er wordt wel aan gewerkt - i.i.g. worden OS'en er wel meer op geoptimaliseerd, en ik denk dat het vooral voor applicaties met veel plugins erg handig is. Als ik Logic draai op m'n dualcore notebook en ik gooi virtuele instrumenten en effecten aan, dan zie ik de load nog redelijk netjes over de cores verdeeld worden - hoewel het volgens mij nog niet wil om 1 plugin over 2 cores te spreiden, maar ik denk dat dat moeilijk zal blijven.
Inderdaad Apple's Logic verspreid de load per plugin over de CPU's. Als je zware plugins zoals bv.Native Instruments Massive draait zul je die ook op 1 core zien draaien.
wat dacht je van x64, dat bestaat ook al 5 jaar ofzo, en nog steeds zijn bijna alle programma's x86.
86 is meer dan 64 dus dat is beter ;)
Maar het is wel vreemd dat je CPU 90% van de tijd instructies uit het 386 tijdperk staat uit te voeren.
Het is een workstation en de software voor die doeleinden is wel al voor een goed deel overgestapt. Net zoals de software voor servers ook al goed schaalt.
deze cpu's zullen niet meer dan 75/125w gaan verbruiken net als huidige server en desktop cpu's (quad en dual core)

[Reactie gewijzigd door Crp op 2 juli 2009 15:10]

Er passen twee van zulke hexacores in de HP-machine.
Wat een feest, hoewel ik me afvraag of er al programma's zijn die daadwerkelijk 12 cores benutten...

Als echt workstation is dit natuurlijk wel grandioos mooi spul, met een hexacore (twee is echt overkill naar mijn idee) heb je een krachtpatsertje staan, die zijn hand niet omdraaid voor renderen en zulk soort taken. Ik ben benieuwd wat de prijs is!
Recente software wordt (als deze op een goede manier geprogrammeerd is) niet meer geschreven voor single, dual of quadcore of wat dan ook, maar gewoon voor multicore.

Afaik zal software zoals photoshop bijvoorbeeld prima gebruik maken van alle 12 die cores.
Photoshop is dan weer een slecht voorbeeld, die doet weinig met meer dan twee cores :) Maar gewoon een hoop open zetten, wat conversies doen in LR en in PS werken, dan dringt opeens door hoeveel load je tegen een moderne simpele desktop kan aangooien. Multicores zijn imho een zegen, al is het maar omdat Windows z'n taken makkelijker uit kan blijven voeren :)
Cores kan je in sommige applicaties nooit genoeg hebben. geheugen ook niet overigens.

Er zijn genoeg wetenschappelijke programma's die zelfs zo'n 12 core bak dagen bezig kunnen houden. Nu kun je wel een heleboel parallele taken over een cluster of via grid computing oplossen, maar taken waarin er veel 'verkeer' tussen cores nodig is zijn daar niet zo geschikt voor.
Ik snap je post niet helemaal. Je geeft aan dat er applicaties zijn die niet genoeg cores kunnen hebben en juist de last leggen op de communicatie tussen cores onderling, waardoor een cluster ontoereikend is?

Schaalt dergelijke software niet gewoon compleet multithreaded, en ziet zo'n applicatie een cluster niet als één computer met gigantisch veel cores, waardoor de logica een bottleneck vormt?

Zoals jij het stelt zal een dergelijke applicatie meer performen op een machine met een paar oude quadcore Xeons dan evenveel cores op een mini cluster Opterons. Dit terwijl de Xeons aan elkaar geplakte dual-cores waren, die communiceren via een trage FSB, en een cluster Opterons direct gekoppeld kan worden via HTX @ Infiniband / 10Gbit you name it. HTX zou een extrene link zijn, zelfde bandbreedte als cores onderling communiceren. Vandaag de dag zie je ook onboard 2-4 10Gbit aansluitingen op moederborden.

Ik denk namelijk dat je gewoon mag stellen dat een doordachte cluster prima schaalt tov één machine met max aantal cores, gezien je niet onderling enkel moet communiceren, maar ook met de CPU's. Hier ben je al aan het afknijpen, maar deze bandbreedte is tegenwoordig dus ook extern beschikbaar.

De wetenschappelijke programma's zullen prima geschikt zijn voor een cluster.
Zoals jij het stelt zal een dergelijke applicatie meer performen op een machine met een paar oude quadcore Xeons dan evenveel cores op een mini cluster Opterons.
Als die processoren veel data interactie hebben, zoals bij medische beeldbewerking, wel ja. Een FSB is nog altijd 800MHz@64 bit. HTX is 800MHzx@16 bit en bovendien is het bedoeld om uitbreidings kaarten aan processoren te koppelen, niet om processoren onderling te koppelen (bron: http://en.wikipedia.org/wiki/HyperTransport). Zo'n FSB is dus al 4 keer zo snel als een HTX en 5 keer zo snel als een 10Gbit interface. Daarnaast moeten zaken als data en cache coherency door de programmatuur geregeld worden als je via het netwerk gaat, op een FSB zit dat in de hardware. En op een FSB hoef je de data niet heen en weer te pompen, de processoren gebruiken hetzelfde geheugen.

We zijn al een heel eind met netwerken en cluster, maar zelfs op een oude bak is de interprocessor/intercore communicatie nog vele malen sneller dan netwerken en clusteren op een moderne bak.

Clusteren heeft vooral zin als de processen op de diverse cluster nodes maar weinig data hoeven te delen. Web servers en services zijn meestal goede voorbeelden.

[Reactie gewijzigd door brompot758 op 3 juli 2009 10:03]

Je die mensen die deze workstations kopen die hebben dat al jaren natuurlijk, betsaan al jaren systemen met 8 cores en al weer een aantal jaren met 16 cores.

4 way systemen is niks nieuws en hebben ook al zins de komst van de quadcore 16 cores, daar is al lang software voor schreven, al dan niet intern.

Wij als thuis gebruikers natuurlijk niet, zie far cry nou niet echt gebruik maken van 12 cores, maar daar is dit ook helemaal niet voor bedoeld.

Istanbul, kost de 2.6Ghz variant 989 dollar per stuk, daar kopen de meeste mensen twee thuis systeem voor, en dan heb je pas 1 instanbul die op 2.6Ghz loopt, totaal niet interessant voor thuis gebruikers, dus software hoeft nog niet klaar te zijn voor thuis gebruikers, moet eerst mainstream worden.
6 cores per CPU. Jij noemt dat al tijden systemen met 16 cores beschikbaar zijn. Sure. Nu ook met 8 van deze 6 cores. Zeg dan dat er nu 48 core systemen leverbaar zijn, en in de goede oude tijd men nog mocht werken op 16 cores.

Maar dit betekend wel dat met de komst van 6 koppige monsters, de 4 koppige goedkoper worden. Dus deze worden goedkoper. Wacht je even en de 6 koppige monsters liggen in de uitverkoop omdat de 12 koppige monsters in het nabije verschied liggen. Dan zeur je vast weer dat ze in een maand tijd na aanschaf ineens de helft waard zijn.

Je kan miepen, sommige mensen kopen gewoon het beste van het beste. Omdat ze dit nodig hebben. Voor bedrijven is het verder ook helemaal niet interessant wat jij zegt. Als een bedrijf tijd kan besparen, dat is geld. Dit geld wat ze besparen komt bovenop de winst. Voor IT is er toch een budget en wordt toch wel afgeschreven in 3 jaar.

Niet alleen thuis gebruikers / gamers komen op Tweakers.net.
Voor IT is er toch een budget en wordt toch wel afgeschreven in 3 jaar.
Ik zit er niet meer zo in, maar ik meende me te herinneren dat dit niet meer zo was, dus ik heb even gebladerd door de site van de Belastingdienst:
"Met ingang van 1 januari 2007 is het afschrijvingspercentage op bedrijfsmiddelen gewijzigd. De afschrijving is per jaar maximaal 20% op de aanschafkosten."

Hierbij stuitte ik toevallig op twee interessante uitzonderingen, nl. voor startende ondernemers:
"Voor startende ondernemers: willekeurige afschrijving
In sommige gevallen mag u als startende ondernemer afwijken van de normale manier van afschrijven. U mag dan willekeurig afschrijven. Dat wil zeggen dat u zelf mag bepalen wanneer u de totale afschrijvingskosten aftrekt. Een voordeel van willekeurig afschrijven op de korte termijn is dat u door veel af te schrijven minder winst hebt (of zelfs verlies lijdt). U betaalt dan dus minder belasting of u krijgt zelfs belasting terug."
en een tijdelijke maatregel om de crisis te lijf te gaan:
"Tijdelijke regeling in 2009 en 2010: willekeurig afschrijven
Investeringen die u als ondernemer doet in 2009, kunt u in 2 jaar afschrijven: maximaal 50% in 2009 en 50% in 2010. Deze willekeurige afschrijving is een tijdelijke maatregel vanwege de economische crisis en geldt voor nieuwe bedrijfsmiddelen."

bron: http://www.belastingdiens...vesteren-07.html#P77_9995

Overigens zitten er nogal wat aanvullende bepalingen aan vast en gelden de versoepelingen bv niet voor de aanschaf van software, maar het leek me interessant genoeg om het even te melden.
Overkill bestaat niet als het om cores gaat... zit hier al drie kwartier op één gerenderd plaatje te wachten met mijn brakke 2x dualcore Xeon (xw6400, heb er één core afgehaald om nog een beetje te kunnen internetten e.d.)

Ik ben normaal gesproken nogal van de Intel + Nvidia (Quadro), en zit te denken om een i7 te halen als ze in prijs dalen. Maar dit systeem wordt wat brute rekenkracht betreft misschien toch ook wel interessant. Mental Ray weet wel raad met die 12 cores denk ik :)

Aan de andere kant vindt ik de meeste professionele workstations (bouw er liever zelf twee voor hetzelfde geld) nogal overpriced. Ik ben benieuwd wat dit apparaat uiteindelijk gaat kosten...
was 64kb aan ram ook niet voldoende? Ik zie wel mogelijkheden in dergelijke systemen: FMEA icm self optimizing etc.
Ik dacht 640kb?
Als ik deze ooit bemachtig ,...... :9~ .............compleet met z`n 2x 6 core`s ,dan zal ik crysis eindelijk op high kunnen spelen :+ .Nee ,ff serieus .Natuurlijk kunnen 12 core`s potensieel hebben .Het legt er maar net aan hoeveel aplicatie`s ,programma`s je hebt draaien ,en op welke snelheid. Zo`n workstasion kan een hele productie lijn aan,iets waar je voorheen 4 pc`s voor nodig had .En de prijs a 1900 is nu nog hoog ,maar zal over 2 jaar betaal baar zijn .dat zag je ook met intel quad cores ,Die waren in het begin ook 1400 ,en nu voor 300 verkrijg baar.
Hoezo ligt het aan de hoeveelheid applicaties die je draait?? Daar gaat het helemaal niet om bij de mensen die deze machines kopen. Het gaat om de aard van de applicaties!!

Ik draai één applicatie, en die trekt in z'n eentje met gemak alle cores op 100%. Simpelweg, omdat het een raytracer is. (Niet voor plaatjes, maar voor optisch design. )

Dat is de hele clou met dit soort systemen. Sommige problemen zijn inherent parrallel, en kunnen dus uitstekend op een multi-core worden uitgevoerd. Bij een raytracer, moet je duizenden (of miljoenen) stralen door een systeem berekenen. Die stralen zijn volkomen onafhankelijk van elkaar, en vergen vrijwel alleen rekenkracht gevraagd, maar nauwelijks geheugen. Een kleuter kan dat nog parralelliseren... Gewoon iedere straal op een nieuwe core.

Zet zoiets op een mult-cpu systeem, en je schaling is een bijna perfecte 100% per core.

Jammer genoeg zijn de meeste problemen iets complexer, en dan wordt het plotsklops ongelooflijk veel ingewikkelder om nog efficient meerdere cores te gebruiken...
Een Raytracer op de CPU? Ooit eens gedacht dit op een losse Raytrace kaart te gebruiken van ART VPS (pure)? Wel ondertussen wat oldscool. Cuda al eens wat mee geëxperimenteerd, op een el cheapo 8800GSO 192 parallele units?

Ik noem maar wat.
Staan er ook AMD Desktop (Phenom) CPU's in de planning met 6 cores?
Het gaat hier om Opteron cpu's. Ongetwijfeld zal amd ook wel aan desktop cpu's met meer dan de 4 die de Phenom's nu hebben, maar de gemiddelde consument heeft hier nu echt geen voordeel bij. De meeste huis tuin en keuken applicaties en games gaan echt nog niet met 12 cores werken.
Van mij mogen ze tegen die tijd gelijk naar 7 cores.
Waarom 7 tja, dat is moeilijk uit te leggen, meer een gevoel.
een voor je OS, een voor je virusscanners en andere scannende dingen, een voor de achtergrondprogrammas en 4 (!) voor je aplicaties. ideaal. maar eerlijk gezegd zou ik aan een 4 of 5 core ook al genoeg hebben hoor
Gaat allemaal best langzaam zo. Ik dacht dat er voor 2008 al één op de planning stond met 8 cores en dat we elke anderhalf jaar een verdubbeling zouden krijgen.

De stappen die ik nu zie zijn van 2 naar 3, van 3 naar 4, van 4 naar 6.

Maw een veelvoud van 2 of van 3, wat zou betekenen dat we 5, 7, 11, 13, etc en etc over zullen slaan. Ik vraag me dan wel af hoe ze dat gaan proberen te verkopen als er zowel een cpu met 8 als met 9 als met 10 en met 12 cores op de plank ligt?
Ik zou er niet vanuit gaan dat het zo zal gaan. De triple core cpu leek ook al onlogisch, toch is hij er gekomen. Het zal me ook niet verbazen als amd op de desktop markt over een tijdje weer 6 cores met een kapotte core als 5 cores gaat verkopen.
Top machine, heb zelf de xw6600. Ik hoop dat ze de prijs niet al te hoog maken, want dan kan het editten weer met full spped doorgaan.
ik heb een 2,4Ghz core 2 quadcore. ik render veel in 3dstudiomax, soms duurt het renderen nog 4 uur, dus 2 hexacores is voor mij geen overkil, ik zit te wachten op een intel 12 core met hyperthreading :*)
Wat voor voeding zal zo'n workstation hebben? Denk dat een 1000W voeding, zelfs 2 denk ik, geen overbodige luxe is.
Denk jij echt dat een workstation zoveel nodig heeft... even vlug en kort door de bocht: 2x cpu à 125 watt, 1x firegl à 300 watt, doe eens gek met 4 hdd's 50 watt, geheugen nog 20 watt ofzo. Zo'n systeem zal pieken op 600 watt ofzo. Dat tegenwoordig 1kW voedingen te koop zijn wil niet zeggen dat elk zwaar systeem ook maar in de buurt komt qua verbruik.

Correctie ik zie dat ze per cpu 280 watt doen. Er zit dan ook een 1kW voeding in die systemen. die zal dan ook wel ruim genoeg genomen zijn.

[Reactie gewijzigd door TMon op 2 juli 2009 15:33]

Met een piekvermogen van 600W zou ik dus wel een 1000W voeding zoeken om over de levensloop energie te kunnen sparen. Zeker bij een werkstation aangezien die dingen vele uren per week aanstaan.
Hoe hoger het wattage van je voeding, hoe slechter deze het op lage loads doet :) Dat is ook de reden dat er een PicoPSU bestaat voor lowpowersystemen, die dingen zijn al te krijgen in 60w varianten :)
Mja, een 60W voeding blaas je op. Ben gewend dat een dual quadcore Opteron met flink wat geheugen, paar 15K schijfjes, Workstation GPU'tje prima onder de 200W zit. Uiteraard moet je rekening houden met wat overhead, maar denk dat HP beter gewoon dan een 500W 85+ model verkiest boven een custom 1050W-er. Gooi er een label (marketing) green computing op. Zeg wel dat de videokaart een max hoeveelheid mag verbruiken, en gooi een zwaardere voeding enkel als optie erin.

Bespaard idd een hoop energie.
Zo te zien wordt de xw9400 met een 1050w custom power supply geleverd.
Ik weet niet hoe je aan het verbruik per cpu komt maar je zit er wel erg veel naast.
De AMD Opteron™ Model 2431 gebruikt maar 75 Watt x 2 is dus 150 Watt bij 100 % CPU belasting.
niemand, maar dan ook echt NIEMAND heeft 1 laat staan 2 1kwatt voedingen nodig voor een pc op zijn buro.

zelfs vol met schijven en 4 GPU's en 2 high-end CPU haal je de 1kwatt niet.

het verbruik van PC word om een of andere reden zwaar overschat door mensen.
ik denk vooral omdat er zulke dikke voedingen gemaakt worden, denken mensen gelijk dat ze het nodig hebben.

[Reactie gewijzigd door Countess op 2 juli 2009 22:34]

Aan de andere kant is het moeilijk te overzien wat de toekomst brengen zal. Beetje jammer als je straks bijvoorbeeld die mooie nieuwe grafische kaart(en) niet kan plaatsen omdat je voeding het niet blijkt te trekken - en vervolgens blijkt een zwaardere voeding niet in je kast te passen etc. Een beetje reservecapaciteit inbouwen kan wel eens nuttiger zijn dan dat jij suggereert.

Ik heb ook nooit gezegd dat 640 kB genoeg was voor iedereen ;)
handig voor 3ds max gebruikers. of ander render software. maar voor de rest....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True