Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 93 reacties
Bron: AMD

Tegelijkertijd met de introductie van het 4x4-platform heeft AMD aangekondigd delen van de architectuur van de volgende generatie Opterons openbaar te maken. Onder de noemer 'Torrenza' heeft AMD een platform ontwikkeld waarin derden de Opteron kunnen aanvullen met specifieke co-processors. Net zoals er nu toegewijde processors zijn voor grafische taken, wil AMD het zo eenvoudig mogelijk maken om extra rekenkracht aan een systeem toe te voegen voor andere taken. Deze zogenoemde 'accelerators' worden in een losse socket geplaatst en communiceren met de processor via - bij voorkeur - AMD's HyperTransport-architectuur. In een latere fase zouden de accelerators ook op de core zelf geïntegreerd kunnen worden. Als mogelijke toepassingen kan bijvoorbeeld aan een speciale chip voor VoIP, Java, XML of het (de)coderen van media gedacht worden. Torrenza zou overigens voor AMD pas het begin zijn: het bedrijf zegt naar een modulaire structuur toe te willen, waarin ook onderdelen als een geheugencontroller door klanten gekozen kunnen worden.

AMD Torrenza (medium)
Moderatie-faq Wijzig weergave

Reacties (93)

Ik zie voor gamers nog niet zoveel voordeel aangezien de meeste games nog geen eens gemaakt zijn voor dual core, laat staan voor vier cores :+
Wat zit iedereen toch altijd te zeuren dat er nog geen games gebruik kunnen maken van 4 cores... Bij de vorige newspost over AMD 4x4 ook al. Het zou misschien handig zijn om je bron te vermelden als je zo'n uitspraak doet.

Bij deze zal ik alvast starten: Quake 4 ondersteunt met de nieuwste point release 4 cores.

Quote uit de changelog:
With the update, systems with a single core processor which uses the Hyper-Threading Technology will have a performance jump of up to 25% compared to non Hyper-Threaded processors. Dual core processors with Hyper-Threading Technology will see a performance increase of up to 87%.
Deze laatste zin heeft dus betrekking op 4 logische cores.
Leuk en aardig, maar het gemiddelde spel wordt op dit moment gelimiteerd door de grafische kaart.

In deze 4x4 setup heb je 4x meer power dan een (op dat moment standaard) dual core systeem. Geen enkele gamebouwer zal de komende tijd een spel bouwen dat qua physics zwaarder wordt dan een dual core systeem, en zolang de grafische kaarten niet 2 a 3x zo snel worden zal alles boven een dual core systeem overkill zijn:
http://www.extremetech.com/article2/0,1697,1876715,00.asp
In de SplinterCell benchmark is het duidelijk te zien, zodra je op high detail speelt is de videokaart de bottleneck, alles vanaf een D 820 is voldoende.

Misschien kun je het gebruiken als alternatief voor een PhysX kaartje, maar dan is een dedicated kaartje fors goedkoper.

Het is natuurlijk ijzersterke marketing van AMD, maar als je even nadenkt is de meerwaarde nul, tenzij we een discussie gaan starten dat Quake met 800 fps op 800x600 soepeler loopt dan met 200fps.
Ghost Recon: Advanced Warfighter
CellFactor
Bet On soldier
*Unreal Tournament 2007
Zijn allemaal geoptimaliseerd voor ADVANCED PHYSX

Meer info: http://www.ageia.com/physx_in_action/footage_physx.html

Als ze zo'n accelerator maken die rechtstreeks met de cpu kan praten kan da nog tegoede komen van alles en nog wat!!!
Heb wat ingame Crysis vid gezien. En ja Gameplay is heel belangrijk maar eyecandy verkoopd. Zodat Gamers die gameplay kunnen ontdekken. Gameplay is moeilijk te marketingen. Visiuals des te makkelijker.
Jammer maar het is niet anders. Games met zeer goede gameplay maar magere Ghrapics moeten eerst door gamers ontdekt worden door mond tot mond reclame.

Zo'n Crysis game steekt kwa aandacht en markt profile daar zo toren hoog uit. Gameplay bepaald dan longlivaty. Van zo'n oog catcher.

Ondertussen zijn de meeste hardcore gamers well bereid om voor zo'n AAA title te upgraden vooral als zo'n game de verwachtingen waar maakt. En nog meer realsitische Jungle. En DX10 hardware is optimum. Om het in volle glorie te kunnen draaien. Crysis gebruikt De cPU voorPhysics de GPU grotendeels voor renderen.

D'r komen met de tijd AAA titles uit met optimale game spects die zwaar Grafisch leunen. Daarnaast kan AI ook niet verwaarloost worden. PPU heeft wel bestaans recht maar hangt ook af vanw at voor game de Dev's in gedachten hebben.
PPU heeft meer kans voor single player games of Lan games.

Daarnaast is Voor dev's de PPU door de lage kosten voor PhysX aPI aantrekkelijker dan de Dure Havok FX.

Plus ja eerst zul je toch Games verdeeld over twee kampen zien. De PPU games en de HavokFX games. Voor de is het optimaal om een High-end of SLI/CF bak te hebben en voor de ander crop of PPU games is een PPU nodig om alle games te ondersteune. Je moch maar 'n Havok FX en 'n PPU game als favoriete game hebben.

Grafisch geweld is dus zeker van belang. AAA titles pushen de markt.
Leuk en aardig, maar het gemiddelde spel wordt op dit moment gelimiteerd door de grafische kaart.
Ligt helemaal aan de gebruikers wensen. Met een Geforce 78xx/79xx ligt het omslagpunt op een resolutie van 1280x1024. Benchmarks tonen aan dat vanaf dat moment de videokaart het knelpunt vormt.

Gelukkig hebben Nvidia (en in zekere mate Ati) geanticipeerd hierop en is er SLI/Crossfire ontwikkeld. Hiermee ligt de rek iets hoger naar rond de 1600x1200/1920x1200 (24 inch schermen dus)

Met de Geforce 8 en later in het vooruitzicht wordt de voorsprong op de processor alleen maar groter dan dat hij nu al is.
Hangt ook sterk af van de game. Faer is bijvoorbeeld extreem GPU afhankelijk CPU eisen zijn weer minimaal.
Terwijl ander games ook degelijke CPU power nodig hebben. Zo heeft Q4 wel wat baad bij een degelijke CPU.
en schaald ie ook goed door op SMP.
Leuk en aardig, maar het gemiddelde spel wordt op dit moment gelimiteerd door de grafische kaart.
En morgen zeg je het net andersom wanneer een nieuwe grafische kaart verschijnt...

Ik heb het gevoel dat jij geen dual-core hebt en een excuus zoekt om je nog goed te voelen met je single-core. Vanaf dat je een dual-core hebt zal je wel anders spreken.
En morgen zeg je het net andersom wanneer een nieuwe grafische kaart verschijnt...
Het nut van nog meer grafisch geweld kun je in twijfel trekken. Het gaat uiteindelijk om de spelervaring.

Maar elke volgende generatie grafische kaarten is een verbetering op het gebied van snelheid en kwaliteit van spellen itt. de volgende generatie cpu's.
Dus ik denk niet dat het op dit moment ook andersom geld, maar met de weer rap toenemende cpu power kan dat er over een paar jaar weer heel anders uitzien.

Persoonlijke opmerkingen over mij, mijn motivatie en mijn spullen mag je per email doen.
Leuk en aardig, maar het gemiddelde spel wordt op dit moment gelimiteerd door de grafische kaart.

Hoeveel mensen kunnen alle settings op max draaien.
Mijn verwachting is dat dual core heel snel zal inburgeren.
Graphics hebben resolutie settings ; dus waarom kan physics niet een realisme setting hebben?

Ik en met mij vele mensen zijn geen gamer. Dus heb ik geen state-of-the-art videocard. Maar ik ga zeker voor dual core voor mijn andere bezigheden.
Dat ik dan extra CPU power kan inzetten om mijn zwakke 9800 the compenseren is toch wel leuk.
Dat ik dan extra CPU power kan inzetten om mijn zwakke 9800 the compenseren is toch wel leuk.
Voor games heeft dat alsnog geen zin, maar ik kan me voorstellen dat het met name bij video- en geluid-editing enig voordeel te behalen valt. Voor de rest zou ik niet weten waar je het anders nodig zou kunnen hebben.
Met AMD's 'omgekeerde' hyperthreading zal dat dus niet nodig zijn. Zie ook nieuws: 'AMD werkt aan omgekeerde HyperThreading voor K10'.
K10 bestaat niet meer. Is geannuleerd volgens bronnen bij de inquirer (zijn doorgaans zeer goed ingelicht)
Nee de dualcore is nog steeds de K8, immers hebben we dadleijk eerst de K8L daarna pas K9. Meen ergens gelezen te hebben dat K9 quadcore HT 3.0 en PCIe geintegreerd zou hebben.
Was dat niet de K9?
K9 is de dualcore.
Can u Say Unreal 3 ? Die zou Milty Threading ondersteunen. en als dat goed ondersteunt wordt maakt het niet uit of je 2 cores of 16 cores hebt. Dus dan is het een groot voordeel. En ik denk dat steeds meer games dit zullen gaan gebruiken.
Oh jawel. Je pakt zo'n dubbele SMP game. Q4 Laat ook meteen 'n dedicated server draaiend op hetz elfde systeem hou je nog 'n core over voor huishoudelijke en achtergrond taken. Plus 4GB minimaal in dit systeem :)
op anandtech is hiervan ook een artikel verschenen en als je kijkt op de slides dan zie je ook duidelijk staan dat acceleratie voor physics moet kunnen...

tenzij ageia ervoor zorgt is het dus mss wel byebye ageia maar hebben wij als consumenten wel een physics processor die we zonder moeite op ons mobo kunnen prikken.
Het gaat hier over co-processors en jij begint over dual en quad-core cpu's... Misschien moet je het verhaal nog een keer lezen.
Ik zie voor gamers nog niet zoveel voordeel aangezien de meeste games nog geen eens gemaakt zijn voor dual core, laat staan voor vier cores
sowieso, dit gaat over opterons, dat zijn server en pro. workstation CPU's, niet iets wat zelfs de meest performance geile tweaker in zijn/haar game pc propt.
Dit is een ontwikkeling voor het Opteron serverplatform. Dat zullen gamers hoe dan ook niet in huis hebben staan.

|:(
Het is mij te kort door de bocht door te zeggen dat het 4x4 platvorm bedoelt is om tegenwicht te bieden tegen het Core2 Duo geweld. Het mij inziens 2 zaken die niet met elkaar te vergelijken zijn.

Mocht het wel zo zijn denk ik dat er maar heel weinig consumenten zo merk trouw zijn dat ze zeggen, laat ik voor de veel duurder 4x4 oplossing van AMD kiezen.
Pr markteting en timing technisch gezien zijn ze wel aan elkaar verwant.

In werkelijkheid zijn het inderdaad 2 totaal lostaande technieken en vorderingen, maarja, marketing is alles...
als ze zo verwant zijn dan zal de prijs ook moeten verwant zijn, en dat zal niet het geval zijn

conclusie: 4x4 en conroe zullen zeker niet hetzelfde marktsegment bespelen, en als het dan toch al zo is dan zal de conroe winnen: voor dezelfde prestatieklasse en voor minder geld, de keuze is snel gemaakt
In tegendeel, 4x4 is een marketing term, Core Duo 2 is een marketing term, bedoeld als reclame bord voor een platform, en dus wel degelijk op gelijke voet, bovendien omvat de Core Duo 2 ook een zekere Extreme Edition, die zeker zo duur zal zijn als een FX62 inclusief moederbord.
Geintegreerde VOIP,
Gebruikt dat zoveel cpu-kracht, lijkt me alleen handig in een callcenter.

Het lijkt me ook interesant om een geintegreerde/co-prosessor voor physx-toepassingen maar dat wordt dan weer niet in een server gebruikt.
Beginnen ze weer met die physics...

Een 4 Core Opteron heeft geen hulp nodig van een zielig zwak eerste generatie chipje op de markt gegooit met als motto "tja, we waren er toch al mee bezig..."...
Zoiets zal waarschijlijk ook wel gedacht zijn over de eerst GPU's.
Precies, dat duurde best lang voor de Voodoo er eindelijk was, en voor die tijd waren alle implemtaties compleet waardeloos, wat nu dus ook het geval is met Physics.

De mensen die de eerste GPU's waardeloos vonden en niet kochten, hadden gelijk. Pas vanaf de Voodoo waren ze het waard.
Hoe kan je dat nu zeggen. Het ding is pas uit. er is nog geen game uit die er uitgebreid van gebruik maakt.

Graw is heel licht eyecandy Physics. De eerste maar zeer povere. Die iig totaal niet de need voor upgraden naar PhysX stimuleerd. Graw is al mooi zonder. En P1 add maar 'n beetje bij.

Cell factor demo. Laat zien wat mogelijk is. Maar houd wel rekening dat Clothes en fluid de zware Physics is en niet dozen klotzen dat kan een CPU ook redelijk. En rigid body's is zeker niet in de orde van 10000 om 'n P1 op de kneeen te krijgen.

Het is dus wachten op 'n title die PhysX hardware nodig heeft voor optimum gebruik en de Physics ook voldoende Gameplay meerwaarde heeft om die upgrade van ¤230,- aanvaardbaar te maken voor de gemiddelde enthausiast gamer.

Het is dus wachten op UT2007 of die de P1 zinvol maakt of niet.
130nm als ik me niet vergis. zal te maken hebben met de volume produktie wat niet interresant voor bedrijven als TMC etc is om zo'n markt beginner meteen op de nieuwste produktie prosces los te laten. IIG van sucses kan dat veranderen.
De achterstand is minder punt,maar zegd zeker niet alles.
GPU hebben een voordsprong in dieschrink en afzet markt. Maar de transistoren geschikt voor Physics zijn die SM3.0 PS units. Dus 'n deel van zo'chip wordt gebruikt. Physic P1 architektuur is nog steed onbekend.

Er zijn nog geen Benches bekend wat wie de betere performance heeft en hoe dit uitpakt in realgames.

3Dmark synthetische bench routines zouden GPU en PPU tot de max kunnen drijven om een idee te geven van beide potentie voor reallife games in de toekomst.

Ik wacht eerst af op games die goed van Physics gebruik gaan maken. PPU of Havok fX.

Havok FX support en release van zulke games moet nog op gang komen die lopen wat achter op PhysX kamp.
@Jan Groothuijse:

De eerste Voodoo was nog geen eens een gpu, de Geforce was de eerste gpu, die kwam veel later.
@Jan Groothuijse:

De eerste Voodoo was nog geen eens een gpu, de Geforce was de eerste gpu, die kwam veel later.
Naamgeving, niet meer.

VPU Video Processing Units, GPU Graphics Processing Unit.

nVidia heeft het ding altijd (dus misschien nog wel voor de Voodoo) al GPU genoemd terwijl de rest van de markt 3Dfx, ATi, Matrox, enz. het een VPU noemde.
230 euro is best veel voor een chip die op 2 jaar terug techniek gebouwd is, en voor de standaarden van toen als zwak en zielig zou zijn geweest.

Fluids en dergelijke flauwekull, gaan GPU's alleen maar beter kunnen, Geometric Shaders anyone?
Weet je dat zeker? Ikke niet kan alleen maar gissen.Ten eerste Die Co pro's die ze erbij stoppen ipv die tweede opteron zijn van die coretjes gespecializeerd in zware reken taken en dan een hele zooi op één die. Zo'n reken array voor Opteron servers zijn ze al langer van plan oud nieuws, Tot heden zaten ze op uitbreiding sloten. ook geschikt voor iNtel platformen.

PhysX is 'n goedkope versie van dat princiepe voor de consumenten markt. Gericht op Physix voor games. Die voor servers is natuurlijk een heel stuk krachtiger maar kost ook zoveel als een itanium en niet op games gericht.
En zo snel zal deze technologie niet voor consumenten beschikbaar komen.

Ik denk dat dan al de Assymetrische Multicore CPU er dan al komen. Die zo'n array van SPE naast 'n Paar general Purpouse Cores. Zie het niet X86 voorbeeld de Cell CPU. Die richting gaan AMD en iNTel ook uit op lange termijn.

Gezien PhysX nu al op verouderde 130nm loopt. En zo'n SPE op de nieuwste Dieshrink gaat lopen 35nm of later.
Dan zal dat 'n heel stuk krachtiger zijn.

Maar ondertussen zou PhysX 'n sucses je kunnen zijn en is er ipv 130nm P1 al 'n 65nm P3 Met PCI-E 4x aansluiting.

De PhysX core P1 is de eerste van zijn generatie en gespecialiseerd in Physics berekeningen. De kracht is nog onbekend ook aangezien er geen bench tools zijn die het onderste uit de kan halen.

Tot die tijd zal Physics altijd 'n specialisatie voordeel behouden. Totdat consumenten CPU ondie SPE array krijgen.
Je vergeet één ding. De zwaarste module van game engines is vaak de Render module die steeds zwaardere Parralel bakbeesten van GPU moet voeden met Frame render data.
CPU kunnen niet meer voldoende mee schalen op klok alleen,maar door de steed grotere ruimte voor meer transistoren moet dat om mee te groeien ook geparaleliseerd worden.

Dit houd in Om mee te kunnen met Next gen GPU en daarop volgende Game engines en GPU's. Worden de render mudules ook SMP. Als je ziet dat Q4 met SMP aanzienlijk doorschaald. Moet je die 2 of 4 core niet alleen maar zien als extrá , maar meer 'n noodzakelijkheid om andere componenten bij te benen die wel gestaag nog steeds doorschalen omdat GPU van oorsprong al een makkelijk doorschalende Parraleliserende architektuur is.

Alleen Kunnen devs nu door Threadverdeling bepalen hoe ze de reken kracht verdelen.

Als 4core ooit mainstream wordt zullen Rendermodules van games ook meer de need voor 4 treads kunnen gebruiken om grafische zwaar competatief te zijn tegen ander Grens verlegende AAA titles. Die nextnextgen GPU het onderste uit de kan willen halen.

Uiteraard kunnen ze altijd 'n stap terug doen door 'n core of twee beschikbaar te stellen voor Physics en AI en de wat lichtere componenten. En niet al te hard mee hollen met GFX gefixzeerde Dev houses zoals IDsoft en Epic.

In dit opzicht kan 'n Dedicated Physics kaart zeker uit komst bieden als je niet wil inleveren op andere vlakken.
Die CPU hebben genoeg te doen en dat wordt heus niet minder in de toekomst.

Totdat ze zelf ook 'n zooi SPE's hebben.

Maar dan kan 'n nextgen PhysX P3 of zo Dedicated high-end zijn. op 'n dan moderne Dieshrink.

Het probleem voor PhysX nu is dat Havok FX de markt verdeeld net als BlueRay en HDDVD zoals VHs en Beta max. 'n zo 'n afwachtende houding creerd.

Ageia krijgt het dus zwaar maar heeft voorsprong. Dev's zijn al hard bezig.

Havok toekomst is ook niet rooskleurig. Waar Ageia een zwaar tijd tegemoet gaat om hun corebusness van Physics Hardware te slijten zal Havok hun core busnes API slijten aan dev het moeilijk krijgen door MS DirectX PhysX plannen.

Enige wat Havok dan voor elkaar kan krijgen is Ageia voortijdig omzeep helpen eer hun zelf het loodje leggen.
Denk aan Glide.

Of ze moeten hun Core busness verbreden/migreren.
Ik ben blij dat wij het met elkaar eens zijn... :z

Ik weiger physics met een x te schrijven, vandaar, overgens, physics hebben aan 4 core's meer dan zat (meer dan dat graphische kaarten nog kunnen weergeven that is, 'genoeg' is het nooit).

Er zijn meerdere mogelijkheden om CPU's nog verder te versnellen, maar ik denk dat general purpose (hetzei gesplitst in 2,3,4, maar in iedergeval niet voor elke taak 1 chip) de beste manier is, ik hoop ook dat dit initiatief van AMD zal leiden tot een 3rd Party General Purpose Vector Array zoals jij die beschrijft en zoals die dus ook in de Cell zit.
Een dedicated core is prcies dat, een dedicated core, maar dat willen we eigenlijk helemaal niet, alles moet steeds meer general purpose worden, nu de x86 weer een beetje aantrekt in snelheid zouden juist niet dergelijke onnodige verdelingen van hardware moeten onstaan in hardware.

Neem de Cell, waar we allebij wel iets in zien, dat ding bied zijn complete rekenracht aan iedereen en alles wat erom vraagt aan, en zo moeten wij dat ook met onze x86 CPU's gaan krijgen.

General Purpose GPU's, daar wordt al een tijdje aan gewerkt, eigenlijk zijn ze het ook al, zie ww.gpgpu.org .

Over de naar General Purpose processing beweging, let even op het einde van dit filmpje (de rest is ook intressant btw) Tim Sweeney Interview van nvnews.net.
^ rechtemuisknop, save...niet proberen in de browser te opnen!
Een GPU kan toch ook veel sneller lijnen trekken dan een opteron. Dus als die chipjes (dsp's) een taak 100 keer sneller kunnen uitvoeren dan een opteron dan is het dat wel waard. Het probleem is misschien dat het bijvoorbeeld fatsoenlijk in directx moet worden gehangen zodat ze daadwerkelijk alles er uit kunnen halen wat er in zit.
De vraag is echte, hoelang blijven General Purpose CPU's nog achterlopen op hardware accelerated chips.

Met huidige het pas 2 jaar geleden dat we dual core gingen gebruiken, deze ontwikkeling gaat aardig snel, daarbij kan multi CPU architecturen het nog verder verbeteren, stijgt de snelheid van processors ok nog steeds (langzaam).

Gespecialiseerde chips hadden vroegen hun extreme optimalisaties en hun paralellisme om sneller te zijn, vandaag zijn bijna alle extreme optimalisaties eruit alle dedicated chips zijn ' programmeerbaar', en rest enkel nog het parralellisme, een gebied waarop CPU's op dit moment erg hard in an het ontwikkelen zijn.
Kan je ook kort zeggen. Cell princiepe.
Allen 'n losse dedicated geval is 'n stuk krachtiger.

uiteraard zal er ooit 'n quad core komen met 16 SPE.
'n GPU zal dan 256 Unified shader bakbeest.

En PhysX P4 kan dan 'n 128 SPE bakbeest zijn. Met 1GB GDR4 op PCI-II- 4x slotje.
En dan Flavors van ¤150 tot ¤400 32/256 64/512 128/1024

Vergeet vooral niet dat SPE ook geschik zijn voor grafische taken. 'n Cell CPU kan dus ook de taken van 'n GPU overnemen. Oorspronkelijk plan voor PS3 Cell als CPU/GPU alleen toch voor dedicated gegaan.

Mischen voor 'n 65/35nm Cell bakbeest met 4 PPU/32SPE wel mogelijk. Misschien iets voor WII-2

Dus dit kan ook voor Physics gelden. Budged is SPE on die CPU. Mid en high-end is dedicate hardware.
SPE was al een vreemde naam toen STI ermee kwam, maar hier raakt het echt kant nog wal.

SIMD units?

De chips die jij noemt bestaan al, ze heten GeForce 7900 GTX, en RADEON X1900XTX. Deze 2 chips komen van 2 heel vreemde bedrijven, bedrijven die de laatste paar jaar in een gelijke concurentie strijd zijn terecht gekomen, eentje waarin de markt telkens direct reageerde op ieder steekje wat een van de 2 bedrijven liet vallen, een concurentie strijd die succesvol genoeg is geweest om NIEMAND anders enigzins toe te laten in hun markt.

Daar gaat physics het de eerst komen 30 jaar het nog niet van winnen.

En kom niet aan met "ja maar de videokaarten doen het graphisch geweld al", want voor 230 euro kun je gewoon meer of betere videokaarten kopen, dusdanig om Havoc genoeg extra ruimte te geven toch boven het physics niveau uit te stijgen.
Aaangezien het gaat om server processors, kan je er denk ik wel vanuit gaan dat het hier gaat om servers waar al het voip verkeer doorheen gaat van een bepaalde dienst.
Of inderdaad een bedrijf zoals een callcenter.

Aan de andere kant kan ik me idd niet voorstellen dat het doorgeven van voip zoveel anders is als andere data doorgeven...
Voor een java cpu die rechtstreeks de bytecode kan verwerken is het wel heel nuttig.
Dan geeft dan een heel boost in de prestaties want een gewone cpu moet eerst de bytecode omzetten naar machinecode.
nieuws: Azul belooft 48-core Java-processor in 2007
Dit zou heel nuttig kunnen zijn voor java apps op x86 Opteron systemen.
Die geïntegreerde VOIP slaat op VOIP telefooncentrales van bedrijven.

Het is voor bedrijven die een VOIP centrale hebben staan (bijvoorbeeld een Cisco Callmanager gebaseerde oplossing) heel handig om zoveel mogelijk connecties op een server aan te kunnen. Dat scheelt in het aantal fysieke servers dat je in huis hoeft te hebben.

Cisco is overigens niet helemaal een correct voorbeeld aangezien je bij hen een groengespoten IBM x346 server koopt als callmanager appliance. Maar dat terzijde.
Zou het ook mogelijk kunnen zijn om grafische chips als co-processor toe te voegen?
Dus dat je geen extra kaartje toevoegt, maar alleen een chipje erbijprikt?

nVidia en ATI waren toch al bezig met upgradeable kaarten?
Dit lijkt mij een prima oplossing om onboard VGA up te graden.
Ook al zit je met het warmte probleem en met het shared memory probleem, dit zou volgens mij nog steeds een goeie oplossing zijn (en een handig tegenwicht tegen Intels' onboard VGA chipsets).
hmm, geen SLI/dual-core grafische chips dan, want ik zie geen 3 cores op 1 ATX bord passen met al de huidige aansluitingen. Een grafisch geheugen is sneller dan je werkgeheugen dus dat shared memory is ook niet voor de gamers.
het geheugen kan toch gewoon in ddr slots geduwd worden?
de chip moet toch (net als de opteron) z'n eigen geheugen controllere meebrengen om het uberhaupt te kunnen gebruikne.

straks heb je dus een geforce X of am2 socket, en mag je zelf je geheugen merk en groote kiezen en in je ddr2 slots douwen.
de chip moet toch (net als de opteron) z'n eigen geheugen controllere meebrengen om het uberhaupt te kunnen gebruikne.
1. Jij wil 2 geheugencontrollers op dezelfde geheugensloten aansluiten? Ik wens je heel veel succes.
2. De chip kan via de CPU bij het geheugen, HT 3.0 levert meer dan genoeg bandbreedte hiervoor.
Antwoord op 2.: het is maar de vraag wat genoeg is. HT 3.0 heeft een maximale bandbreedte van 20 Gb/s. Dat is genoeg voor low-end graphics, maar maar niets vergeleken met de huidige high-end kaarten die 300 Gb/s en meer kunnen verplaatsen.
Dat geheugen probleem zou gelden voor heel veel echte high-performance taken, bijna alle dingen die het waard zijn om een eigen chip te krijgen hebben zeker ook eigen geheugen nodig.
ATI had een kaart met een soort van socket voor je GPU en nVidia wou een extra socket op de mobo's hebben...

(dan is ATI's manier wat slimmer omdat je dan niet NOG meer mobo's krijgt (met/zonder socket X, met/zonder PCI, met/zonder PCI-E, met/zonder socket X voor GPU etc (misschien zelfs: met/zonder socket X voor PPU :D, en nog erger: met/zonder socket X voor SPU (Sound Processing Unit }> :D )))
Op deze manier zou je het PhysX kaart principe ook kunnen realiseren: een extra core voor het renderen van games. Alleen zijn de opterons natuurlijk niet echt voor gamers bedoelt, maar meer voor server doeleinden... :?

edit: is dit een dubbelpost (zie maxi-pilot) of niet... want we hebben beide op dezelfde tijd gepost :9
Nou dat is dan 'n hele vooruit gan van PCI2.2/3.3 naar HT. Alleen kwa geheugen doe je dan een stap terug DDRII standaard systeem geheugen wat daarvoor Snel DDR3 'Vid'geheugen was.
Op pagina 20 zie je dat AMD daar ook al aan gedacht heeft, PhysX is te zien op't plaatje.

http://www.amd.com/us-en/...ySeyerAMDAnalystWebV2.pdf
Deze zogenoemde 'accelerators' worden in een losse socket geplaatst en communiceren met de processor via - bij voorkeur - AMD's HyperTransport-architectuur.
Zou dit te maken hebben met die programmeerbare co-processor voor de opteron? Dit lijkt er erg veel op... :z

linkje
In een latere fase zouden de accelerators ook op de core zelf geïntegreerd kunnen worden.
Dus als ik 't goed begrijp komt eerst de uitbreiding in een losse socket, als in de link hierboven. Later komt dan de mogelijkheid om 't on-die te maken. Maar wordt 't custom designed stuk dan direct meegebakken door AMD, of komt er een soort van on-die programmeerbaar stuk (stukje FPGA functionaliteit)?

* Thedr vindt deze ontwikkelingen erg interessant als afstuderend digitaal systeemontwerper }>
Ik denk dat er iets komt dat je zelf je processor kan samenstellen. naast de vaste stukken als 1 of meer "normale"cores en geheugencontrollers kan je dan een speciale core voor java, voip of wat dan ook aanvinken. zo kan je veel meer vragen voor een processor. :D
Dit lijkt wel een beetje op het PS3 principe: een aparte core voor elke taak. Het lijkt me vooral handig als je een erg belangrijke taak hebt, en je zeker moet weten dat er altijd processorkracht over is voor die bepaalde taak
Daarvoor neem je "gewoon" een OS dat zoiets ondersteund. Onder linux is het (voor de kenners) perfect mogelijk om zoveel % van de processorkracht te reserveren voor een bepaald proces, er zijn zelfs specifieke besturingssystemen die puur op kritische real-time zaken gemaakt zijn, en dikwijls hand in hand gaan met heel specifieke hardware.

Neen, volgens mij gaat het vooral om de prestatie's te verbeteren, in dezelfde systeemkast zitten er zoveel meer prestatie's.

Een tijdje geleden was er al een nieuwsbericht over een FPGA op een S939 socket, nu kan zoiets op bestelling (bij voldoende grote aantallen natuurlijk) meteen geïntegreerd worden in de processor. Een FPGA, daarin kan je hardware maken, je stopt er een programma in voor een processor (bijvoorbeeld gespecialiseerd in 231bits getallen vermenigvuldigen, of in (de)codeersystemen, of voor een RAIDbewerking), en dan kan je die FPGA als die processor gebruiken. Zo pas je je server aan aan nieuwe toepassingen en applicatie's, en zal het veel sneller gaan dan op de gewone 4 core's (voor de specifieke bewerkingen die er voordeel van hebben).
Zo heb je dus een real-time aanpasbare co-processor, die zich aanpast aan de software die je gebuikt, en allemaal in de processor ingebouwd :*)
Het lijkt eigenlijk meer een beetje op het omgekeerde van de PS3 princiepes, die 8 core's (waarvan 7 actief) zijn exact gelijk, en kunnen allemaal hetzelfde allemaal met de zelfde snelheid, of de software makers er voor kiezen om ze af en toe dedicated in te zetten heeft met de hardware niets te maken, het zijn gewoon 8 vector snelheidsmonsters met 1 grote scalar core aan het hoofd van de tafel.
Ps3 is het niet dat 'n egwoon 'n console. Eerder de CeLL CPU princiepe die in de PS3 wordt toegepast.
Alleen niet ondie maar los als array van Specialistische Copro in een appart socket met eigen systeem mem.
Zoals vroeger met FPU gedaan is. 80387 of Weitec FPU maar dan zonder mem.

Het verschill is iNtel & AMD hoeven voor hun huidige dieschrink geen Cell equalvent ontwikkelen die op 65nm past. Dit kan alleen met kleine cores. Daarom zijn die van CeLL in-order types omdat dit kleine Cores opleverd en dat past goed op 'n consumenten Die van 90/65nm.

Nu heeft AMD ook CeLL structuur maar dan los maar dan op grotere schaal met behoud van grote Full fledge Out of order Cores en 'n Complete Die beschikbaar is voor 'n zooi SPE. kunnen ook Out of order zijn plus hum eigen Mem en Cache.

elke Cell SPE hebben géén cache maar on die 'n klein memory pool. Voor de reden dat Memory acces latency's voorspelbaar zijn. En dus daarvoor makkelijker geoptimaliseerd kan worden in de Cell compiler. Of door zo'n Cell assembler guru.
Is er ook bekend hoeveel cores windows vista final ondersteunt? Want ik denk dat processoren op deze architectuur pas rond de release van vista worden verkocht?
Op de hoesje van mijn w2k staat iets van 'for use with 1-2 processors'
Als w2k het kan lijkt het mij zeer waarschijnlijk dat Vista minimaal 2 CPUs/cores ondersteunt.
er zit een groot verschil tussen de hoeveelheid cpu's die een OS ondersteund en het aantal Cores dat een OS ondersteund...

Een os kan 1 cpu ondersteunen die bestaat uit meerdere cores..

(deze discussie loopt trouwens al tijdje bij MS omdat ze hier < 2000 geen rekening mee hielden)
Ik geloof dat Win XP Home SP2 2 cores ondersteund en Win XP Pro SP2 4, voor SP2 was dit respectievelijk 1 en 2.
Vista zal dus wel 4 cores ondersteunen
Dat zal afhangen van welke versie je neemt, de standaard home editie zal waarschijnlijk 1 of 2 cpu's ondersteunen, de allerduurste versie 32 of 64 of zo.
64bit werd niet ondersteund door Windows Xp
Dual Core werd niet ondersteund door Windows XP Home
NUMA werd niet ondersteund door Windows..

Toch bracht AMD gewoon de hardware uit. Bovendien Servers zullen vaak Linux draaien, en die ondersteunen dergelijke hardware meestal vrij snel wel.
Java wordt genoemd als een van de dingen waar extra hardware voor zou kunnen komen, dit klinkt in mijn oren erg intressant, ik ben dan vooral benieuwd of deze chip dan ook de juiste performance tweaks topast om het ook snel te laten gaan, en een dergelijke implementatie dan wel fatsoenlijke multithreading met zich meebrengt.
Dat klinkt op het eerste gezicht allemaal interessant, maar de geschiedenis is niet vriendelijk voor coprocessoren: het probleem is dat de general purpose CPU technologie bijna altijd de dedicated hardware veel te vlug inhaalt en vervolgens ter plekke laat en/of absorbeert. GPU is een van de enige uitzonderingen hierop (omdat deze toepassing zo schaamteloos parallel is dat een CPU nooit dezelfde performantie kan evenaren.)

JAVA processoren werd van het begin aangekondigd als de heilige graal, maar ze zijn nooit doorgebroken. Ik zie weinig redenen waarom het nu wel zou gebeuren.
Wedden dat de filmindustrie DRM chips in die sockets wil hebben :r
Wedden dat er dan ook een hele grote markt ontstaat voor mod-chips die in deze socket passen? ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True