Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 35, views: 20.310 •

Volgens geruchten werkt AMD aan zijn komende gpu-generatie onder de naam Volcanic Islands, waarbij de verschillende chips codenamen met betrekking tot de eilanden in de 'Ring van Vuur' in de Grote Oceaan krijgen. De chips zouden naast parallelle ook seriŽle processorcores krijgen.

De naamgeving verscheen op de Chinese site ChipHell, waar ook een wazige afbeelding van een blockdiagram van een gpu die de codenaam Hawaii zou dragen verscheen. Veel valt niet uit de afbeelding op te maken, maar wel dat de architectuur flink op de schop wordt genomen, mocht het diagram authentiek zijn. Ook is te zien dat de gpu een parallel deel en een serieel deel bevat.

De gpu's zouden op 20nm geproduceerd worden, een procedé dat TSMC voor het vierde kwartaal van dit jaar op de agenda heeft staan. Hawaii zou over 4096 streamprocessors, 16 seriële processorcores, 4 geometrie-engines, 256 tmu's en 64 rop's beschikken. De geheugen-interface zou 512 bits breed zijn.

AMD Hawaii

Reacties (35)

Hmm, ik heb het gelezen, maar snap er in eerste instantie nog niet zo heel veel van..

Parallel schakelingen en serie schakelingen zegt mij natuurlijk wel wat, maar wat heeft dit voor een effect op het gebruik van een GPU-processor?

(Misschien moet ik maar even gaan Googlen..) :/
Waarschijnlijk een manier om te zorgen dat ťťn thread nu door meerdere (ander semi-idle) cores kan worden opgepakt.

Hoe dit precies in z'n werk gaat en of het goed schaalt is natuurlijk nog totaal niet duidelijk, maar het is op z'n minst interessant te noemen.

Wat ik me vooral af vraag: Gaat dit dan betekenen dat je b.v. 2 cores van 2,3Ghz als ťťn 4,6Ghz core gaat zien (practisch, natuurlijk niet feitelijk)? Of gaan processen nu op een CrossFire / SLI achtige manier over 2 cores uit ťťn cache? Of is dit nu een soort tegenovergestelde HT?

Gezien er zowel normale meerdere cores zijn als ťťn seriele unit, lijkt het mij haast dat de seriele cores voor een specialistische losse taak zijn, maar wat dan...

Lijkt me niet echt consumenten spul overigens, waarschijnlijk een server / workstation oplossing?
Net zoals er cpu taken zijn die meer hebben aan een enkele sterke core, zo zullen er ook wel gpu taken zijn die niet efficiŽnt gebruik kunnen maken van veel parallelle stream processors, maar meer baat hebben bij een paar sterke seriŽle units. Wat die taken dan zijn... geen idee.

Dit is trouwens wel de eerste keer (voor zover ik weet) dat tweakers met AMD nieuws komt vůůrdat het in het AMD nieuws topic op het forum is verschenen :D
Nee nee nee, daar heeft het niks mee te maken.
Een seriŽle bewerking is eigelijk een berekening waarin het resultaat van elke stap nodig is voor de volgende stap. Verschillende stappen moeten dus in volgorde uitgevoerd worden, en niet tegelijk. Dit is waar de processor (CPU) gespecialiseerd in is.

Voor het renderen van beeld kan veel parallel, het resultaat van een stap heeft geen invloed op andere stappen waardoor ze tegelijk uitgevoerd kunnen worden.

Als je een taak hebt die parallel uitgevoerd kan worden, dan is deze (enorm) veel sneller als deze ook daadwerkelijk parallel uitgevoerd wordt. Hier zijn talen zoals OpenCL en Nvidia CUDA voor.

Maar wat het voordeel hier nu van is ontgaat mij ook. Wat kan die "CPU" op de GPU wat de computers normale CPU niet kan?
Misschien gaat het niet om uitvoeren wat de CPU niet kan, maar de cpu (of in ieder geval de hoeveelheid communicatie tussen gpu/cpu) ontlasten?
Wat je bijvoorbeeld ook ziet met geluidskaarten - cpu kan het prima, maar steek zo'n kaart in je systeem en je kunt toch wat performance winst terugzien omdat de CPU wordt ontlast.


Andere mogelijkheid, waar je eerst gpu-in-cpu zag vanuit Intel en AMD, willen ze vanuit de GPU kant andersom gaan bekijken? Misschien zelfs om samenwerking tussen de 2 GPU (normale GPU en degene op de CPU) modules te kunnen aansturen... soort wanna-be CF opzet.
Daar zit immers voor AMD met Radeon een potentieel voordeel wat Nvidia waarschijnlijk niet voor elkaar kan krijgen.

[Reactie gewijzigd door Xanaroth op 8 mei 2013 17:35]

het is inderdaad meer het feit dat de communicatie tussen GPU en CPU een flinke tijd kost, als deze seriele cores direct kunnen managen wat de parralelle shaders/cores doen, dan kan je daar een enorme performance winst van zien op computing.

een ander voorbeeld zou kunnen zijn dat je bijv in games alleen tesselate bij de edges.
of waar er de grootste variatie is in de displacementmap, dis geeft nu veel te veel overhead maar als er een "cpu" in de GPU zit, dan kan dat prima.

maar dit is vooral nuttig voor het on the fly genereren van geometry, of grootschalige simulaties voor wetenschappelijke doeleinden verwacht ik.

Nvidia doet vlgneds geruchten hetzelfde (of iets soortgelijks iig) met de Maxwell serie,
welke ARM cores ingebouwd zou krijgen. Bron:
http://www.xbitlabs.com/n...eneral_Purpose_Cores.html
Misschien zijn die seriŽle cores voor fysische berekeningen zoals nVidia ook heeft met PhysX. Bij AMD graf. kaarten moet de cpu zorgen voor de fys berekeningen en zo zou hij ontlast kunnen worden.
Maar het doet mij denken aan de PS4 APU tenminste als GPU en CPU in een chip zitten. Mischien iemand ergens een slide geritseld maar weet niet waar de klepel hangt.
Maar mocht er Gkaarten komen met een APU die meer GPU is.
Dan houd dit in dat je PS4 achtige voordelen hebt.
en CPU coproc. Die bepaalde grote hoeveeleden data in snel vidgeheugen kan verwerken. Dus Systeem CPU met langzaam sysmem. En CPU on GPU met snel vidgeheugen.
Het voordeel ligt allicht in het feit wat je zelf ook al aangeeft; niet alle stappen hebben baat bij een parallele architectuur, dus daar neem je een dedicated seriŽle pipeline voor. Door de seriŽle pipeline in verschillende onderdelen uit elkaar te trekken, kan je op verschillende momenten de pipeline in en uit. Me dunkt.
Dit geloof ik pas als ik het ook echt zie. Zoals het er hier naar uitziet is dit een beetje te goed om waar te zijn in veel opzichten. Tenzij het TDP weer flink omhaag gaat.
hij word op 20nm gemaakt dus per transistor een lager verbruik is zeker wel de verwachting, waardoor er meer transistors in het zelfde TDP passen.
Kan iemand mij aub uitleggen wat dit betekend en wat de gevolgen zijn qua prestatie, stroomverbruik enz?
Klassiek bestaat een GPU uit een hele hoop 'cpu' (streamprocessors) die allemaal hetzelfde doen. Je hebt SIMD (single instruction, multiple data). En dat is ideaal voor grafische zaken. Je moet elke pixel, polygoon, vertex, etc uitrekenen op dezelfde manier.

Dat maakt de GPU ook uitstekend geschikt voor een bepaald soort wiskundige berekeningen (bv alle matrixbewerkingen).

Iets serieel doen op een GPU is 'moeilijk' omdat dat inhoud dat je een hele hoop streamprocessors ofwel moet stil leggen ofwel allemaal exact hetzelfde laten doen (met dezelfde input data).

Nu zou AMD naast de streamprocessors ook nog 16 seriele cpu's toevoegen. Ik vermoed dat dit is om de communicatie tussen de CPU (uitstekend geschikt voor seriele taken) en de GPU te verminderen? Het past wel in het breedere AMD kader van unification van GPU/CPU. Zie ook de 'Heterogeneous System Architecture' van AMD.

[Reactie gewijzigd door wpoely86 op 8 mei 2013 17:25]

Hoewel ik het niet met zekerheid kan zeggen vermoed ik dat de seriele verwerking bedoeld is om de klassieke volgorde van verwerking in CPU's sneller te laten verlopen. Wat een CPU nu feitelijk doet is bewerkingen loslaten op geheugenregisters, bewerkingen zijn op basis van de instructieset die de CPU ondersteunt. Om bewerkingen uit te voeren die de CPU niet standaard ondersteunt heb je dus meerdere bewerkingen nodig.

Het voordeel van de paralelle verwerking in GPU's is dat de kleine processortjes een instructie kunnen krijgen, programmeerbaar. Zo werken heel veel procesortjes aan dezelfde taak in kleine stukjes.

Ik kan me voorstellen dat het groot voordeel opleverd als je processortjes een instructie kan geven die je vervolgens als een ketting aan elkaar hangt. Zo kan het resultaat van processor 1 door naar procesor 2, zo de buffer in in plaats van 2 geheugenbewerkingen zoals bij de CPU. Heeft processor 2 geen instructie dan geeft die de gegevens door naar de volgende in de ketting. Bovendien zou je de processortjes misschien net zo instructies kunnen geven als bij paralelle processing mbv CUDA, OpenCL, etc.. Zo kun je complexere taken die afhankelijk zijn dus snel verwerken.

Lijkt overigens een beetje op de technieken van FPGA's..
Hoe je het ook bekijkt is dit in ieder geval een zwaar kaliber nieuw type chip.
(trm0001 zou bijna denken dat het een APU is.....)

Wellicht dat dit de oorzaak is van de 80 procent koersstijging in drie weken van AMD ?
(geen enkele beurs analist heeft deze stijging tot dusver kunnen verklaren)

Overigens had AMD vandaag nog meer nieuws.

Ze brengen eigen Gamers geheugen uit icm een gratis 6GB Gamers Ramdisk.

Je kan hier gratis de 4GB RAMdisk (zonder mem aanschaf) Downloaden:
http://www.radeonmemory.com/
http://www.radeonmemory.com/software_4.0.php

[Reactie gewijzigd door trm0001 op 8 mei 2013 20:03]

je kan ZONDER radeon geheugen prefect ook een grote ramdisk gebruiken hoor...

gewoon imdisk gebruiken..
wil je een persistent drive (dus die alles onthoud zoals die van AMD)? dan moet je ff met een scriptje (of via gpedit voor PRO users) de gegevens bij het starten/asfluiten van windows laten wegschrivjen/ophalen

ik vond het door gewoon te googlen op 'persistent ramdisk windows'
http://forums.guru3d.com/showthread.php?t=356046

[Reactie gewijzigd door bogy op 9 mei 2013 14:35]

ik heb imdisk een tijdje geprobeerd om dat werkt toch niet 100%
Sommige apps zien die schijf dan toch niet als een echte schijf, dus met bepaalde installaties (temp schijf staat op ram) gingen dan gewoon niet, ik gebruik nu:

http://memory.dataram.com...services/software/ramdisk

die werkt goed, en is gratis tot 4GB en kan dus lezen en schrijven van een bestaande image bij opstarten en afsluiten
AMD gebruikt gewoon ook Dataram en hebben het dan de naam Radeon RAMdisk gegeven. Dus het zijn dezelfde applicaties (die van AMD is ook tot 4GB gratis).
Een CPU is een chip met zware uitgebreide Cores die zeer general purpouse zijn en in verhouding sowieso veel veelzijdiger zijn maar ook heel stuk krachtiger.

Het blinkt tov GPGPU uit in serieel verwerken van afhankelijke code mixen. Dus zeer branch heavy code. en dat ook nog eens out of order. Iet waar een GPGPU helemaal in verslikt. Dus moeilijk concurent taken kan je beter op CPU doen. Een GPGPU is zodanig opgebouwed dat het in n aantal cluster met shared mem een dezelfde functie op veel onafhankelijke data paralel kan uitvoeren. Ook al zijn de cores eenvoudiger klein en zwakker maar sterk in specifieke berekeningen. ze zijn er met een zeer groot aantal. en met die verhouding van vele honderden cores tot die paar cores 2 tot 8 in zeer meer pure concurent taken veel sneller kunnen zijn.

Dit is dus een vereiste om
GPGPU efficent te kunnen benutten.
Het is alleen probleem dat voor de meeste software taken concurent gehalte nogal beperkt is en paar procent hak al snel in de performance potentie.

Als die roze dingetjes , is nogal slecht plaatje, de cores zijn. Is het blijkbaar een 2core met 1 FPU en dat 4x.
Bedankt voor je uitleg.
Kan ik hieruit opmaken dat de AMD Radeon 8970 gebaseerd zal zijn op deze architectuur?
Nee, zover ik heb begrepen zal de 8000-serie alleen voorbestemd zijn aan oem-fabrikanten. Deze GPU's zullen gebasseerd zijn op de huidige architectuur, met enkele verschillen. Waar de naamgeving van de echt nieuwe GPU architectuur heen gaat heb ik nog niet voorbij zien komen (kan ik gemist hebben).

[Reactie gewijzigd door _Dune_ op 8 mei 2013 17:32]

Typo ?! denk eerder dat de geheugenbus 512Bits breed is i.p.v. 521...

Ontopic, denk dat bij alle innovatie, goed of slecht er altijd wel iets nuttigs uitkomt.

Even afwachten dus hoe dit uitpakt.

[Reactie gewijzigd door uray op 8 mei 2013 17:11]

Ik maak eruit op dat dit een volgende stap is in de versmelting CPU+GPU. Maar daar waar bij de APU dit vanuit CPU standpunt gebeurde is het nu vanuit GPU standpunt.
Inderdaad.

Wie goed kijkt ziet dat die serial module telkens een stuk [SPU | FPU | SPU] bevat.
Dit is gewoon Bulldozer en aanverwanten. Het gaat volgens mij dus gewoon om een APU, maar dan met verder integratie. Je kan hier namelijk zien dat dit gewoon een diagram is van een core met AMD's hUMA. Zie ook volgende link:
http://arstechnica.com/in...ming-this-year-in-kaveri/

[Reactie gewijzigd door H!GHGuY op 9 mei 2013 08:45]

Helaas is AMD lekker verwarrend bezig em zal de 8000 serie voor de losse verkoop van deze technologie gebruik gaan maken.

Het klopt dat de 8000 serie die nu al door de oema gebruikt wordt niks anders dan lichte 7000-updates zijn.

Er zal dus zometeen een 8000-serie en een 8000-oem serie zijn, die aanzienlijke prestatieverschillen zullen hebben.
Wie zegt dat dit een HD8K wordt? Misschien wordt dit wel gewoon de HD9K. Of misschien wordt het wel helemaal geen Radeon-chip, maar maken ze hier iets geheel nieuws van, dat naast de huidige APU en GPU chips wordt gezet.
Kan het fout hebben, maar lijkt mij de ideale upgrade-kaart. Je oude CPU ontlasten door er een GPU/CPU bij te steken...de nieuwste games op een oud beestje!?

(afgezien van stroomverbruik, moederbord compatibiliteit etc.)
Jep, nep. Gepost op S|A en daarna overgenomen op Chiphell, verkeerd geÔnterpreteerd i.v.m. Chinees denk ik.

"De eerste specs over een mogelijke HD 9970 hebben het over 4.096 stream processors en een 512-bit geheugenbus, maar dat lijkt ons aangezien de GCN-architectuur en het 28nm-productieproces allebei gehandhaafd blijven, erg onwaarschijnlijk."

SweClockers zegt dat het toch weer 28 nm wordt. Voorlopig nog even onduidelijk.
Inderdaad nep... jammer dat alle media het overneemt als iets op Techpowerup komt.
Zal dit niet iets met ray-tracing te maken hebben? Voor zover ik weet draait dat relatief veel beter op een tradtionele CPU dan op een GPU. Ray-tracing is in ieder geval wel de toekomst maar momenteel nog veels te zwaar om real-time te renderen :P
Ray tracing op de GPU werkt verre van optimaal omdat de GPU slecht is in branching, maar het is nogsteeds veel sneller als op een CPU. Van de week een paper gelezen over het sorteren van rays zodat alle rays voor 1 SPU dezelfde branch doorlopen.

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Gamecontrollers Game-accessoires Smartphones Sony Microsoft Apple Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013