Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 49, views: 16.658 •

AMD heeft aangekondigd apu's in de toekomst te gaan voorzien van unified memory access. De techniek, die AMD hUMA noemt, zorgt ervoor dat de cpu en de gpu in de apu tegelijk van hetzelfde geheugen gebruik kunnen maken. Dat zou de efficiŽntie ten goede komen.

De processorfabrikant heeft hUMA mogelijk weten te maken door de gpu en de cpu op een enkele die te bakken, schrijft TweakTown. Dankzij hUMA kunnen de cpu en de gpu via dezelfde address space directe toegang tot hetzelfde geheugen krijgen. Bij de huidige processors wordt een door de cpu voltooide berekening gekopieerd naar het geheugen van de gpu. De gpu maakt vervolgens een berekening en het resultaat wordt weer teruggezet naar het geheugen van de cpu. Met behulp van hUMA kan de cpu een berekening uitvoeren, waarna de gpu met het resultaat daarvan in hetzelfde geheugen verder werkt. Doordat er bij het gebruik van hUMA geen data over de relatief trage i/o-bus tussen de cpu en gpu heen en weer gekopieerd hoeft te worden, neemt de efficiëntie van het systeem toe. Daarnaast is de techniek interessant voor programmeurs die hun software willen optimaliseren door sommige berekeningen door de cpu te laten doen, terwijl het handiger is om andere - parallelle - berekeningen aan de gpu over te laten.

Volgens HotHardware zal AMD's Kaveri-chip de eerste apu zijn die gebruik zal gaan maken van hUMA. Kaveri zal de opvolger van AMD's Richland-apu's worden, die onlangs door de fabrikant werden uitgebracht. Richland beschikt net als voorganger Trinity nog over Piledriver-cores, maar Kaveri zal Steamroller-cores krijgen en op dezelfde die een gpu met AMD's gcn-architectuur krijgen. Kaveri staat gepland voor de tweede helft van 2013.

AMD is niet de enige chipontwerper die werkt aan een 'verenigde' geheugentoegang. Nvidia wil op de Maxwell-gpu's ook andere processors, zoals de cpu, toegang geven tot het werkgeheugen. Nvidia heeft deze techniek Unified Virtual Memory gedoopt. Ook Intel heeft een vergelijkbare techniek aangekondigd. De chipfabrikant heeft een DirectX-extensie genaamd 'InstantAccess' aangekondigd. Daarmee zou gebruik gemaakt kunnen worden van een vergelijkbare feature op de Haswell-processors van Intel.

AMD hUMA AMD hUMA AMD hUMA

Reacties (49)

Een typische complot-denker zeker?

Laten we met z'n allen aub weer een Z80 gaan gebruiken. Veel minder kans op virussen.
Heerlijk een Z80 uit het MSX computer tijdperk 3,5 tot 7,5 Mhz als een msx computer was omgebouwd "opgevoerd" met een schakelaar kon tussen de lage 3,5 mhz en de hoge snelheid 7,5 mhz geschakeld worden.

Ik kan het weten ik had vroeger zoon omgebouwde MSX2 computer.

Gelukkig zitten we in 2013 en hebben we inmiddels processoren die tot 4000 x sneller werken.

Wat virusscanner + firewall betreft ik vind dat een aparte processor dit voor zijn rekening moet nemen. Bijvoorbeeld een energiezuinige Arm processor. Die met zijn eigen software draait en zelfstandig updates binnenhaalt en verwerkt.

Lex
Jottum, wat een idee. Als we dan een wifi module toevoegen, kun je je mobiele telefoon ook veilig via die verbinding laten lopen. En omdat het wifi is, gelijk al je mobiele apperaten/PC's die ook WiFi hebben.

Als we dan toch al bezig zijn, is het natuurlijk handig om ook maar paar netwerk poortjes erop te zetten, zodat je een2de bekabelde PC ook snel kan aansluiten. Wel zo handig.

Ik denk dat we dan als beste een appart OS ook kunnen gebruiken op die arm, iets van OpenWRT. Als we deze speciale arm chip op een apparte printplaat zetten, b.v. een PCI slot, kun je hem ook in andere PC's plaatsen. Misschien noemen we zoiets dan 'Accesspoint card' of 'Wifi-router card'. Of nog beter, gelijk in een appart klein kastje, hoef je je PC niet aan te laten staan als je toch via ander toestel gebruik van wil maken.

We gaan rijk worden als we dit concept verkopen!
Kun je vertellen waarom je dan kans hebt op nieuwe virussen? Dat zie ik namelijk niet.
als de gpurechtstreeks in het geheugen kan schrijven, dan kan een kwaadwillende proberen om het geheugen aan te passen via de gpu
de details ken ik niet, maar op het eerste zicht zou ik ook denken dat het risico groter wordt
Dat kan net zo goed met een CPU. Het maakt dus niks uit. Wel is de kans aanwezig dat er mogelijk wat dingen mis gaan in het geheugen. Maar daar hebben ze vast over na gedacht.
Nieuwe features in de drivers, die complex zijn, en 3d drivers hebben al een geschiedenis van lekken.

http://www.extremetech.co...l-is-fundamentally-flawed

En ook daarom wil een web 3d api nog niet echt van de grond komen.

Maar evengoed moet een virus eerst een ingangspunt hebben. In principe zit alles goed dicht, en nieuwe features hebben eerst nieuwe drivers etc etc nodig voordat er iets mee kan gebeuren.

Gewoon welkome feature als het prijseffectief is.

[Reactie gewijzigd door leuk_he op 30 april 2013 19:16]

Niet meer dan voorheen aangezien er niet zoveel veranderd. Vroeger werd de data voortdurend gekopieerd, nu gedeeld.
Inderdaad. Bij de ontwikkeling van WebGL ondersteuning voor Chrome letten we er heel goed op dat alle geheugenbuffers die door de GPU gebruikt worden maar waar de webpagina toegang toe kan krijgen, eerst gewist worden zodat er geen informatie van een andere applicatie meer in zit (zoals je bankgegevens in een andere tab). Dit is relatief makkelijk beheerbaar omdat het GPU-geheugen door een grafische API wordt aangevraagd/vrijgegeven, maar als je met hUMA willekeurig geheugen kan gebruiken zorgt dat mogelijk voor extra complicatie.
Het verschil tussen een PC en een console wordt steeds kleiner in de komende jaren. Wel jammer als je net een PC-videokaart met 2GB RAM hebt gekocht, want "unified memory" zal heel belangrijk worden. Alle nextgen consolegames zijn geoptimaliseerd door heel veel unified geheugen.

[Reactie gewijzigd door ymmv op 30 april 2013 11:25]

@ymmv : Het voordeel dat consoles en PC's steeds meer op elkaar gaan lijken is dat spellen die van de console naar de PC zijn "geport" waarschijnlijk van hogere kwaliteit zullen worden. De conversie is stukken makkelijker omdat je voor dezelfde architectuur aan het ontwikkelen bent. Bovendien kan er bij gamestudio's flink bespaard worden op hardware.

De ontwikkeltijd is korter, de kwaliteit hoger en er wordt geld bespaard. Lijkt mij een win-win situatie :-)
Hoezo is dat jammer? Die kaart gaat sowieso wel een paar jaar mee, ondanks dit hUMA/UVM gebeuren. De consument zal van deze ontwikkeling voorlopig weinig merken.
zo gaat het altijd met dedicated hardware.

Mijn Socket7-systeem had 80MB SDram, een geluidskaart met 1 DIP MB geheugen en dedicated DSP, een videokaart met 4MB NVram, en een dedicated 3Dkaart met 4MB EDO ram. En dan hadden we ook nog de north- en southbridges in de chipset en de l3 cache op het mainboard. Destijds allemaal trucs om performace te verhogen en de PCI/EISA bussen hun beperkingen te omzeilen.

Alle ontwikkelaars/fabrikanten van deze componenten zijn opgeslokt en verdwenen, maar dit heeft jaren geduurt, en ontwikkelingen/vereisten gaan nu minder hard dan in de tweede helft van de 90's.

Die high-end videokaart van nu kan dus echt nog wel zijn technische levensduur uitzitten voor hij nutteloos word.
Unified memory zal net zo belangrijk worden als de GPU waar het aan hangt.

Als AMD deze tech dus aleen maar in hun APU's stopt (zoals in het artikel staat aangegeven) hebben de meeste gamers er nog niks aan.

Vraag me ook af of unified memory een prestatie winst zal geven voor de next gen consoles, denk dat ze liever wat geheugen schrappen om de kosten te drukken.
De Playstation 4 zal over de voorganger van dit concept beschikken, alwaar zowel de processor als GPU gebruik kunnen maken van unified GDDR5 geheugen.

De SoC's worden zo natuurlijk wel steeds groter worden. Alles wordt er tegenwoordig op geÔntegreerd. Op zich vind ik het prima; zo is het relatief gezien eenvoudiger om heatsinks te ontwikkelen. Je hoeft dan niet met van die koperen pijpjes (zoals in notebooks) te gaan zitten rommelen om de warmte van externe componenten (zoals GPU / Southbridge / Northbridge) af te voeren.

Lijkt me bovendien makkelijker om zo PCB's te ontwerpen; zaken als weerstand in koperbanen, ESD voorschriften e.d. zijn dan makkelijker onder controle te houden omdat de componenten zo dicht op elkaar zitten.

In eerste instantie was ik wel sceptisch over dat hele APU concept. Ik had niet verwacht dat die geÔntegreerde GPU's zo krachtig konden worden. Het kwam ook wel door de reputatie die voorgaande IGP's hadden op PC-moederborden. Ben blij dat ik daar geen gelijk in had :-)
De Xbox 360 had al unified memory, het is ook niet echt een nieuwe techniek, het enige nieuwe is dat het nu gebruikt gaat worden op een x86-64 APU.
Unified Memory (wat elke "geÔntegreerde GPU" al heeft sinds de jaren 90) is iets anders als unified access.

Bij Unified Memory is er ťťn geheugen voor alle componenten dat statisch dan wel variabel wordt opgesplitst in delen voor de CPU, GPU en andere componenten. Ondanks dat er ťťn geheugen is is er niet ťťn memory space, en hebben de componenten geen directe toegang tot de memory space van een ander component.

Bij Unified Access kan de GPU bijvoorbeeld ook direct registers van de CPU aanspreken en andersom, zoals in een multicore CPU core 1 ook bij de cache van core 2 kan. Unified Access is vooral practisch alleen interessant voor general purpose compute zaken. Het zal vooral de performance flink verbeteren waar een applicatie niet volledig op een GPU kan draaien maar berekeningen tegelijkertijd zowel op de CPU als op de GPU moet uitvoeren.

[Reactie gewijzigd door knirfie244 op 30 april 2013 16:07]

ExtremeTech zegt het mooi: AMD is calling the new approach hUMA, Heterogeneous Uniform Memory Access, but the company’s definition of UMA and NUMA are rather tortured — so much so, in fact, that we’re going to ignore the term. (http://www.extremetech.co...ar-in-kaveri-xbox-720-ps4)
UMA staat voor Unified Memory Architecture, niet Access, en wordt als zodanig al jaren gebruikt. De definities die zij er aan geven wekken verwarring op, zoals roy-t bewijst.
UMA staat voor Unified Memory Architecture, niet Access, en wordt als zodanig al jaren gebruikt. De definities die zij er aan geven wekken verwarring op, zoals roy-t bewijst.
http://en.wikipedia.org/wiki/Uniform_Memory_Access

Het lijkt er op dat je zelf in de war bent. Er is Uniform Memory Access en Unified Memory Architecture. AMD zelf heeft het over Uniform Memory Access, dus niet Unified Memory Access zoals jij hier claimt.

Extremetech lijkt dan ook meer uit te zijn op een late steek onder water dan er serieus op in te gaan.
http://www.webopedia.com/..._Memory_Architecture.html
http://www.javvin.com/hardware/UMA.html
http://www.futuretech.blinkenlights.nl/o2/1352.pdf
http://encyclopedia2.thef...ified+Memory+Architecture
http://www.encyclo.nl/begrip/Unified%20Memory%20Architecture

En zo kan ik nog wel even door gaan.
Al deze bronnen hangen Unified Memory Architecture aan de afkorting UMA. Uniform Memory Access is een door AMD verzonnen term die een of andere idioot op Wikipedia gezet heeft.
http://acronyms.thefreedictionary.com/Uniform+Memory+Access

34 mogelijke betekenissen met de afkorting UMA, waarvan er al 10 technologie-gerelateerd. Ik begrijp best dat je van mening bent dat UMA alleen maar voor Unified Memory Architecture gebruikt mag worden, maar verschillende bedrijven hebben daar duidelijk andere meningen over.

Blijkbaar was dat nooit een probleem, totdat AMD UMA gebruikte, met als verduidelijking dat ze over Uniform Memory Access praten, waarbij verschillende onderdelen bij elkaars geheugen kunnen gluren, wat dus wat anders is dan Unfied Memory Architecture, waar een onderdeel gewoon een stuk toegewezen geheugen gebruikt voor eigen doeleinden.
Normaal gezien wordt met een "normale" videokaart het geheugen dubbel gebruikt , een keer voor de cpu (gewone geheugen) en daarna in het video ram. Door deze oplossing wordt daar toch wel redelijk wat winst gehaald.

Vraag mij eigenlijk af waarom dit niet al in de soc zitten (Temash en Kabini) op zulk soort systemen zou het ook nog een behoorlijke stap kunnen maken.
Heb je dadeijk virussen in de vorm van een jpg. Net die bitjes in het gehugen om de processor een andere instructie te geven.
Dan denk ik eerder aan een buffer-overflow o.i.d in een JPEG library. Nee, deze verandering van architecture heeft geen invloed op security.

Het enige wat ik kan verzinnen is dat hackers de firmware van de GPU manipuleren. Omdat de GPU toegang heeft tot het hele geheugen (nu trouwens ook al) kun je allerlei zaken manipuleren, waar je normaaliter niet bij kan komen.
En weer een logisch stap opweg naar de volledige fusion van cpu en gpu dat leid tot unified programming platform tussen cpu en gpu die in 2015 staat gepland. Vanaf dan moment zou gpu en cpu naadloos codes moeten kunnen switchen tussen cpu en gpu, afhankelijk van waar het deel van e code het snelste op draait.

Zo kan je dus berekening krijgen die eerste deel door de cpu word gedaan dan stukje door de gpu omdat dat stukje efficiŽnter op de gpu draait en daarna neemt de cpu het weer over om einde van de berekening af te ronden omdat cpu daar beter in is.

Overigens is niet de vraag of Kaveri de cpu zal zijn waarop dit als eerste geactiveert is, dat is wel zeker, AMD heeft dat allang gemeld dat het in 2013 de nieuwe architectuur unified adress space voor cpu en gpu zal krijgen. ;)

HotHardware doet net of ze iets speciaal weten, en tweakers had het wel even zelf uit mogen zoeken wat mij betreft, waarom vragen redacteurs nooit eens hulp in amd topic, die hadden je dat zo kunnen vertellen, althans aantal zeker. ;)

Zie ook eerder roadmaps die amd maanden geleden al heeft laten zien.
http://www.dvhardware.net/news/2012/amd_hsa_roadmap_vrz.jpg
http://www.vortez.net/ind...p;action=file&id=2185

[Reactie gewijzigd door mad_max234 op 30 april 2013 12:43]

In het tweakers artikel staan ten minste 2 fouten:

Allereerst is er de stelling dat met de introductie van hUMA de cpu en gpu op 1 "die" komen.
Dit is uiteraard onzin, de cpu en gpu zitten allang echt op 1 "die".

Alleen Intel had in het begin van de combinatie cpu en gpu in 1 processor twee aparte "dies". Dit was dan duidelijk zichtbaar door de twee aparte plakjes. AMD heeft nooit deze plaatsing van twee aparte chips, (1 rekenkern en 1 grafische kern) op 1 processor toegepast. Bij AMD is het altijd al 1 plakje silicium geweest. Daardoor was AMD zelfs laat met het daadwerkelijk verkopen van deze chips.

Ten tweede staat er in het artikel dat er geen data meer hoeft te stromen tussen het cpu en gpu gedeelte bij gebruik van hUMA. Dit is uiteraard onjuist aangezien de uitkomst van de berekening (lees: dat is ook data) wel van de cpu naar de gpu moet worden doorgegeven. Dit staat NB in de regel erboven waardoor die stelling strijdig is met de daarboven gemaakte opmerking.

Dat deze data via het geheugen word verkregen is sneller maar de gpu zal uiteraard altijd een stukje data nodig hebben om berekeningen op uit te kunnen voeren.

Beetje slordig allemaal......... :O

Back-on-topic:
Een mooie en veelbelovende techniek die echt Universele CPU/GPU chips die dus ook Universeel programmeerbaar zijn een stuk dichterbij zal brengen.

[Reactie gewijzigd door trm0001 op 30 april 2013 14:47]

Eigenlijk heeft het alleen vat op het 32 bit gedeelte , dat was een puinhoop met spelletjes en grafische kaarten met veel geheugen. Als je "gewoon" 64 bit ondersteund had je er minder mee te maken. En als het kopiŽren wegvalt scheelt het ook weer een beetje.

De vraag is min of meer wanneer dit naar gewone cpu/gfx configuraties komt.
Bovendien is AMD geen processorfabrikant meer, wel nog ontwerper :P.
@C.Hariri:
Bovendien is AMD geen processorfabrikant meer, wel nog ontwerper :P.

Dat is onjuist en wel op twee manieren:

1) AMD heeft een miljoenenbelang in globalfoundries waardoor AMD wel degelijk ook nog in de daadwerkelijke fabricage van hun eigen chips "zit".

2) AMD, ontwerpt en ontwikkeld niet alleen zijn eigen chips, ze verkopen ze ook daadwerkelijk, sturen bij waar nodig en zijn (eind) verantwoordelijk voor de producten.

Dwz: Ik koop mijn APU's/CPU's niet bij globalfoundries maar bij AMD waar ik ook garantie heb.

NB. Een Apple product koop je ook bij Apple en word door Apple gemaakt al gebeurd dat in werkelijkheid in de beruchte fabrieken van Foxconn.

[Reactie gewijzigd door trm0001 op 30 april 2013 18:25]

1) Volgens mij had AMD een paar jaar terug enkele honderden miljoenen afgeschreven om juist wederzijds onafhankelijk te zijn met GloFlo.

Edit:
http://gulfnews.com/busin...global-foundries-1.990632
Dubai: Advance Technology Investment Company (ATIC) yesterday confirmed it had acquired Advanced Micro Devices' (AMD) remaining 8.8 per cent equity in Global Foundries, the semi-conductor company created when AMD spun off its manufacturing division in 2008.
2) Apple sourcet wel meer dingen uit; zo zijn de panelen van Samsung/Sharp; RAM van samsung/hynix en wordt alles inelkaar gezet bij Foxconn. Daarom staat er ook "designed in California" op.

Directe vergelijking: Apple ontwerpt een deel van de chips zelf, die ze bij TSMC en Samsung (nogsteeds?) laten maken. Om dan te stellen dat Apple de chips "fabriceert" is onjuist. Hetzelfde geldt voor AMD; het IP wordt uiteraard door AMD geproduceert maar het silicium, een deel van de "processor" die je fysiek vast kan houden wordt in het geval van Kabini SoC's (28nm) door TSMC en de 32nm en 45nm lijn door GloFlo gemaakt.


3) Nu we al off-topic bezig zijn; zoals bekend zijn de conventionele opterons als voorheen aangegeven (http://www.cpu-world.com/...ver_2010_2013_roadmap.jpg) afgeschoten.

Jammer, maar recentelijk is er iets interessanters opgedoken (http://www.xbitlabs.com/p...d_opteron_for_hosting.jpg). Opteron Kyoto; mid 2013. Ben benieuwd hoeveel Jaguar cores elk bevatten http://chip-architect.com/news/2013_core_sizes_768.jpg.

[Reactie gewijzigd door C.Hariri op 30 april 2013 20:34]

De afschrijving van miljoenen over de afgelopen jaren ging voornamelijk om de afname verplichting die AMD had bij GF.

Dat AMD inmiddels geen aandeel meer heeft in GF wist ik niet.

NB. Nergens zeg ik dat Apple zelf zijn chips maakt. Wel maakt Apple zijn eigen producten. Dat dit word uitbesteed aan bv foxconn/samsung etc. doet er niet toe. Je koopt een Apple product bij Apple "gemaakt" door Apple en je hebt garantie bij Apple.

Kabini van AMD word dan ook niet door TSMC gemaakt maar door AMD. Dat de productie word uitbesteed aan TSMC is niet relevant.
@C.Hariri:
Bovendien is AMD geen processorfabrikant meer, wel nog ontwerper :P.

Dat is onjuist en wel op twee manieren:

1) AMD heeft een miljoenenbelang in globalfoundries waardoor AMD wel degelijk ook nog in de daadwerkelijke fabricage van hun eigen chips "zit".

2) AMD, ontwerpt en ontwikkeld niet alleen zijn eigen chips, ze verkopen ze ook daadwerkelijk, sturen bij waar nodig en zijn (eind) verantwoordelijk voor de producten.
.
AMD heeft geen enkele belangen meer in GF, heeft nog wel fabrieken in china overigens, amd is niet helemaal fabless, alleen de grote productie fabs zijn van de hand gedaan. Sommige voorspellen dat amd weer opnieuw in semiconducter productie gaat stappen binnenkort.

AMD heeft/had nog wel contract dat ze minimaal aantal voor bepaalde tijd afnam bij GF, daarna is AMD helemaal vrij van GF.

AMD heeft nog een ontwikkel fab, waar ze chipjes bakken op kleine schaal, en fabs om silcon wafers in cpu te veranderen, packet fab in china.

Edit/
http://www.engadget.com/2...alfoundries-buys-out-amd/
http://www.extremetech.co...-share-in-globalfoundries
http://hardware.slashdot....-share-in-globalfoundries

[Reactie gewijzigd door mad_max234 op 1 mei 2013 03:15]

Okay, heel leuk. Alleen heeft gpu geheugen een enorme bandbreedte met een hogere latency, en standaard ram heeft een zo laag mogelijke latency met een veel lagere bandbreedte. Al zie je hier wel dat cpu ram bij iedere nieuwe generatie een verhoging in de rauwe snelheid ziet dat ten koste gaat van de toegangstijd.

Welke van de 2 is het meest geschikt om hŤt geheugen te zijn? Als je het nieuws over de PS4 las, daar staat in dat het een grote bak gddr5 word, maar in een console werk je om de hoge toegangstijd heen, maar in een pc bak waar iedereen maar wat bij elkaar mikt is het voordeel van een enkele configuratie, waar je eenvoudiger om beperkingen heen kan werken, weg.

Wat er nu gedaan kan worden is kijken of de bandbreedte dan zo hoog kan worden opgevoerd dat het allemaal niet zo meer uitmaakt. En dat zal vast de reden zijn dan AMD al stappen heeft gezet bij Jedec om gddr6 erdoor te krijgen. En als ze daar naast een belachelijke doorvoer een leuke toegangstijd weten neer te zetten, is het helemaal feest. Maar gddr6 is er pas vanaf 2014 op z'n vroegst.

Dit is de eerste generatie van unified memory op de desktop en ik zie niet snel enorme verbeteringen, iig niet totdat het beter geschikt geheugen voor dit grapje is.
knirfie244 legde hierboven al mooi het onderscheid uit tussen Unified memory en Unified Access memory. Unified memory hebben we nu al met de vele geÔntegreerde graphics in chipsets of CPUGPU's (AMD APU's, de AMD *G chipsets, intel HD graphics). Deze oplossingen hebben dus reeds het issue dat standaard RAM geheugen te traag is voor de geÔntegreerde GPU. In de systemen die met deze oplossingen worden gebouwd wordt dat deels gecounterd door wat hoger geklokt geheugen. Wat extra investeren in het RAM geheugen loont bij deze systemen meer dan bij high end systemen met discrete graphics en bijbehorend geheugen.

Unified Access memory geeft deze Unified memory oplossing nu een edge omdat (in mijn voorstelling) haal en breng commando's als resultaat van communicatie tussen CPU en GPU deels(?) overbodig kunnen worden. Dit maakt bewerkingen korter (gerekend in klok tikken). Terwijl ik dit schijf realiseer ik me dat dit op een laag niveau de nodige veranderingen nodig zijn. De bestaande instructieset moet op een andere manier tot uitvoer worden gebracht. Hoe? Not my cup of tea.

Het bezwaar dat je noemt ten aanzien van verschillende geheugenvereisten is nu dus nu reeds een trade off in de huidige integrated APU/integrated graphics systemen. Ondanks deze beperking weten met name de APU systemen uit de CPU-GPU integratie zoveel voordeel te putten dat bij gebruik van wat sneller geheugen het nadeel niet zo voelbaar is.

Interessante vraag is natuurlijk over welke efficiŽntie verbetering we het hier hebben. Hoe groot moet ik mij de communicatie tussen CPU en GPU voorstellen. In mijn beeldvorming voert de GPU een grotendeels autonoom proces uit, hier en daar aangestuurd door de CPU. Is er wel zo'n grote overlap in gebruikt geheugen? Kan iemand hier iets zinnigs over zeggen?
Het zal wel een voorproefje zijn met DDR4.in gedachte.
Of juist de stap naar gddr voor systeem geheugen, maar dan zouden we nu toch wel langzaam fabrikanten moeten horen over reepjes met ddr4 of gddr, anders vrees ik dat voor aanstaande cpu's nog niet het geval zal zijn.
Dit is heel interesant.
Op dit moment werk mijn applicatie met een 6GB grote map in ram en tot nu toe kon ik de gpu niet gebruiken om deze gegevens te doorzoeken (soort van routeplanner)

[Reactie gewijzigd door scribly2 op 30 april 2013 16:42]

Dat kan wel, althans de huidige apu(trinity apu's) van amd kunnen dat al, de gpu kan al bij systeemgeheugen om gpgpu taken uit te voeren in het deel van het geheugen wat de cpu in gebruik heeft. ;)
Apart dat zo'n simpel idee er nu pas komt? Was dit voorheen technisch niet mogelijk?
Het lijkt me sterk dat dit nog niet bedacht was namelijk.

Op dit item kan niet meer gereageerd worden.



Populair: Gamecontrollers Websites en communities Smartphones Beheer en beveiliging Sony Microsoft Games Politiek en recht Consoles Besturingssystemen

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013