Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 27 reacties
Bron: Beyond 3D

In een reeks presentaties op universiteiten heeft Intel zijn visie op de toekomst van de cpu gepresenteerd. Het bedrijf ziet de general-purpose gpu als een bedreiging voor de traditionele cpu.

Intel's chief architect van de Visual Computing Group, Douglas Carmean, heeft de afgelopen weken diverse universiteiten bezocht in de VS waarin hij een presentatie gaf over de toekomst van de gpu en cpu. Hierin legt hij uit waar de plotselinge interesse in gp-gpu's vandaan komt. Volgens Carmean heeft die plotselinge interesse alles te maken met de veranderende architectuur van gpu's waardoor de zeer snelle floating point units van een grafische chip interessant zijn om te gebruiken voor alternatieve toepassingen. De toenemende interesse in gp-gpu's is onder andere toe te schrijven aan 32-bit floating point ondersteuning, grotere shaderprogramma's en de mogelijkheid om ook loops en branches te gebruiken binnen shaderprogramma's.

Intel gp-gpu

De Visual Computing Group van Intel blijkt plannen te hebben voor een gp-gpu die voorziet in zestien units die met 6,25 watt relatief energiezuinig zijn en in-order instructies kan uitvoeren. Hoewel de individuele units vrij traag zijn, vormen ze samen een potentieel snellere processor, mede dankzij het gedeelde cachegeheugen. Daarnaast worden fixed units toegevoegd die bepaalde bewerkingen zeer snel en efficiënt kunnen uitvoeren. Een dergelijke architectuur zou zowel voor gpu-toepassingen als voor de standaard cpu-toepassingen kunnen worden gebruikt. Dit vereist wel significante aanpassingen aan bestaande compilers en ontwikkeltools, aangezien de aansturing van de gp-gpu anders is dan die van de huidige processors. Een sterk punt van de architectuur is dat het de voordelen van threading combineert met de sterke punten van vector-processors. Threads werken efficienter wanneer er weinig synchronisatie nodig is, terwijl vector-processors geschikter zijn wanneer er wel veel synchronisatie vereist is tussen de verschillende codepaden. Het is duidelijk dat Intel de gp-gpu's als mogelijke bedreiging ziet voor zijn huidige cpu-business, maar aan de andere kant ook zijn best doet om zelf een graantje mee te pikken van deze nieuwe trend.

Moderatie-faq Wijzig weergave

Reacties (27)

ik weet niet precies wat gp gpu's anders zijn dan gewone gpu's, want dat zijn vooral DSP's.
En DSPs kunnen allemaal dingen als conditional jumps niet.
Dus of de CPU ooit vervangen wordt...
Ik zie eerder FPGA's in computers eindigen... en dan zo'n type met een gedeelte CPU en de rest zelf te programmeren DSP
De eerste twee letters in "GPGPU" staan voor "General Purpose".

"Vroeger" had je de CPU, dat is een generieke (general purpose dus) processor die je vanalles kunt laten doen, en je had de GPU, die heel gespecialiseerd was voor graphics.

CPU's zijn traditioneel processoren die maar één ding tegelijk kunnen (hoewel dat aan het veranderen is met de moderne multi-core processoren). GPU's zijn traditioneel processoren die heel veel tegelijkertijd kunnen doen - in plaats van één of twee hele ingewikkelde rekenunits (zoals een CPU) hebben ze een heleboel kleine eenvoudige rekenunits.

De trend van de laatste tijd is dat die rekenunits op GPU's steeds meer kunnen en dus steeds generieker worden. Je kunt ze nu voor veel meer gebruiken dan alleen graphics-specifieke functionaliteit.

De nieuwste GPU's zijn allang geen simpele DSP's meer en die kunnen wel conditional jumps uitvoeren. nVidia heeft nu een SDK genaamd CUDA waarmee je je 8800 in C kunt programmeren.

Het ziet ernaar uit dat CPU's en GPU's naar elkaar toe aan het groeien zijn - CPU's krijgen meer cores, GPU's worden generieker.

De komende jaren worden een interessante tijd in de ontwikkeling van CPU's en GPU's, ik ben benieuwd hoe het over vijf jaar staat met de processoren.
Nog steeds is het zo dat je GPU meer gericht gaat zijn op drijvende komma berekeningen en daar zeer snel in is, terwijl het implementeren van andere berekeningen meestal wel aan de performance (alsook de complexiteit) van de processor gaat zitten. Daarom dat de 'gewone' CPU gaat blijven bestaan.

De GPU gaat echter meer op naar de functie van een extra co-processor, iets wat we vroeger ook al hadden (extra processor op een aparte socket) maar doorheen de tijden in de 'gewone' CPU gebakken werd.

Het probleem is dat onze eye-candy en multimedia steeds meer van die on-die coprocessor vraagt, wat de processor tegenwoordig dus niet meer op zijn eentje kan doen (ook vanwege architectuurverschijnselen), daarom dat we het off-loaden naar aparte processoren. Echter hebben ze gezien dat de GPU niet altijd volledig wordt gebruikt, dus kunnen ze het consolideren met audio en andere FP berekeningen die vroeger in de CPU geimplementeerd werden (via hacks zoals 3dnow! en MMX)

Ik hoop echt dat de berekeningen meer van het x86 platform gaan weggaan, en dat we binnen enkele jaren terug gaan naar de volle RISC processor-architectuur en geen on-chip CISC-emulator meer nodig hebben.
CPU's zijn traditioneel processoren die maar één ding tegelijk kunnen (hoewel dat aan het veranderen is met de moderne multi-core processoren).
De Pentium had al twee ALU's dus het is toch alweer ruim tien jaar geleden dat processors maar 1 ding tegelijk konden doen.
AMD heeft waarschijndelijk ATI gekocht met dit in het achterhoofd. Intel kan aan gaan pappen met nVidia als ze een probleem zien.
Intel is zelf al personeel aan het werven om ook GPU's te gaan maken met meer power dan hun huidige IGP's. Ik denk ook niet dat nVidia zich laat opkopen.
Ik denkt dat Intel dat niet eens wil. Geld genoeg om zelf zoiets op poten te zetten en als het dan eenmaal werkt dan heb je dus de keuze Intel - Nividia - AMD en dan zal waarschijnlijk de combinatie met de processor de doorslag gaan geven en NVIDIA valt buiten de boot!
De keuze Intel - AMD - nVidia kan nog veel kanten op.
nVidia heeft al chipsets ontworpen en nu ook de beginselen van een gp-gpu in de kinderschoenen staan.
Zo ver zitten dus niet van een daadwerkelijke cpu af. :)

Maw, als het echt gek uitpakt zijn er straks 3 grote CPU/GPU fabrikanten.
CPU van intel, Chipset van AMD, GPU van Nvidea.

Ideale combi toch, niet?
@g4wx3

nVidia... PLEASE
@g4wx3:

Nivea? Wasda? O+
nVidia beslist niet zelf of het zich "laat opkopen", dat zullen de aandeelhouders wel doen, en als Intel genoeg biedt is hun keuze snel gemaakt neem ik aan :)

Intel heeft hoogstwaarschijnlijk genoeg cash liggen om nVidia (en evt ook AMD) op te kopen, maar er bestaat gelukkig zoiets als anti-monopoliewetgeving die zulke overname zou verhinderen..

Bovendien heeft Intel, zoals hieronder reeds gezegd, genoeg know-how in huis om zelf zulke GPGPU's te ontwikkelen, in tegenstelling tot AMD die helemaal geen grafische afdeling had.
inderdaad. Ze (Intel) hebben denk ik zelfs al wel onderhandeld met nVidia, maar het was een no-go
Hihi :> Inderdaad, dat zal een bittere pil zijn, als dat waar is. Maar wat gaat er nu gebeuren? Iemand op de hoogte van nabije plannen? Kunnen we binnen een paar jaar zo'n gp-gpu verwachten? En rekent de fabrikant op de bestaande sockets/mobo's? We gaan het zien.
Gewoon een pc met heel veel kleine(tragere) cores.
bijvoorbeeld 12 cores die met 6 samenwerken als 1core.
Een soort reverse hypertreading, wat best efficient zou kunnen werken....
Niet per se trager. Het zullen cores kunnen zijn met een specifiekere taak...

Maar goed dit is niet veel anders dan de plannen van AMD. En het is een verhaal wat Intel houdt op uni's om medewerkers te werven. Ze zijn dus bezig met een inhaal slag...
Hmmm, dat diagram lijkt nogal op het diagram van de Cell-processor. En dat klopt wel, want die is op een vergelijkbare manier opgebouwd.

Imho is de Cell nog steeds een revolutionai9r idee, wat nog lang niet zijn volle potentie heeft bereikt. En dat er een flinke hoeveelheid potentie in een dergelijk ontwerp zit wordt nu wel bewezen door oa het F@H project op de Cell.
x aantal cores die rond een grote cache zitten wil nog niet zeggen dat het op een cell processor lijkt
De cell heeft SPE's die qua functionaliteit zullen moeten onderdoen aan de elementen van intel (men spreekt over x86 compatibiliteit). De cell is ook asymmetrisch met die PPE, je moet voor deze processor dus niet 2 compilers gaan gebruiken.
Dit lijkt eerder op de xbox 360 cpu, eenvoudige in order cores & gedeelde cache
Mocht Intel zich al "zorgen" maken dan heeft AMD helemaal nog niet zo`n slechte zet gedaan om ATi te kopen deze heeft de kennis en technologie in huis om zoiets te maken.

En zoals hierboven als werd genoemd door LeHeraut:
k denkt dat Intel dat niet eens wil. Geld genoeg om zelf zoiets op poten te zetten en als het dan eenmaal werkt [...]
Ga er maar niet vanuit dat Intel zoiets gaat opzetten dat kosten miljarden om zoiets op te zetten als Nvidia dat heeft en das voor Intel dan wel een hele andere markt (ondanks dat Intel maktleider is op de VGA markt (voornamelijk onboard). Daar in tegen Intel heeft een eigen grafische afdeling wellis waar onboard VGA maar de kennis er (misschien in mindere mate) wel.
Intel heeft altijd weinig gedaan aan high end GPU's omdat het niet hun lange termijn visie was en omdat er destijds nog een andere grote speler op de markt was, namelijk Matrox. Sinds die is weggevallen en de af en toe slecht presterende serie's van Nvidia en ATi, en de roep vanuit de consument om een derde speler vanwege de altijd hoge prijzen van de 2 GPU bakkers gaat Intel mogelijk een ommezwaai maken.

Ik mag hopen dat Intel gaat inspelen om de roep van een derde grafische chipbakker zodat de prijzen van de overige 2 eens om laag kunnen. Intel heeft veruit meer fabs dan de andere 2 bij elkaar dus ze kunnen ook nog eens heel makkelijk met de productie omspringen.

Het word tijd dat Intel zich er eens mee gaat bemoeien want zoals ze zelf al vrezen, als GPU's straks krachtiger worden dan CPU's dan kan Intel wel eens heel hard op zijn neus gaan, wat ook weer onwenselijk is. Tevens, gezien de prijzen de afgelopen jaren, vraag ik me af of Nvidia en ATi toch geen stiekeme prijsafspraken hanteren, want zoveel verschil hebben de onderlinge merken niet qua prijzen in de diverse segmenten.
ik verwacht eigenlijk dat er binnenkort processors zullen komen met bijvoorbeeld 2 cpu cores en 2 gpgpu cores. nu is het zo dat cpu voordelen heeft boven GPU, en andersom ook... als je dat op de juiste manier combineert krijg je een erg krachtig concept.
Ik verwacht het eigenlijk niet. Voor aansturing zijn veel meer pinnen nodig waardoor nog grotere sockets nodig zijn. Ook hebben de (gp)gpu cores veel stroom nodig (nog meer pinnen dus) waardoor ze erg warm worden en dus goed gekoeld moeten worden. Ook de layout van het mobo wordt er erg complex (=duur) van.
Een beetje vaag vind ik het wel. Als een GPU nu ineens 'General purpose' wordt, dan wordt het toch eigenlijk gewoon een ander soort CPU ?
Het klinkt een beetje als de vroegere 387 coprocessor die je bij je 386 processor kon prikken voor betere floating point performance.
Zal me niks verbazen als straks de GP-Cpu de taak overneemt voor physx.
*pakt dobbelstenen*

*schudt schudt schudt*....*gooit*... 5!

*tik tik tik tik tik*

"Processor in Order 4 Threads"....10000MB, Koop ik!

*pakt dobbelstenen*

*schudt schudt schudt*....*gooit*...2!

*tik tik*

"High BW Memory I/O"

*pakt kaart*

*leest*..."Ga direct naar Fixed Function Units, U mag niet langs start, U ontvangt geen 20000MB cache" (pun intended)

:+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True