Nvidia's eerste gpu met arm-processor verschijnt in 2013

Nvidia zal zijn Maxwell-gpu's uitrusten met een arm-processor. Een manager van de chipbakker heeft dat tegenover het Engelse Hexus.net gemeld. Verder liet hij zich ontvallen dat de Tegra3-soc voor smartphones binnenkort verschijnt.

Nvidia onthulde in september 2010 een roadmap, waarin melding wordt gemaakt van de gpu-architecturen Kepler en Maxwell. De roadmap toont Nvidia's verwachting van de hoeveelheid double precision-Gflops die een gpu per watt kan leveren. In deze grafiek is een exponentiële groei te zien, waarbij vooral de Maxwell-generatie veel beter zou presteren dan de Kepler-gpu's. Dat wordt waarschijnlijk mede mogelijk gemaakt door de toevoeging van een arm-processor, zo betoogde Nvidia's mobile business unit-manager Mike Rayfield in een interview met Hexus.net. Maxwell moet in 2013 verschijnen.

Nvidia roadmap

Tijdens de CES kondigde Nvidia al de ontwikkeling van een eigen processor op basis van de arm-architectuur aan. Voor dit zogeheten 'Project Denver' nam het bedrijf geen licentie op een specifieke arm-instructieset of een Cortex-core, maar op de algemene architectuur. Op basis daarvan wordt een eigen processor ontwikkeld die in de Maxwell-gpu's zal worden geïntegreerd. Met Project Denver mikt Nvidia niet op tablets, maar wil het een alternatief bieden voor x86-cpu's.

Nvidia zou werken aan de ontwikkeling van functionaliteit als pre-emption voor zijn gpu's en de mogelijkheid om de gpu zelfstandiger te laten opereren. Als de gpu minder afhankelijk van de cpu kan worden gemaakt, zou dat snelheidswinst tot gevolg hebben: er hoeft bijvoorbeeld minder vaak op het aanleveren van data gewacht te worden. Minder communicatie tussen de gpu en de cpu scheelt bovendien in het energieverbruik. Al deze zaken zouden in de Maxwell-hardware aanwezig moeten zijn als die in 2013 wordt geïntroduceerd.

Rayfield liet zich ook nog ontvallen dat Nvidia van plan is om elk jaar een nieuwe Tegra-soc uit te brengen. De Tegra2 werd tijdens de CES van 2010 aangekondigd, dus heel lang zou de Tegra3-soc niet meer op zich moeten laten wachten. Hexus.net vermoedt dat de nieuwe soc wordt aangekondigd tijdens het Mobile World Congress, dat op 14 februari van start gaat.

Door Marc Rademaker

Redacteur

20-01-2011 • 17:31

47 Linkedin

Reacties (47)

47
47
29
4
0
7
Wijzig sortering
Dat wordt waarschijnlijk mede mogelijk gemaakt door de toevoeging van een arm-processor, zo betoogde Nvidia's mobile business unit-manager Mike Rayfield in een interview met Hexus.net.
Sorry, maar dit is onzin. Dat de DP/W ratio zoveel omhoog gaat heeft ten eerste geen bal te maken met de ARM processor, die niet eens per-se een FP unit heeft, laat staan een heel efficiente, maar ten tweede is dit ook niet wat Rayfield beweert. Dit is wat Hexus er als domme opmerking tussendoor gooit. Originele tekst:
"As well as licensing Cortex A15, we also have an architectural license with ARM to produce an extremely high performance ARM CPU, which be combined with NVIDA GPUs for super-computing," he said. When we asked for timescales, Rayfield revealed: "The Maxwell generation will be the first end-product using Project Denver. This is a far greater resource investment for us than just licensing a design."

NVIDIA had revealed its GPU roadmap back in September. It has Maxwell launching sometime in 2013, and offering a massive increase in processing power over even the previous Kepler generation. The mystery of how this will be achieved now seems to have been solved.
De ARM-processor gaat ook geen floating point operations doen, dat wordt nergens beweerd, maar de ARM-processor kan er wel voor zorgen dat de gpu efficiënter te werk kan gaan. Dus het is geen onzin...

De exponentiële groei van het aantal DP flops per watt kan niet alleen toegeschreven worden aan een kleiner productieprocede in 2013. Dat zou hoogstens een verdubbeling verklaren. Een nieuwe architectuur kan ook voor een verdubbeling zorgen.

Persoonlijk ben ik van mening dat de integratie van een ARM-cpu deels verantwoordelijk is voor de exponentiële groei die Nvidia verwacht.
Er zijn ARM chips met floating point extensies. Het lijkt me sterk dat NVidia cores zonder floating point support gaat inbouwen in een GPU, deze zijn nagenoeg nutteloos voor graphics werk :P
en zou dat juist de videokaart sneller maken of moet het als complete vervanging bieden van processor.
ben benieuwd wat we over 5 jaar nog zullen hebben.

processors met videokaart
videokaarten met processors
Waarschijnlijk het sneller maken, aangezien windows nog niet met ARM kan werken. Zodra windows8 uit is zou je dus misschien ook wel een deel van je werk door de gpu kunnen laten doen.
Deze nieuwe CPU/GPU komt pas in 2013 op de markt. Tegen die tijd is windows 8 mischien ook wel af. En zoals in het artikel beschreven staat gaat het nogal degelijk om een vervanging van de intel x86 CPU en niet een aanvulling erop.

Dus, intel maakt CPU met ingebouwde GPU, wat resulteert in 1 chip met zowel CPU als GPU cores. En Nvidia maakt een GPU met een ingebouwe CPU core wat resulteert in 1 chip met zowel CPU als GPU cores.

Eigenlijk zijn Intel en Nvidia dus hetzelfde aan het doen, alleen beginnen ze vanuit een andere uitvalshoek. Maar het eind resultaat is hetzelfde; een ge-integreerde CPU/GPU chip, al is de technologie inderdaad anders.
Complete vervanging. Zo is het tenminste aangekondigd tijdens de Windows op ARM presentatie tijdens de CES.
Ik moet het nog zien ARM is al zo oud als de eerste x86, toch heeft die x86 het ooit gewonnen.

Ik ben benieuwd of deze niet een comeback gaan maken.
Anoniem: 87819
@Kevinp21 januari 2011 08:29
ARM is altijd populairder geweest dan x86 in de mobiele wereld. In tegenstelling tot x86 'monsters' zijn het kleine, eenvoudige, energiezuinige cores. Deze kan je dus efficient en in grotere getale op een GPU bakken.
Over 5 jaar: Videokaart met processor, 250 GB flashgeheugen, 4 usb poorten en voeding. En dat dus allemaal op één videokaart-printplaat... :D
Why not? Mijn mobiel is ook vele malen sneller als menig oude computers....
De roadmap toont Nvidia's verwachting van de hoeveelheid double precision-Gflops die een gpu per watt kan leveren *snip* Dat wordt waarschijnlijk mede mogelijk gemaakt door de toevoeging van een arm-processor,
ARM en hoge FP snelheid zijn nou niet bepaald dingen die je vaak in 1 zin ziet...

daarbij heeft fermi nogal hard gefaalt als het op gigaflops per watt aan kwam dus ik ga de rest van de graphic ook met een nogal grote korrel zout nemen.
Tot dusver is ARM niet in een zin te noemen met FP. Echter dit is de eerste keer naar mijn weten (misschien wat kleinschaligere projecten) dat een ARM core specifiek voor de desktop/server markt wordt ontworpen. En als er al vanaf dag 1 bij het ontwerp proces rekening wordt gehouden met FP kan het voor prima resultaten zorgen.

Daarnaast heeft Nvidia een licentie genomen voor de ARM instructie set., Niet voor een ontwerp. Ze kunnen dus alle kanten op met hun ontwerp keuzes.

Wat wWndows betreft komt dat ook wel in orde. Microsoft heeft gekozen om ARM te ondersteunen, en het het .NET gebeuren van Microsoft zorgt ervoor dat programma's niet meer afhankelijk zijn van de CPU instructie code. In feite kan het zo zijn dat als er Windows op draait de meeste programma's er al op draaien of met weinig aanpassingen erop draaien.

Als laatste heeft ARM nu de tijd en de naam mee. Het heeft de naam als in zuinig en snel te zijn. Nu al snel genoeg om simpele taken goed uit te voeren. (internet, mail, chat, tekstverwerking) Strax bij een speciaal ontwerp voor desktop/server kan het met goede marketing een echte concurrent voor Intel en AMD worden.
Ik denk niet dat je het momenteel als intel/AMD vervanger moet zien, maar dat NVIDIA het meer als uitbreiding op CUDA zal willen gaan gebruiken. Om zo wat taken uit te voeren die de GPU niet makkelijk kan uitvoeren, en waarvoor anders de data eerst weer naar de cpu zou moeten.
Dat hoeft ook niet: het gpu deel zorgt voor de FP snelheid. De ARM doet het huis-tuin-en-keuken werk.
Nogmaals, de ARM-cpu heeft niets te maken met de floating point operations die uitgevoerd moeten worden, direct gezien dan. Indirect zou de ARM-cpu de gpu wel efficienter kunnen maken, waardoor het aantal gflops per watt toch toeneemt... Zie ook mijn uitleg hierboven: Marc Rademaker in 'nieuws: Nvidia's eerste gpu met arm-processor verschijnt in 2013'
Ik vraag: wanneer komen de eerste desktop- en notebook chips? Gezien de Tegra2-soc kunnen ze dit best wel als ze willen.... een leuke zuinige soc voor in je low-end pc/laptop? Ik ben er wel voor :) Dat kat en muis spel van AMD en Intel kan wel wat concurrentie gebruiken...
Anoniem: 140398
20 januari 2011 23:31
2013? Is dat niet een beetje mosterd voor de maaltijd? Tegen die tijd zitten we op 18nm en zijn de meeste gpu's en cpu's apu's geworden.
dus ze willen nu een cpu in de gpu card meebakken als ik dat goed lees ?
Yep, waarmee ze de plank imho een beetje misslaan, aangezien je weinig computers hebt waarbij de GPU het werk van de CPU helemaal kan overnemen, oftewel: je hebt nog altijd een losse CPU nodig. Zeker in deze tijd van miniaturisatie zie ik meer heil in Intels en AMDs oplossing om de GPU in te bouwen in de CPU.
Doet mij een beetje denken hieraan: http://nl.hardware.info/n...n-intel-op-een-moederbord ;) ik zie er het nut niet zo van in. een GPU in de CPU inbouwen vind ik wel gaaf (origineel van de Cyrix MediaGX gejat, marja) maar een CPU in de GPU ontgaat mij even het pracktisch nut van... :?
Als je nu had gelezen wat Ruud v A hierboven heeft geschreven, en wat ook letterlijk in het artikel staat, is het om de latency en load te verlichten van de CPU.

Taken voor je GPU zijn erg processor intensief terwijl je processor ze alleen maar voorbewerkt en doorgeeft aan de GPU om uit te rekenen.

Dit kan ik zeker beamen, voorbeeldje: licht setups berekenen met vRay RT nemen minstens 1 hele cpu core in beslag, terwijl de videokaarten al het werk doen..
Dan zul je nog steeds je GPU volledige toegang tot de HDD moeten geven, anders moet alles lekker via de officiele CPU. Daarnaast kunnen moderne GPU-cores ook al een heleboel van die CPU-taken op eigen kracht, alleen moet daar wel op geprogrammeerd worden. Dat komt nu heel langzaam van de grond, maar het gaat er meer om je logica goed te gebruiken, in plaats van je bandbreedte. Als voorbeeldje : SmallLuxGPU doet alles op... jawel, de GPU. Dat kan, dankzij OpenGL. NVidia heeft alle kans zoiets ook in CUDA in te bouwen, en als ik me niet vergis zijn ze daar hard mee bezig...
gedeeltelijk waar. maar heb je ook ooit van OpenCL gehoord?? ;)
http://nl.wikipedia.org/wiki/OpenCL

[Reactie gewijzigd door MineTurtle op 23 januari 2011 10:12]

Het is niet de bedoeling dat deze processor al het werk van de CPU overneemt. Zoals in het artikel staat kunnen zo bepaalde taken op de CPU van de videokaart (hmm, rare combinatie …) worden gedaan, zodat die niet op de gewone CPU gedaan hoeven te worden, en vervolgens naar de videokaart gestuurd moeten worden. Dat zou communicatie tussen de normale CPU en de videokaart verminderen en zo sneller en zuiniger zijn.
Dus langzaamaan begint de integratie van GPU en CPU in één chip. de CPU's krijgen steeds betere (en meer) grafische cores en de GPU's krijgen nu volgens de planning ook geintegreerde CPU cores. uiteindelijk lijkt het me vrij logisch dat er 2 volwaardige architecturen op 1 chip worden gemaakt. zeker voor tablets en smartphones zie ik hier wel toekomst in.

Deze chips zijn niet per definitie sneller én zuiniger, het aantal DP GFLOPS neemt toe per watt. het kan dus ook zo zijn dat de chips enorm zuinig worden en qua snelheid minder vooruitgang boeken of zelfs afnemen (natuurlijk is dit niet waarschijnlijk, maar volgens de beschrijving van de grafiek is het mogelijk). maar zowel het verminderen van energieverbruik als het opvoeren van de snelheid is belangrijk.
Bedenk wel dat gpu's warmer worden dan cpu's , dus zal er altijd tot dit niet meer tot de orde hoort vidcards zijn en ik heb nog geen cpu's met pcie 6 of zelfs 8 pins xtra stroomtoevoer gezien
dat komt voornamelijk omdat er op een videokaart meer dingen zitten dan alleen een GPU, aan je moederbord zit ook een redelijk dikke stroomkabel hoor.
Absoluut, maar aangezien Intel ook straks leuke L3-caches wil gaan bouwen, denk ik dat het een kwestie van prioriteiten gaat worden. Voor rekenwerk gaat het gewoon een hete grote boel worden, voor laptops zullen de grafische kwaliteiten een stukje minder zijn, maar krijg je ook minder hitte. ps. CPU + GPU vreten toch een heel groot deel van alle power (zeg maar 70%) op hoor... RAM valt best mee (tenzij je er veel te veel voltjes doorheen stuurt), en HDDs hebben pieken. Over SSDs, DVD-ROMs en geluidskaarten zal ik maar niet beginnen :P
Wie trekt meeste power Gpu of het geheugen mss de fan
Dus is mij niet duidelijk wat je bedoelt
Arm in videokaart, is dat niet alleen handig voor android/otherphoneos ontwikkelaars, moet er natuurlijk wel eerst software voor gemaakt worden. Ik denk dat het dan een stuk beter kan, maar verder zie ik geen dingen die aleen arm kan en die x86 niet kan, dus dan overbodig lijkt mij.


En tegra 3, beetje snel, noem het gewoon tegra en daarna het type net zoals andere het doen, dan kan je nog een beetje profiteren met goedkope soc's maken, ook met de naam tegra waardoor de meeste consumenten denkne, he tegra, dat is toch snel? Hierdoor kan je meer winst maken, nvidea doet het niet toch al niet super. Maar het blijft een goeie ontwikkeling, tegra is heel erg snel dus een opvolger maakt het vast nog sneller of even snel maar dan zuiniger of het is natuurlijk een 3 core.
Het spijt me heel erg, en ik doe echt mijn best je te begrijpen, maar wat wil je nu precies zeggen met de tweede alinea er is voor mij geen touw aan vast te knopen.

OT:

Ik vraag mij af of dit in 2013 nog heel exceptioneel is. Als men kijkt hoe ver de integratie van CPU en GPU al gaat (met name de ontwikkelingen bij AMD). Dan vraag ik me sterk af of hoeveel zin het heeft als men over twee jaar met een ontwerp komt waarbij een ARM cpu in de gpu geïntegreerd zit, als er x86 cpu's zijn met meer dan prima graphic hardware geïntegreerd.
In 2013 zal het inderdaad lichtelijk verouderd zijn (AMD en Intel staan nu al te trappelen om hun CPU-met-GPU te lanceren voor alles en iedereen), maar dat betekent wel dat de markt al bekend is, er software voor beschikbaar is, of snel kan komen, en dat ze met een beter ontwerp moeten komen dan wat er dan al staat (en wellicht al 2 jaar oud is). Een riskante gok, maar ze zouden het zomaar eens kunnen winnen in het high-end rekenwerk (waar ze toch al steeds meer op mikten, met de GF100-serie).
Tuurlijk is het een gok, maar met Microsoft wat heeft aangekondigd dat ze Windows 8 ook voor ARM geschik willen maken, denk ik dat Nvidia nog wel eens een concurrent kan worden voor AMD en Intel gezien hun roadmaps naar hetzelfde eindpunt convergeren: een gpu en cpu op één chip, met meer rekenkracht dan nu voorhanden is (logisch).

Ik zou graag een Windows 8 op ARM zien met een zooi streamprocessors erbij die door allerlei programma's (naast game-engines ook reken en teken pakketten als bv. Matlab en Maya) gebruikt kunnen worden om de boel nog veel sneller te maken :)
Dus tegenwoordig worden Cpu's uitgerust met een gpu en Gpu's met Cpu's... :|
Als het snelheidswinst oplevert ben ik er blij mee.. :P

[Reactie gewijzigd door ArnoAG op 20 januari 2011 18:02]

Helemaal mee eens, al vind ik het ergens wel een beetje vaag... Maar toch is er wel een verschil: de sandy bridge bevat óók een gpu terwijl de gpu's in dit artikel op een cpu worden gebaseerd.
Dan toch weer een mooie vooruitgang van Nvidia :)
Leuk dat ze allerlei groot denkers uit de natuurkunde gebruiken voor de architecturen :)
inderdaad, is weer eens wat anders dan de wet(ten) van..

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee