Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties

Nvidia gaat Cuda de komende jaren naar mobiele apparaten brengen, zo heeft de ceo van het bedrijf bekendgemaakt. Cuda is de gpgpu-technologie van Nvidia, die ervoor zorgt dat de gpu de cpu bij bepaalde rekentaken ontlast.

De Compute Unified Device Architecture van Nvidia zit al in enkele generaties van de consumenten- en zakelijke videokaarten van Nvidia. De werking van de Tesla-kaarten van het bedrijf, die gebruikt worden voor supercomputers, berust voor een groot deel op Cuda en bij consumentenkaarten lijkt de technologie ook langzaam maar zeker aan populariteit te winnen, vooral bij het bewerken van video.

De ceo van Nvidia, Jen-Hsun Huang, ziet ook een rol voor de parallelprocessing-architectuur weggelegd bij mobiele apparaten, zo liet hij in een interview met PCWorld weten. Volgens hem is dit binnen twee tot drie jaar mogelijk en moet Cuda vooral helpen om multimedia-apps soepel te draaien op mobieltjes. Hij wijst daarbij op technologie als gezichts- en objectherkenning.

"Stel je voor dat we Cuda-mogelijkheden integreren in onze mobiele telefoon", zegt Huang, die daarbij bijvoorbeeld denkt aan een soort rich layer-toepassing zoals Layar. "We kunnen dan door onze mobiele camera kijken, waarbij allerlei informatie over onze wereld opdoemt." Huang voorziet verder dat een app dan een fles wijn herkent en via het internet informatie over de wijn ophaalt, zoals de laagste prijs en het beste moment om deze te drinken. Hierbij zou Cuda de nodige last van de processor van de mobiele telefoon kunnen wegnemen.

Momenteel is Nvidia vooral met zijn op de arm-architectuur gebaseerde Tegra 2-chips actief op de mobiele markt. Die chip is al in enkele producten verschenen, maar de grote populariteit laat nog op zich wachten. Nvidia claimt dat er in januari op de CES-beurs in Las Vegas veel tablets en andere mobiele apparaten met de Tegra 2 worden aangekondigd.

Moderatie-faq Wijzig weergave

Reacties (40)

Als je echt een goed datanetwerk zou hebben zou je het rekenwerk van de telefoon kunnen uitbesteden aan een of ander serverpark en wat er op het scherm moet verschijnen streamen. Dan heb je wel wat aan zo'n gpgpu chipje die een x264 stream een stuk zuiniger kan decompressen dan een x86 of arm chipje.
Dan heb je wel wat aan zo'n gpgpu chipje die een x264 stream een stuk zuiniger kan decompressen dan een x86 of arm chipje.
Zaken zoals MP3/AAC/H.264/etc en-/decoden, word in telefoons niet door de ARM cpu afgehandeld, maar door de verscheidene DPS' en hardwarematige CODEC's uitgevoerd.
Gezien dat de enige taak is wat zo'n chipje doet, en de rest van de tijd dus compleet uitgeschakeld staat, zijn die nog vele malen zuiniger dan een gpu.
Op Cuda zit niemand te wachten en OpenCL wordt al door ARM uitgerond dus weg met die gesloten standaard crap |:(

Cuda doet het alleen goed op de Desktop omdat Nvidia er miljoenen tegenaan gooit.
seconded

En zelfs op de PC gaat Cuda nu zwaar inboeten door DirectCompute van MS en OpenCL: tenslotte wil elke developer dat zijn product op zoveel mogelijk hardware draait, niet enkel op nVidia chips. openCL heeft trouwens, itt Cuda, zelfs mogelijkheden op de geÔntegreerde Intel GPUs, die het overgrote deel van de PCmarkt gebruikt.
Nee, het werkt alleen met Nvidia producten. OpenCL werkt zowel cpu als gpu onafhankelijk van welk merk.
CUDA en OpenCL zijn beiden manieren om op gpu's te programmeren, OpenCL werkt zowel op amd als nvidia kaarten.

maar het resultaat en de performance van cuda is 100% identiek als OpenCL mits je alleen de GPU gebruikt.
OpenCL werkt ook met cpu's, cuda niet.
klopt, nvidia staat er niet om bekend om zuinig te zijn, en dat is nu net het probleem met gsm's, de batterij duur. Ik zou gamen met goeie kwaliteit leuk vinden, en hun andere ideeen zijn ook erg leuk bedacht, maar laat ze eerst iets doen aan hun energieverbruik.

Gisteren of eergisteren stond hier trouwens een artikel over de accuduur van huidige smartphones, ze moeten bijna iedere nacht opladen en ze voorspelden weinig, lees geen, beterschap..
Een laatste strohalm om cuda standaard echt door te krijgen?

Lijkt haast doemt om te mislukken, zeker als je weet dat nvidia cuda zo geschreven heeft dat het maar singlecore werkt omdat dan het verschil tussen cpu en gpu physics nog groter word.
Dan heb ik al helemaal geen zin meer om nvidia te halen.

Word tijd dat er een echt open standaard voor komt en gebruikt gaat worden.

[Reactie gewijzigd door TheStonedOne op 1 december 2010 19:34]

CUDA is geen standaard en zal het ook nooit worden.
CUDA is een API van Nvidia en werkt alleen met Nvidia producten.
En CUDA is achterhaalt nu al door OpenCL en die werkt met alle cpu/gpu vanaf directx 10.
CUDA is toch eigenlijk hetzelfde als OpenCL d8 ik?? of zit ik nou verkeerd? 8)7
nvidia heeft al speciale chips voor mobieltjes, zoals de tegra,
die te vinden is in microsoft's ZUNE.

ze kunnen daardoor makkelijk CUDA toepassen, maar voor zover ik heb het gezien zijn er alleen enkele encoder apps en nog wat vage wetenschappelijke progjes voor verschenen.
ik snap niet wat nvidia er mee wil berijken

deze chips moet je niet vergeijken met broodroosters-chips als de gtx480.
maar eerlijk is eerlijk: als zelfs smartphones al moeite hebben om 12 uur aan te blijven,
hoezeer zal die tijd gehaald worden MET een chip?
aandeelhouders marketing geleuter, ze bereiken er niets mee.
Voordat dit echt wordt toegepast, is het natuurlijk van groot belang dat die accuduur omhoog gaat. Als ik het artikel zo lees, is nVidia wel erg enthousiast over Cuda in "mobieltjes/mobiele apparaten".

Laatst stond er nog een artikel over HTC dat de accuduur slecht verbeterd wordt. Daarom willen ze cloudbased gaan werken, en dan zie je dit... "lekker berekeningen uitvoeren op je mobiele telefoon". Ik ben benieuwd, maar het lijkt allemaal een beetje averechts te werken.

Het zal in ieder geval de games en zware applicaties een groot voordeel geven.

[Reactie gewijzigd door My_self op 1 december 2010 15:43]

Je ziet bij de desktop hoe goed Cuda het doet bij consumenten.

Als het echt nodig zou zijn, zal de industrie wel OpenCL nemen.
Als de industrie het nodig heeft is CUDA waarschijnlijk al dusdanig gegroeid dat de volledige acceptatie van OpenCL lang op zich zal laten wachten, zoals in de PC wereld nu gebeurd.
ik zei weinig groei meer voor CUDA.
waarom iets maken dat enkel werkt op de hardware van 1 fabrikanten, terwijl je het zelfde werkt kunt verzetten maar dan zo dat het werkt op niet alleen GPU's vanaf dx9 (ongeacht fabrikant) maar zelfs door kan schalen naar super-computers.
Ik zie helemaal niet dat CUDA het goed doet bij de consument.
Welke producten maken er gebruik van?

Wat ik wel zie is dat NVIDIA de naam CUDA enorm aant ophypen is bij de consument.
Maar ik heb verder weinig specifieke CUDA consumententoepassingen gezien, het zijn vooral wat wetenschappelijke dingen waar het toegepast wordt.
Het zal in ieder geval de games en zware applicaties een groot voordeel geven.
Oh, hoe dan?

Even buiten het feit dat games die een "cuda compatible" telefoon nodig hebben gedoemd zijn om te falen, zie ik het nut er niet van in om tijdens een grafisch intensief spel de "rekenlasten" van de cpu ook nog eens naar de gpu te verplaatsen, dat doet meer kwaad dan goed.

Voor mogelijkheden zoals video-acceleratie (zowel encoden als decoden) is het, in tegenstelling tot pc's, ook compleet overbodig, gezien alle huidige telefoons beschikken over gespecialiseerde DSP's, on chip, die veel en veel zuiniger zijn dan 'alles-kunners' zoals gpu's.

[Reactie gewijzigd door SirNobax op 1 december 2010 15:58]

"We kunnen dan door onze mobiele camera kijken, waarbij allerlei informatie over onze wereld opdoemt."

alleen commercieel informatie of ook opmerkingen/bevindingen van derden?

en een fles wijn informatie uittrekken......hoe?
via de barcode?
Een soort Google Goggles, maar dan op je telefoon. Het verschil is dat de data eerst naar een server wordt gestuurd om daar te laten analyseren, terwijl NVIDIA het nu realtime op je telefoon wil doen. De analyse gebeurt aan de hand van SIFT features http://en.wikipedia.org/w...variant_feature_transform
Wat is het idee hierachter? Dat je zometeen in je mobieltje twee processoren hebben die hetzelfde kunnen, waarbij de ene sneller is dan de ander :?
verander het ene sneller dan het andere door voor het is de ene keer sneller, voor het andere is de andere sneller/efficiŽnter en je begrijpt het principe van GPGPU (en GPU's vs CPU's in het algemeen :) ). Een GPU: heel veel core, goed voor parallele berekeningen (de ene berekening heeft geen invloed op de andere, bijvoorbeeld zou je bij het berekenen van de vermenigvuldiging van twee matrixen elk vakje van de nieuwe matrix kunnen laten uitrekenen door een andere core). Een CPU: enkele core's, goed voor seriŽle berekeningen (de ene berekening hangt af van de voorgaande)

[Reactie gewijzigd door 383438 op 2 december 2010 00:04]

Wat is het idee hierachter? Dat je zometeen in je mobieltje twee processoren hebben die hetzelfde kunnen,
Nee ze zijn juist goed in verschillende dingen: CPU voor complexe seriŽle berekeningen, GPU voor relatief eenvoudige parallelle berekeningen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True