Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties

Nvidia heeft een demonstratie gegeven van zijn Tegra-quadcore voor smartphones en tablets. Het bedrijf heeft zelf een game ontwikkeld waarmee het de mogelijkheden op het gebied dynamische belichting van de quadcore laat zien.

Nvidia noemt zijn spel Glowball. Het bedrijf gebruikt de game om de prestatiemogelijkheden van zijn Tegra-quadcore, met codenaam Kal-El, te demonstreren. In het spel is een lichtgevende bal te zien die met behulp van de accelerometer in een virtuele ruimte te bewegen is en daar interactie aangaat met andere objecten, zoals doeken en andere ballen.

De bal weerkaatst zijn licht op zijn omgeving, waarbij de kleur aan te passen is en ook verschillende patronen in de belichting weer te geven zijn. Naast de dynamische belichting toont de demonstratie enkele mogelijkheden van physics. Nvidia laat daarnaast zien dat de grafische kwaliteit flink achteruitgaat als twee van de vier cores niet gebruikt worden.

De Kal-el-quadcore, die door Nvidia tijdens het Mobile World Congres werd aangekondigd, heeft vier ARM Cortex A9-cores en ARM's Media Processing Engine voor elke core. Bovendien is de gpu ten opzichte van de Tegra 2-dualcore uitgerust met vier extra cores, tot een totaal van twaalf. Kal-el zou onder andere high profile-1080p content in h264- of avc-formaat kunnen decoderen, in tegenstelling tot de Tegra 2. De eerste producten met de nieuwe soc zouden na augustus op de markt komen.

Moderatie-faq Wijzig weergave

Reacties (47)

Sorry voor de misschien offtopic reactie:

Is het iemand opgevallen dat Kal-El de echte naam van Superman is (in de gelijknamige film) die hij mee kreeg op zijn geboorte planeet Krypton? Op zich wel leuk om je processor als danig op de markt te brengen, als een "super" processor.

On-topic:

Het filmpje is wel indrukewekkend te noemen, toch blijf ik me verbazen wat er allemaal niet mogelijk is/gaat worden op zo'n klein apparaatje.

Aan de andere kant, moet je je afvragen of je niet teveel van de batterij gaat vragen op deze manier. Ik meen dat de gemiddelde smartphone het bij redelijk normaal gebruik een dagje volhoud, minder bij intensief. En de handhelds (psp, n/3ds) meestaal tussen een uur of 5-8 zitten afhankelijk van de scherm instellingen.

Een 2e probleem lijkt me dan de warmte verwerking van een dergelijk apparaat, ik twijfel zeker niet aan de grafische kracht van een chip als deze, maar een heatsink in een handheld is niet reeel. Laag voltage misschien? Of word hij dan in een pad geimplementeerd, dan lijken met bovenstaande zaken (accuduur/warmte) minder relevant, er is dan meer ruimte voor de afvoer en meer ruimte voor een betere accu.

[Reactie gewijzigd door Nazanir op 30 mei 2011 13:55]

Superman is niet de enige, zie de roadmap met volgende geplande SoCs:
http://content.hwigroup.net/images/news/nvidia_kal_el_02.jpg
Batman, Wolverine en Iron man als ik me niet vergis?
Het leuke van deze nieuwere quadcores is nou juist dat ze MINDER electriciteit verbruiken dan de eerste singlecores, deels omdat er nieuwere techniek in zit maar ook omdat ze op een veel kleinere schaal geproduceert worden. Daarnaast komen er 2 verschillende quadcores op de markt. Eentje voor mobiele apparatuur en eentje die tot 2.5 ghz geklokt is voor in de desktop en zelfs daar is de warmteontwikkeling minimaal.
Zelfs een fietslampje word nog 5 x warmer dan de desktopvariant.
Prachtige ontwikkeling. Kan niet wachten tot dit in tablets beschikbaar komt.
Inderdaad. Maar aan de andere kant vind ik het zonde dat er voor de pc niet zulke dingen ontwikkeld worden. Ik bedoel: het ziet er prachtig uit! En dat op een tablet! Waarom kan dat dan niet op een pc? Ja ik begrijp dat omdat pc's zo verschillend zijn qua samenstelling, dat het lastiger is om optimaal gebruik te maken van de resources, maar waar blijven de mijlpalen als Crysis 1?
Maar aan de andere kant vind ik het zonde dat er voor de pc niet zulke dingen ontwikkeld worden. Ik bedoel: het ziet er prachtig uit! En dat op een tablet! Waarom kan dat dan niet op een pc?
Wat voor dingen?

Dynamic lighting? Zit toch in bijna elk spel tegenwoordig? Vijand schiet een raket op je af en de vlam uit de achterkant van de raket doet de omgeving verlichten.

Wapperende doeken (Cloth Simulation)? Zit toch ook in bijna elk spel waar dat van toepassing zou moeten zijn?

Of bedoel je het besturen met een tilt sensor? Zijn vast wel USB dingen voor - maar je PC kast zelf tilten gaat nu eenmaal niet zo makkelijk. Op een notebook moet 't dan wel weer kunnen.

Ik zie er persoonlijk niets bijzonders in zitten behalve dan het feit dat dit op een chip wordt gedaan die voor klein mobiel gebruik, en dus waarschijnlijk een heel laag verbruik heeft, bedoeld is.
Wapperende doeken zie je wel in game, maar dit zijn geanimeerde doeken. Dit zijn doeken die real-time geanimeerd worden naarmate de bal verder "in" het doek komt. Aangezien dit veel meer moeite kost om te berekenen, is dit ook veel indrukwekkender.
Ga maar na: een baby leert lopen door het na te doen van de ouders en of anderen. Zijn deze er echter niet, dan duurt het langer of is het zelfs onmogelijk. Dit geld zo ongeveer ook voor het real-time berekenen van physics.
Dit verklaart echter ook waarom nVidia tegenwoordig PhysX op de GPU laat berekenen: er zijn honderden cores om mee te rekenen die anders (bijna) nergens voor worden gebruikt.
Nu alleen nog voor AMD GPU's...
Wapperende doeken zie je wel in game, maar dit zijn geanimeerde doeken. Dit zijn doeken die real-time geanimeerd worden naarmate de bal verder "in" het doek komt.
Misschien dat je het gemist hebt, maar dat wordt toch al jaren gedaan in PC games?

De laatste keer dat dat zelfs in het nieuws was, was voor Alan Wake; omdat standaard 'cloth' eigenlijk te licht aan voelde voor de zware stof die de speler draagt:
http://www.gamasutra.com/...imulation_in_.php?print=1

Dat het dan niet zo in-your-face is, mag duidelijk zijn. Alan Wake is dan ook niet als tech demo bedoeld.

Ik meen me ook te herinneren dat er ten tijde van Half Life 2 een tech video was rope en cloth physics gedemonstreerd werden.

Maar je hoeft maar even naar youtube te gaan en 'realtime cloth' in te tikken en je krijgt een hele rits videos tot jaren terug:
http://www.youtube.com/results?search_query=realtime+cloth

Vandaar dat ik de reactie niet helemaal begrijp; dit soort dingen zit al jaren in games op consoles en PC. Neemt niet weg dat het mooi is dat het ook op portables (en daar schaar ik dan de tablet en mobieltje ook maar onder) kan zonder dat je batterij na 15 minuten leeg is.
Volgens mij was het toch echt CoD MW2 die op een level (Highrise? Ergens op zo'n flat) zo'n doek had dat steeds dezelfde beweging maakte.... overigens is CoD natuurlijk niet het beste voorbeeld.
Maar dan kom je dus terug op de vraag of realtime physics voor dat doek ook nodig was, of dat de CPU danwel GPU cycles beter ergens anders aan besteed zouden kunnen worden. Omdat iets kán wil nog niet zeggen dat je het ook moet doen.

Neem bijvoorbeeld het realtime fragmenteren van objecten. Je schiet af en toe 's op een object en dan gaat het kapot, of je gooit een granaat een kamer binnen en als je naderhand even gaat kijken zie je dat een vijand de dood heeft gevonden aan een stoelpoot. Leuk, toch?

Maar nu ga je schieten op een muur. Schieten en schieten en schieten maar die muur krijg je niet klein* Waarom niet, als dat prima realtime kan? Nou ja, onder meer omdat dan de levelmakers ook moeten bedenken wat ze achter die muur willen zetten, en wat daar dan weer achter, en daarachter, etc. Maar ook omdat je dan op een gegeven moment zoveel fragmenten krijgt die je bij moet houden dat het bijna ondoenlijk wordt. Een heel gebouw verpulveren tot een paar tientallen miljoenen brokjes gruis is dan wel YouTube-waardig, maar een nachtmerrie als je dat op een volle level wil doen. In veel games verdwijnen dat soort fragmenten dan ook automatisch (vervagen of zinken weg in de grond of wat dan ook).

Terug naar cloth... het kan allemaal prima, maar als je met een statisch stuk of voorgeanimeerd ding af kan, dan is relatief dure (qua cpu/gpu kracht) physics overbodig.
Wapperende doeken (Cloth Simulation)? Zit toch ook in bijna elk spel waar dat van toepassing zou moeten zijn?
Het zit zeker niet een alle games waar figuren rondlopen die kleding aan hebben. Bvb in The Witcher 2 is het beperkt tot het haar van de held en hier en daar een medallion. Voor de rest is kleding gedaan dmv old-school technieken. In de meeste andere games is het niet veel anders.
Een game is ook wel wat anders dan een tech demo, waar doorgaans veel minder objecten zichtbaar zijn dan in een game.

Maar wapperende doeken zijn idd niet wereldschokkend.
Inderdaad, als je ziet hoe snel de ontwikkelingen voor tablets vooruit gaan, vind ik dat de computer op dit moment wat achter blijft.
De pc is nog steeds de sterkste/beste machine, maar wordt tot op vandaag nog vaak niet optimaal gebruik gemaakt van de hardware, in tegen deel zelfs...
In de gemiddelde PC zit veel meer kracht dan men er tegenwoordig uithaalt..
Je ziet ook steeds meer slordige ports etc...
Aan een kant komt dat wellicht doordat de gameindustrie zich wat minder op de pc markt richt momenteel en er daardoor minder vraag is naar snellere GPU's, maar aan de andere kant moet je ook bedenken dat de mobile markt gewoon enorm achter ligt. Veel van de technieken die al ontwikkeld zijn in de desktop GPU markt kunnen ze nu versneld in de mobile markt stoppen, de grootste uitdaging is om het zuinig te maken maar het hoeft niet helemaal opnieuw ontwikkeld te worden. Daardoor kunnen de ontwikkelingen nu zo snel gaan.
Ik denk dat het anders zit;
Een game ontwikkelen voor een moderne i7 met GTX 580 o.i.d kost een HELEBOEL geld. Je moet als gamestudio honderden, duizenden super-gedetialieerde modellen maken, want anders vinden gamers het zonde van hun geld (en de concurrenten doen het).
Dan heb je ook nog tablets. Dit platform is qua hardware veel 'slechter' en de gamers verwachten dus ook minder, kijk maar naar Angry Birds. Visueel is dat niks, maar toch is het een bestseller.
Dus, hoe 'beter' het platform hoe hoger de ontwikkelkosten voor gamestudio's.

De PC had de game-boom tussen 1995-2002 toen spellen zoals 'Rayman: The Great Escape' werden gemaakt. Dat spel is uit 1999, en toen waren de PC's 'slechter' dan de tablet in dit filmpje, en dus kon er veel geld gestoken worden in lange grote, veel levels, in plaats van het 'mooi' maken van de modellen. En dat spel heb je niet uitgespeelt in 9 uur, wat veel gamers wel doen met moderere titels.
De huidige halfgeleider technologie loopt aan tegen grenzen van kloksnelheid, de oplossing daarvoor is multi-core, maar daardoor ontstaan problemen met koeling.

Gevolg: sinds ca 2003 zit de klad in de toename van rekensnelheid van nieuwere (desktop) CPUs.
Voor kleinere/tragere (mobiele) systemen gelden die problemen niet zo, die kunnen nog veel profiteren van kleinere productieprocessen. Daardoor kunnen tablets e.d. een inhaalslag maken.


The Free Lunch Is Over
2004 (updated 2009)
http://www.gotw.ca/publications/concurrency-ddj.htm
The major processor manufacturers and architectures, from Intel and AMD to Sparc and PowerPC, have run out of room with most of their traditional approaches to boosting CPU performance....


ps
Daarnaast heeft ARM nog het voordeel dat het vanwege de architectuur inherent een betere performance-per-watt heeft dan Intel.

[Reactie gewijzigd door BadRespawn op 30 mei 2011 19:48]

Dat valt te verklaren vanwege de collectieve mindset momenteel. Mensen zijn té tevreden met de huidige prestaties van PC's. De marktleiders hebben dat door en investeren significant meer in de smartphone / tablet-markt, omdat de mensen daar nog relatief ontevreden over waren (er kon nog niet erg goed op worden gegamed, soms deden zelfs menu's het te traag, etc).

Mocht de consument nu wederom ontevreden worden over de PC (wat op zich te verwachten is nu de performance van tablets steeds beter wordt, de consument wil dan dat een PC significant meer te bieden heeft), dan zal er zeker wel meer worden geďnvesteerd in nieuwe mijlpalen op PC-gebied. Het is een kwestie van wachten. Ik merk hierin persoonlijk namelijk hetzelfde concept op als dat valt waar te nemen bij rages / de mode-wereld.
Er zijn anders genoeg techdemo's / grafische benchmarks voor de PC te vinden.
Denk maar aan Futuremark's 3DMark, Unigine Heaven demo, Nvidia Endless City / Rocket Sledge / PhysX demo's, AMD HK2207 demo.
Het is vooral Nvidia die bij een productaankondiging gelikte demo's in elkaar weet te zetten. Om dit soort visuele pracht in een werkelijke toepassing / spel te verwerken is uiteraard een stukje complexer.
Een quad core in tablet is al overkill maar ik vermoed dat we al snel deze processor of afgeleide hier van in een mobiele telefoon zullen mogen verwelkomen. Wordt het dan eigenlijk niet tijd om het gewoon een mobiele computer te noemen en te stoppen met het heel smartphone geneuzel. Uiteindelijk zijn deze dingen meer kleine laptops die toevallig ook nog kunnen bellen dan grote telefoons met een beetje extra.
ag, wat maakt de naam nou uit, een tablet word toch ook geen mobiele computer genoemd maar is het eigenlijk wel. Ik denk er juist het tegen tegenovergestelde over. Een telefoon is een mobiele computer, en dat vroeger telefoons alleen maar konden bellen, weten wij toevallig, maar onze kinderen straks al lang niet meer :).
Tja, ik had hier al een tegratopic runnen sinds 2008 dus gezien de tijd dat het duurt voordat dit soort processoren ook daadwerkelijk in devices verschijnen denk ik dat ik iedereen toch moet aanraden eerst maar eens voor de dualcore tablets te gaan, want een quadcore in een tablet word dan toch niet eerder dan 2013 ofzo.. Verder natuurlijk fantastisch die ontwikkeling. Straks kunnen we de playstation3 op onze telefoons emuleren:)
Dat zou nog wel mee kunnen vallen. Nvidia was nieuw in deze markt en mede daardoor heeft het een tijdje gekost voordat ze hun SoCs werkelijk in producten geplaatst kregen... Nu hebben ze eenmaal een stukje markt veroverd en zal dat makkelijker gaan.
Informatief & entertainment tegelijkertijd. :)
Ziet er netjes uit die presentatie, ben benieuwd naar de eerste producten die dit gaan voeren.

OT: Was Kal-El niet de echte naam van Clark Kent aka Superman?
Zou natuurlijk wel de naam keuze verklaren :P
ja het is superman net als de rest er na:

http://www.tweaktown.com/...e_and_iron_man/index.html

rare is wel dat ze naar mijn mening het wel een beetje verkeerd om doen :)

Beginnen met superman, die bijna alles kan dan naar batman, wolverine en dan iron man? :)
augustus 2011?
moeilijk te geloven. Gezien de voorgaande beloftes van NVIDIA. Ook vraag ik mij af of de producenten dat zsm op de markt willen brengen aangezien producten met tegra 2 pad in de winkels liggen.
Leuke demo, mooi spul, over een jaar zijn tablet's krachtiger als de desktop PC, maar of dat nou echt nodig is.......

overigens is het OMAP 4 Platform van TI is al in staat tot het coderen en decoderen van high profile-1080p content in h264- of avc-formaat, dit is mogelijk dankzij de IVA-3 hardware acceleration engine.
Wat ongelooflijk geneuzel over de vraag of deze processingpower wel nodig is en dat op tweakers.net Of all places!!

Dit worden de desktops van de toekomst en zelfs workstations voor de wat verdere toekomst, de rest wordt rand apparatuur. Accu duur is ook geen legitiem argument aangezien je net zolang of zelfs langer met je batterij doet als een dumbphone mits hem ook zo gebruikt als een dumbphone. Voor desktop toepassing dock je hem gewoon. The future is near.
Hmmz ik hoop dat ze een beetje opschieten met de quadcore telefoons, mag eind augustus weer een nieuwe en hoop dan dat ik niet lang hoef te wachten, anders wordt t toch een dc :)
Het grootste gevaar van Nvidia-chips is dat er straks dus Nvidia-only games worden ontwikkeld. In het geval van Android is dit gewoonweg ongewenst en zal het platform des te meer fragmenteren. Tenzij deze chips ondersteund worden door WP7 of iOS. In dat geval kunnen we mooie dingen verwachten.
Ben ik niet zo bang voor, het is niet anders dan dat je nu ook al op de PC markt ziet dat sommige games blijkbaar (90% bullshit) voor AMD of Nvidia zijn geoptimaliseert maar echt een probleem is dit niet ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True