Door Wout Funnekotter

Hoofdredacteur

De Tegra K1-soc getest

Nvidia's mobiele chip met desktop graphics

30-07-2014 • 08:00

75

Multipage-opmaak

Inleiding

Die-shot Nvidia Tegra K1De ontwikkeling van processors voor mobiele telefoons en tablets heeft de afgelopen jaren een hoge vlucht genomen en beetje bij beetje komen de snelste mobiele chips op het gebied van prestaties in de buurt van de langzaamste chips voor notebooks en desktops. Apple noemt zijn A7-soc zelfs al 'desktop class'.

Dat is wat betreft absolute prestaties een beetje overdreven, maar we zien wel steeds meer overlap in gebruikte technologie en productieproces. Zo is de A7-soc van Apple, net als moderne desktop- en notebookprocessors, 64-bit compatibel.

Op het vlak van graphics is het Nvidia die als eerste een brug slaat naar de technologie die we kennen uit desktopcomputers en laptops. Tot dit jaar gebruikte de fabrikant een aparte grafische processor voor zijn mobiele chips, speciaal ontwikkeld voor gebruik in smartphones en tablets en gericht op een laag energiegebruik, net zoals concurrenten als Samsung, Qualcomm en Apple dat doen. Voor de nieuwe Tegra K1 system-on-a-chip wordt echter dezelfde Kepler-architectuur gebruikt die het bedrijf de laatste jaren voor zijn videokaarten inzette.

Dat betekent niet alleen dat de Tegra K1 over veel grafische rekenkracht beschikt; misschien nog wel belangrijker is dat deze G20A-gpu het voor ontwikkelaars makkelijker moet maken om grafisch intensieve toepassingen te ontwikkelen en games te porten. De chip ondersteunt namelijk dezelfde api's, waaronder DirectX 11.2 en OpenGL 4.4, als moderne desktopvideokaarten. In dat licht bekeken is het niet gek dat de Tegra K1 naar verluid gebruikt zal worden in verschillende Android-settopboxen.

Onlangs kregen wij voor het eerst een apparaat met de Tegra K1 in handen: de Xiaomi Mi Pad. Voor alle informatie over die tablet verwijzen we je graag door naar onze review. In dit artikel richtten we ons op de Tegra K1, waarbij we de vernieuwde gpu nader bespreken en natuurlijk hebben we ook benchmarks om aan te tonen hoe de K1 op grafisch vlak presteert.

Een desktop gpu in een mobiele chip

De eerste mobiele chip van Nvidia die in grote getale gebruikt werd door fabrikanten was de Tegra 2. Die vonden we terug in de eerste generatie Android-tablets, zoals de Transformer TF101 van Asus en de Motorola Xoom. Deze system on a chip bevatte wat Nvidia een ultra low power GeForce-gpu noemde, die over slechts vier pixel shaders en vier vertex shaders beschikte. Een magere hoeveelheid voor wie bekend is met de opbouw van desktopvideokaarten. Zijn opvolger, de Tegra 3, kreeg de beschikking over meer en betere shaderunits en een verbeterde videodecoder, maar was nog steeds op dezelfde architectuur gestoeld. Hetzelfde gold in principe voor de Tegra 4-soc: hoewel het aantal cores wederom opgeschroefd werd, en de cores zelf efficiënter en sneller werden, ging het nog steeds om een zogenaamde non unified architectuur met aparte pixel- en vertexshaders.

Tegra K1 - gpuTegra K1 - gpuTegra K1 - gpu

Dit concept is inmiddels met pensioen gestuurd en voor Tegra K1 stapt Nvidia dus over op de Kepler-architectuur, die het in 2012 introduceerde voor zijn desktopvideokaarten. Kepler maakt gebruik van zogeheten unified shaders, wat betekent dat elke shader zowel pixel als vertex-berekeningen uit kan voeren, waardoor de gpu efficienter moet kunnen werken. Een desktopvideokaart gebaseerd op Kepler is opgebouwd uit wat Nvidia SMX-units noemt, en elke SMX-unit bestaat weer uit onder andere 192 shadercores. De snelste videokaarten beschikken over 15 van deze SMX-units, terwijl de traagste er slechts twee hebben, voor een totaal aantal cores van 384. Tegra K1 is dus uitgerust met één zo'n SMX-unit.

Nvidia heeft wel enkele wijzigingen door moeten voeren om het geheel goed te laten werken in een kleine soc. Zo is het aantal texture units teruggbracht van 16 naar 8 en ook het aantal rops is gehalveerd. De kloksnelheid van de gpu ligt waarschijnlijk rond de 950MHz.

Omdat K1 gebaseerd is op Kepler kunnen ontwikkelaars niet alleen gebruikmaken van DirectX 11 en OpenGL 4.4, maar ook Nvidia's Cuda gpgpu-technologie en zaken als tesselation. Dat moet het bijvoorbeeld makkelijker maken om applicaties en games vanaf de pc te porten. Volgens Nvidia is K1 ook krachtig genoeg om ports van games te draaien die oorspronkelijk voor de Xbox 360 en PS3 zijn gemaakt. Op het gebied van geheugenbandbreedte zou de K1 onderdoen voor die twee consoles, maar zowel cpu als gpu beschikken volgens Nvidia over meer rekenkracht en daarnaast hebben moderne telefoons en tablets meer geheugen aan boord.

Tegra K1 vs consoles

Om te demonstreren waar K1 tot in staat is heeft Nvidia de afgelopen tijd veel demo's gegeven op beurzen, waarin bijvoorbeeld door een woonkamer gelopen kon worden die middels geavanceerde technieken werd belicht. Een andere demo toonde een realistisch ogend gezicht, met realistische reflecties en allerlei kleine details en animaties. De meest indrukwekkende demo werd echter recent getoond, tijdens Google I/O. In deze demo, genaamd Rivalry, zijn twee futuristische soldaten te zien die het uitvechten in een ondergrondse setting, waarbij vooral de mooie lichtinval van buiten opvalt.

Helaas!
De video die je probeert te bekijken is niet langer beschikbaar op Tweakers.net.

De Rivalry-demo

Hoewel de demo's van Nvidia zondermeer indrukwekkend zijn, is het maar de vraag of we dit soort graphics ook in snel in mobiele games gaan zien. Ontwikkelaars zijn tot nu toe namelijk niet geneigd om de hardware in mobieltjes en tablets tot het uiterste te belasten. Dat zou de game onspeelbaar maken op goedkope hardware, en dat willen de ontwikkelaars natuurlijk niet, dan zouden ze inkomsten mislopen. De meeste moderne games passen de graphics wel aan de hardware aan, waardoor games er op een high-end-apparaat beter uitzien dan een instapmodel, maar een tablet als de Mi Pad zal op grafisch vlak de komende tijd waarschijnlijk nog niet tot het uiterste gedreven worden.

Vijf Cortex A15-processorkernen, en 64 bit op komst

Tegra K1Nvidia was met de Tegra 3 de eerste soc-fabrikant die de overstap maakte naar een quadcore-configuratie. Bij Tegra 3 ging het om om vier reguliere Cortex A9-processorkernen, bijgestaan door een vijfde Cortex A9-kern die op een lagere kloksnelheid draaide en gebruikmaakte van een zuiniger soort transistors. Deze 'companion' core was Nvidia's manier om het stroomgebruik van de chip binnen de perken te houden in situaties waarin niet de volledige rekenkracht van allevier de Cortex A9-kernen nodig waren.

Voor de Tegra 4 hield Nvidia vast aan deze opbouw, al was het concept inmiddels omgedoopt tot de 4-PLUS-1-architectuur. De Cortex A9-kernen werden verruild voor krachtiger Cortex A15-kernen en de gpu kreeg wederom een boost. Erg populair bleek deze Tegra 4 niet; in Azië brachten alleen ZTE en Xiaomi een telefoon uit met de chip aan boord en in de rest van de wereld zagen we enkele tablets van Asus, Toshiba en Microsoft die ermee uitgerust waren. Een gebrek aan ingebouwde 3g/4g-ondersteuning zorgde ervoor dat fabrikanten liever met Qualcomm in zee gingen en daarnaast bleek de chip dankzij de forse rekenkracht ook redelijk warm te worden.

De Tegra K1 is een duidelijke evolutie, en geen revolutie. Nvidia maakt nog steeds gebruik van vier Cortex A15-kernen en een vijfde companion core, maar baseert deze nu op de r3p3-revisie van het processorontwerp. Ten opzichte van eerdere revisies biedt de nieuwste versie meer mogelijkheden op het vlak van energiebesparing. Daarnaast maakt Nvidia gebruik van een nieuwe variant op het 28nm-productieprocédé. In plaats van de low power-variant wordt nu de mobile-variant toegepast, die ondanks wat de termen suggereren een betere combinatie van prestaties en stroomgebruik biedt. Dat alles maakte het mogelijk om de maximale kloksnelheid te verhogen naar 2,3GHz.

De toekomst: een 64bits K1

In de tweede helft van dit jaar komt Nvidia met een andere versie van Tegra K1. Hierin zijn de vier Cortex A15-processorkernen vervangen door twee kernen van eigen makelij. Dat is voor het eerst dat Nvidia met een zelfontworpen cpu komt. Deze cpu, die vooralsnog bekendstaat als Project Denver, is eveneens gebaseerd op de arm-instructieset, maar dan de nieuwe armv8-variant, en niet de armv7-versie die voor het Cortex A15-ontwerp gebruikt wordt. Armv8 moet het aantal instructies per kloktik flink verhogen en daarnaast is het de eerste 64-bits instructieset van ARM. Het zal interessant zijn om te zien hoe de twee Denver-cores zich zullen verhouden tot de vier Cortex A15-cores. Daar hopen we later dit jaar achter te komen.

Tegra K1 twee versies

Benchmarks

Na al die mooie woorden en beloftes van Nvidia wilde we natuurlijk wel eens aan de tand voelen hoe de Tegra K1-chip presteert. Dat hebben we gedaan aan de hand van verschillende benchmarks, waarna we de scores vervolgens afgezet hebben tegen de snelste chips die de concurrenten op dit moment beschikbaar hebben. Van Apple is dat de A7, van Samsung is dat de Exynos 5420 en van Qualcomm is dat de Snapdragon 801.

Nvidia Tegra K1Samsung Exynos 5420Qualcomm Snapdragon 801Apple A7
CPU 4x Cortex A15 @ 2,3GHz

4xCortex A15 @ 1,9GHz

4xCortex A7 @ 1,3GHz

4x Krait 400 @ 2,5GHz 2x Cyclone @ 1,4GHz
GPU G20A (Kepler) Mali T628 Adreno 330 PowerVR G6430
Bandbreedte 17GB/s 14GB/s 14,9GB/s N/A

Cpu prestaties

Er zijn maar weinig cpu-benchmarks die zowel op Android als op iOS werken, dus niet alle grafieken zullen gegevens van Apples A7-chip bevatten. Voor de vergelijking met de A7 gebruiken we GeekBench, terwijl we ook nog AndEbench gebruiken voor een vergelijken tussen de Android-hardware. Bij GeekBench draaien we zowel rekentesten met integers, als met kommagetallen. De verschillende scores kan je via de tabjes bovenaan de grafiek bekijken.

GeekBench laat bij de singlethreaded tests zien dat de ipc bij Apples A7 duidelijk het hoogste is. Dat ligt in de lijn der verwachtigen omdat Apple gebruikmaakt van de armv8-instructieset en Geekbench daar ondersteuning voor biedt. Van de armv7-processors scoort de K1 het hoogste, terwijl de Snapdragon 801 en Exynos 5420 nauwelijks voor elkaar onderdoen. Kijken we naar de multithreaded scores, dan kan de A7 met zijn twee cores de rest niet meer bijbenen. De K1 komt nu bovendrijven als snelste chip.

AndEBench Pro doet net als Geekbench enkel multithreaded cpu-berekeningen, maar dan van een ander soort en geeft een totaalscore. Nu de A7 even niet mee doet - dit is immers een test die alleen onder Android draait - gaat de Tegra K1 aan kop. Wederom is het verschil tussen de Snapdragon 801 en de Exynos 5420 niet erg groot. Op cpu-vlak lijkt de Tegra K1, afgaande op deze resultaten, momenteel dus de snelste soc die je in een Android-apparaat kan vinden.

Gpu prestaties

We zijn echter nog meer geïnteresseerd in de grafische kracht van de Tegra K1. Daarom hebben we drie verschillende benchmarks gedraaid die allemaal gebruikmaken van OpenGL om 3d-graphics te renderen. In dit geval zijn alle benchmarks cross-platform waardoor we ook scores hebben van Apples A7-soc, die gebruikt wordt in de iPad Air en iPad mini Retina.

We trappen de grafische tests af met GFXBench, één van de bekendste OpenGL-benchmarks. GFXBench biedt in de meest recente versie twee benchmarks die een game-scenario nabootsen: T Rex, waarbij een motorrijder achterna gezeten wordt door een dinosaurus, en Manhattan, waarbij een grote robot de gelijknamige Amerikaanse stad onder handen neemt. Beide tests worden offscreen gedraaid, dat wil zeggen: de resolutie is voor alle apparaten gelijk zodat we een goede vergelijking krijgen van de rekenkracht van de verschillende socs. De T Rex maakt gebruik van OpenGL ES 2.0 terwijl voor Manhattan gebruikgemaakt wordt van de OpenGL ES 3-api.

In beide tests weet de Tegra K1 de concurrentie op een ruime achterstand te zetten. Vooral in de zwaardere OpenGL ES 3.0-test zijn de verschillen erg groot en wordt eveneens duidelijk dat de Mali-gpu in de Exynos-soc van Samsung niet goed meekomt. Maar ook de Adreno 300 uit de Snapdragon 801 en PowerVR-chip uit de Apple A7 hebben het nakijken.

Eenzelfde beeld zien we in 3DMark, een benchmark waarin eveneens een gamescenario wordt nagebootst. In tegenstelling tot bij GFXBench krijgt ook de cpu hier wat werk voor zijn kiezen in de vorm van physicsberekeningen. Omdat de cpu hier ook meespeelt weet de Snapdragon 801 een grotere voorsprong te claimen op de Apple A7 en Exynos 5420, maar de K1 eindigt nog steeds met een verre voorsprong op de eerste plek.

De resultaten van Basemark X van Rightware liggen in lijn met de andere tests. Omdat het hier weer primair om gpu-berekeningen gaat, wordt de A7-soc niet gehinderd doordat hij slechts twee cores heeft en kan hij de Tegra K1 tot op zekere hoogte bijbenen. Nvidia's chip behoudt echter een flinke voorsprong.

Geheugen prestaties

Tot nu toe lijkt de Tegra K1 het op alle vlakken behoorlijk goed te doen, maar bij het laatste onderdeel dat we getest hebben komt hij wat minder goed uit de verf. Alle onderdelen in een system-on-a-chip zijn met hetzelfde, gedeelde, werkgeheugen verbonden. Het is daarom van groot belang, zeker als je schermen met hoge resoluties aan wil sturen, om voldoende geheugenbandbreedte te hebben. In de tabel bovenaan de pagina kan je zien dat dit bij de Tegra K1 op papier geen probleem zou moeten zijn,

De praktijk zegt echter iets anders. In zowel de geheugentest van Geekbench als het geheugenonderdeel van AndEBench Pro eindigt de Tegra K1 onder de Exynos 5420 en Snapdragon 801. Waar dat precies aan ligt is moeilijk te zeggen, daarvoor ontbreekt het ons aan technische gegevens over de chip en de precieze configuratie van de Tegra K1 in de Mi Pad die wij getest hebben. Xiaomi zou bijvoorbeeld laaggeklokt geheugen gebruikt kunnen hebben. In de praktijk hadden we niet het idee dat de Mi Pad te lijden had onder een gebrek aan geheugenbandbreedte, dus wellicht is de chip in staat tot meer, dan bovenstaande resultaten aangeven.

Tot slot

Sinds de Tegra 2, die toch in flink wat apparaten gebruikt werd, hoorden we beetje bij beetje steeds minder van Nvidia. De Tegra 3 leek al minder in trek bij fabrikanten en Tegra 4 zagen we nog minder terug in smartphones en tablets. Dat zal wellicht te maken hebben met de relatie tussen Nvidia en verschillende fabrikanten, maar het leek er tevens op dat de chips van het bedrijf simpelweg niet heel veel meer wisten te bieden dan de concurrentie.

Of die relatie met fabrikanten veranderd is weten we niet, maar met de Tegra K1 weet Nvidia zich op het vlak van prestaties duidelijk te onderscheiden van de concurrentie. De Kepler-gpu veegt de vloer aan met de grafische chips van Qualcomm, Samsung en Apple en daarnaast weten de rekenkernen ook hun mannetje te staan. Hoewel we het stroomgebruik van de chips niet direct hebben kunnen vergelijken, lijken de accuresultaten van de Mi Pad erop te duiden dat de K1 het stroomgebruik relatief binnen de perken weet te houden.

Het is echter maar de vraag of al die grafische rekenkracht daadwerkelijk gebruikt zal worden door ontwikkelaars. Android-games draaien vaak prima op middelmatige hardware en veel gpgpu-toepassingen zijn er nog niet voor mobiele apparaten. Wellicht dat Nvidia gameontwikkelaars aan weet te sporen om speciale, geoptimaliseerde versies van hun spellen uit te brengen, zoals ze in het verleden ook gedaan hebben. Mocht dat gebeuren, dan is de K1 - en dan zeker de 64bits-editie die dit jaar nog uit moet komen - een zeer interessante chip voor tablets, maar ook bijvoorbeeld voor Android TV-settopboxen, waarop ook games gedraaid kunnen worden.

De kans dat we de K1 ook in telefoons terug gaan zien, schatten we op dit moment wat minder groot in. Telefoonfabrikanten zijn erg gecharmeerd van Qualcomms hardware, omdat ondersteuning voor wifi, bluetooth en 3g/4g bij hen geïntegreerd zit in de system-on-a-chip, en dat soort integratie kan Nvidia nu nog niet leveren in dit segment. De fabrikant zal echter niet stil zitten en na de introductie van Tegra 4i, zullen ze vast ook hard werken om dit soort functionaliteit in hun high-end-chips te verwerken.

Reacties (75)

75
75
42
7
0
12
Wijzig sortering
NVIDIA heeft een tijdje geleden zijn ambities voor de smartphone en ook in mindere mate voor de tablet market flink teruggeschroefd. Zo lijkt de Tegra 4i (met integreerd modem) al min of meer geschrapt te zijn, en lijkt NVIDIA zich meer te richten op specifieke, kleinere marktsegmenten zoals high-end gaming tablets (zoals de NVIDIA Shield en de Xiaomi Mi Pad).

Kennelijk hadden ze in de gaten dat het succes van bijvoorbeeld de Tegra4i in de weg gestaan zou worden door kostenoverwegingen en misschien te hoog stroomgebruik. Het is ook een gigantische investering om een mobiel modem dat overal op de wereld moet kunnen werken te ontwikkelen en bij te houden. De dominatie van Qualcomm (ook door hun licentiekosten/royalties) zal ook meespelen.

Wat achtergrond:

Over de Tegra4i: http://www.fool.com/inves...ed-from-the-tegra-4i.aspx

De CEO van NVIDIA heeft gezegd: "Well, in phones, it is really Qualcomm and MediaTek. We’re not really competing with them so much anymore". Bron: http://blogs.barrons.com/...ve-consensus-q2-rev-view/
Tegra 4i is volop aan OEMs getoond, en er heeft niemand toegehapt - in die zin passen ze in het rijtje van ST-Ericsson en TI die een jaar eerder vergeefs probeerden hun nieuwe telefoonchips aan de man te brengen, uiteindelijk zonder orders bleven, en de telefoonmarkt verlieten. Ook Intel lijkt geen OEMs warm te krijgen voor Merrifield (die er al een half jaar geleden zou moeten zijn), maar in tablets gaat het ze een stuk beter af.

Het is best uniek hoe snel de 'vrije' telefoon SoC markt van een negental spelers 2 jaar terug (Intel, TI, ST-Ericsson, Rockchip, Marvell, NEC, Samsung, Broadcom, nVidia, Renesas) die allemaal ofwel grote klanten hadden, ofwel grote plannen hadden met nieuwe designs, naar een totale Qualcomm-Mediatek duopolie is gegaan.

[Reactie gewijzigd door Dreamvoid op 23 juli 2024 10:22]

Zoals Nvidia wel vaker1 gedaan heeft met de Tegra, is de vergelijking met andere platformen die er wordt geplaatst oneerlijk. Ze gaan compleet voorbij aan de individuele krachten van de 360 en PS3; zo bezit de 360 EDRAM die geheugenbandbreedte anders maakt dan wat het hier lijkt; bezit de PS3 een groot aantal Cell-cores dat allerhande taken overnam waar de 360 niet over kan dromen; wordt CPU integerprestaties vergeleken terwijl voor games floating point belangrijk is (en dat is juist de kracht van de PS3 en 360). Als laatste is het natuurlijk zo dat games alleen de volledige functionaliteit van de Tegra K1 kunnen benutten als ze er specifiek voor worden geschreven - en dat gaat bij de Tegra een stuk minder vaak gebeuren dan bij de PS3 en 360.

Het is zeker waar dat de Tegra K1 daadwerkelijk betere shadermogelijkheden heeft. Maar games gaan er niet uitzien zoals PS3 en Xbox 360-titels. Net zoals andere SoCs is de geheugenbandbreedte te beperkt voor hetzelfde niveau aan textures en de resolutie waarin spellen gedraaid kunnen worden. Ook de terugloop in rekenkracht van de SoC de complexiteit van 3D-omgevingen enigszins beperken. Games gaan er zeker verbluffend uitzien voor een SoC, maar zeker niet zo goed als PS360 games.

Een vergelijking valt te trekken met de 3DS en de Wii. De 3DS heeft een SoC die moderner is dan die van de CPU+GPU van de Wii, met vooral meer shadercapaciteit. Maar de processor en het geheugenbandbreedte van de 3DS is weer minder dan van de Wii. Daarom heb je voor de 3DS een hoop games die er aan de ene kant "beter" (of "moderner") uitzien dan op de Wii door de betere shaders, maar ook weer tekortschieten in textures en geometrie.

1 Ze hebben eerder al eens geclaimd dat de Tegra 3 net zo snel was als een Core 2 Duo, maar hebben daarbij ook appels en peren vergeleken.
LOL, bij t plaatje van de chip, kreeg ik opeens zeer sterke deja vu gedachten naar Arkanoid! zag nog net t blkje met t balletje niet heen en weer bewegen. :-) (25-plussers onder de Tweakers moeten bijna wel weten wat ik bedoel. :)
Ik word door dit artikel toch even met mijn snufferd op het feit gedrukt dat de mobiele apparaten van tegenwoordig in staat zijn om op veel gebieden consoles als XBOX360 en PS3 het hoofd te bieden.

Ben benieuwd hoe dit er over pak en beet een jaar uit ziet. Of chips als deze ook daadwerkelijk veelal gebruikt zullen gaan worden.
Qua pure processor rekenkracht komen ze denk ik in de verste verte niet bij de cpu's uit de 360 en ps3 in de buurt, en bij de ps2 wellicht ook niet.

Maar zoiets is natuurlijk vrij moeilijk te zeggen, al ben ik er wel erg benieuwd naar hoe mobiele chips uit 2014 zich verhouden tot oudere cpu's/gpu's/consoles uit 2000-2005.
Volgens Nvidia's specificaties zou de K1 meer GFlops moeten hebben als een Xbox 360 en PS3, echter in de whitepaper van Nvidia http://www.nvidia.com/con...ra-K1-whitepaper-v1.0.pdf staat vervolgens wel dat de CPU van een PS3 minder krachtig is als die van de Xbox 360, wat dan weer niet waar is, dus in hoeverre je deze claim moet geloven weet ik niet. Overigens werd er op beide console natuurlijk bijna baremetal geprogrammeerd, dit zal op een K1 nooit gaan gebeuren dus zal je nog een bak performance verliezen. Ik vermoed zelf dat de K1 de prestaties van de beide consoles niet evenaart maar wel aardig in de buurt zal komen
Dat is wel waar. De 360 is altijd de krachtigere console geweest. Mits goed gebruikt zou de ps3 echter theoretisch meer kunnen
De PS3 kon al meer, kijk maar naar de Uncharted serie.
Als de hardware nou eens sterk genoeg zout zijn voor een ps2 emulator :-)
In hoeverre is die demo realtime gerenderd?
Hij ziet er namelijk beter uit dan desktop games van het hoogste kaliber, dus dat zo'n mobiele chip dit kan draaien, I call BS...
[/noobvraag...?]
Ik geloof wel dat dit realtime gerenderd is. Sowieso is dit een demo geoptimaliseerd voor exact 1 chipset, ipv voor een aantal verschillende GPUs zoals de meeste desktop games. Hierdoor kan er net wat meer performance gehaald worden. Daarnaast wordt Unreal Engine 4 gebruikt, die al meer grafische pracht uit bestaande hardware weet te halen dan de meeste, zo niet alle, engines die nu in gebruik zijn door games.

Wat ook niet onbelangrijk is, is dat PC-games doorgaans niet alles uit de bschikbare hardware halen. Vaak zijn er ook console-versies van de game die simpelweg een minder krachtige GPU hebben, en het loont niet om de PC-versie nog erg op te poetsen in vergelijking met de console-versies.
En het is natuurlijk ook maar 1 kamer waar voor de rest niet veel gebeurt ja...
I have seen the light :P
Ik weet niet waarom jij negatief gemodereerd wordt, maar je hebt gewoon gelijk

zolang het maar 1 kamer is, en er geen andere zaken berekend hoeven worden (denk aan AI, scripts en dergelijk) kan je de omgeving heel mooi maken zonder dat het heel zwaar gaat worden

Denk bijvoorbeeld aan 'Infinity Blade op de Ipad, zag er heel mooi uit, maar dat kon alleen maar omdat alles vrij statisch was
Mobiele chips worden heel snel veel krachtiger. Demo is indrukwekkend maar nog niet zo goed als een UE4 desktop techdemo.

http://www.youtube.com/watch?v=kr2oHPSJ0m8
Ik had hetzelfde idee. Bovendien vertellen de ontwikkelaars in de video vanalles over hoe de demo opgebouwd is, maar blijft het verdacht stil inzake rendertijd/real-time gedrag. Ze leggen vooral de nadruk op het gemak om desktop API's te gebruiken.

Volgens mij is deze demo dan ook niet real-time gebracht.
Ik denk dat er wat trucjes uit de doos zijn gehaald voor de real-time demo. De ruimte is heel klein en vrij donker, dan kan je veel doen op 720p.
Zijn er ook cijfers bekend van het verbruik van de K1 ten opzichte van de andere SOCs?
De performance ziet er goed uit maar als dit bereikt word door 2x zoveel power te gebruiken is het nog steeds niet echt een goede SOC. De enige cijfers die ik kan vinden zitten tussen de 10 tot tientallen watts. Maar de meeste cijfers zijn allemaal schattingen, ongeveer en met een heel systeem eromheen waardoor vergelijken van verschillende SOCs lastig is.
AuteurWoutF Hoofdredacteur @Lethalshot30 juli 2014 09:02
Nee, daar worden geen exacte cijfers over vrijgegeven. In de Mi Pad lijkt het echter mee te vallen met het stroomgebruik. Zie: reviews: Xiaomi Mi Pad: krachtpatser met lange adem uit China
Maar dat zijn tablets: groter scherm, meer plek voor de accu, etc ... Niet echt betrouwbaar genoeg om daaruit waarlijk verbruik te extrapoleren. We zullen moeten wachten :(.

Het belooft wel al veel goeds: een uitstekende algemene CPU verbetering en een uber GPU. Nu moet de concurrentie wel wakker worden.
flinke GPU prestaties, ben ook zeker benieuwed wat de 64 bits dualcore gaat doen,
lijkt me toch echt de interessantere chip, want 4 cores worden op een tablet/phone toch zelde allemaal tegelijkertijd optimaal gebruikt, en gezien wat Apple ermee kan, ben ik erg benieuwd :)

maar mooie chip kan niet wachten om ermee te spelen en te zien hoe de grote engines erop draaien.
last gen is nu echt trager.
Ik hoop dat dit soort ontwikkelingen er voor zorgt dat de grenzen tussen mobiele hardware en desktop hardware sneller zullen vervagen. Ik wil ook gewoon een telefoon met een gemiddeld scherm, maar wel met de hardware om thuis mijn laptop/desktop te kunnen vervangen.

Dat zou het voor grote desktop softwareboeren ook interessant maken om hun grotere pakketten (denk aan volledige versies van Photoshop) geschikt te maken voor Android. Telefoon in een dock, monitor (of TV) er aan hangen met een toetsenbordje en gaan. Wat heb ik aan een aparte desktop thuis, als ik niet thuis ben? Dan heb ik mijn rekenkracht liever op zak.

Voor een telefoon met dergelijke mogelijkheden wil ik best € 1000,- euro betalen. Maar vooralsnog blijven die markten gescheiden. De ontwikkeling op dat vlak gaat trager dan verwacht, mogelijk omdat fabrikanten liever drie devices verkopen in plaats van 'one to rule them all'.

[Reactie gewijzigd door Hoppa! op 23 juli 2024 10:22]

Haha, die demo! Daar hebben ze toch iets moois van kunnen maken met humor.
hahaha die demo is idd leuk bedacht XD
Even over de opmerking dat het overdreven is dat apple zijn A7 "desktop class" noemt. Is dat wel zo? Dat een Intel core sneller is is logisch. Maar een i7 is ook sneller dan een celeron. Het gaat om de interne structuur. Zie deze link:

http://www.extremetech.co...n-with-haswell-than-krait
"Desktop class" is een moving target natuurlijk - je kan nu inderdaad binnen de grofweg 8W bovengrens inderdaad met de procestechnologie en uarchs van anno 2014 een A7 chip maken die sneller is dan de Pentium 4/Core Duo chips van de desktops/laptops uit 2005 die Vista en Tiger draaien - OSsen die niet veel zwaarder zijn dan wat er nu is.
zo bedoel ik het niet. het gaat niet om pure snelheid, maar om de architectuur, zie de link in mijn post.
Verwijderd @gjmi31 juli 2014 07:15
Ik denk zelf eerder "macbook air" class. Daar zou hij prima in werken met OSX op ARM.
"De kans dat we de K1 ook in telefoons terug gaan zien, schatten we op dit moment wat minder groot in. Telefoonfabrikanten zijn erg gecharmeerd van Qualcomms hardware, omdat ondersteuning voor wifi, bluetooth en 3g/4g bij hen geïntegreerd zit in de system-on-a-chip, en dat soort integratie kan Nvidia nu nog niet leveren in dit segment. "

Maar hoe zit het dan met deze tablet van nvidia met 4G en K1 aan boord?
pricewatch: Nvidia Shield Tablet 4G 32GB Zwart
daar zit dan een 4G-chipje bij in de tablet die buiten de soc zit ;)
Ja maar mijn punt is dat je dan ook een telefoon met deze chip kan uitrusten ;-)
dat kan ook zeker, er is nergens gezecht dat het niet kan.

fabrikanten zullen alleen eerder voor qualcomm kiezen omdat die deze dingen bij de soc inbouwen volgens tweakers.

Op dit item kan niet meer gereageerd worden.