Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

De nieuwe Nvidia Tegra K1-soc, waarin naast vier ARM Cortex A15-cores ook 192 Cuda-cores zijn te vinden, blijkt in een aantal grafische benchmarks aanzienlijk rapper dan de gpu in de Apple A7-soc. Ook de Snapdragon 800- en Tegra 4-socs worden verslagen.

nVidia Tegra K1Dat meldt Toms Hardware die tijdens de CES een aantal benchmarks kon uitvoeren op de ThinkVision 28, een uhd-monitor van Lenovo waarop Android gedraaid kan worden en waarmee het systeem in feite een all-in-one genoemd kan worden. De monitor is intern voorzien van een Tegra K1-soc en 2GB werkgeheugen, samen met 32GB flashopslag en een groot aantal aansluitingen. De soc lijkt in de ThinkVision 28 met een snelheid van 2GHz niet op volle toeren draaien: Nvidia claimt dat de K1 tot en met 2,3GHz geklokt kan worden.

In de Future 3DMark-benchmark behaalt de Tegra K1 veruit de hoogste scores. De iPhone 5s, waarin een Apple A7-soc is te vinden, blijkt het traagst, gevolgd door de Tegra 4 en Snapdragon 800 in respectievelijk een EVGA Tegra Note 7 en een Google Nexus 5. De prestatieverschillen zouden vermoedelijk nog groter zijn als de Tegra K1 hoger geklokt was door Lenovo.

Ook de off-screen-benchmark van GFXBench laat een duidelijk prestatieverschil zien, al scoort de Tegra K1 als laatste bij de on-screen-test. Dit is te verklaren doordat de gpu-kernen een uhd-scherm moeten vullen, terwijl de andere apparaten schermen met aanzienlijk lagere resoluties hebben. De Antutu-benchmark, waarbij alle facetten van een soc worden onderworpen aan een benchmark, laat de Tegra 4 winnen, maar dit wordt mogelijk veroorzaakt doordat de K1 niet op volle snelheid draait.

Moderatie-faq Wijzig weergave

Reacties (85)

De iPhone 5s, waarin een Apple A7-soc is te vinden, blijkt het traagst, gevolgd door de Tegra 4 en Snapdragon 800 in respectievelijk een EVGA Tegra Note 7 en een Google Nexus 5.
Vreemde samenvatting dit, want in alle tests is de A7 GPU de op 1 na snelste. Alleen in de Ice Storm test niet, vanwege de lagere scrore op physics, wat nogal logisch is voor een dual-core op 1.3 Ghz vs. 3 quad-cores op 2+ Ghz :X.

Verder sowieso nog al logisch dat een nog niet verkrijgbare quad-core SoC die gericht is op tablets sneller is dan een dual-core GPU in een telefoon die al een half jaar op de markt is. Een raar geschreven artikel dit dus...

[Reactie gewijzigd door johnbetonschaar op 13 januari 2014 19:03]

Appearing on GFXBench’s T-Rex 1080p off-screen benchmark the K1 GPU, running on a reference tablet, achieved 60 frames per second, besting the Tegra 4′s 16 fps, the Snapdragon 800-powered Galaxy Note 3′s 24 fps and the iPad Air’s 27 fps by a significant margin.
http://blog.gsmarena.com/...rked-beats-intel-hd-4400/

[Reactie gewijzigd door Avdo op 13 januari 2014 20:05]

Ik zie nergens het verbruik van de K1, zonder dat gegeven weet je weinig. AMD heeft ondertussen een 4.5 watt chip die Fifa 14 zonder problemen kan spelen.
http://tweakers.net/nieuws/93621/amd-mullins-apu-draait-fifa-14-op-fullhd-resolutie.html
Het zou leuk zijn als die tegen elkaar worden gezet.

De chip zit in een tablet, het is dus helemaal niet zo gek dat hij sneller is dan een Nexus 5 bijvoorbeeld. Het zou mij niks verbazen dat het te moeilijk is om dat goed te koelen.

Die tegra chips zijn volgens mij best heethoofden, ik kan rustig een spelletje spelen op mijn Nexus 4 zonder dat deze warm wordt. Als ik dan de HTC One van mijn broertje pak met een Tegra 3 dan wordt dat ding binnen de korste tijd hardstikke warm...
Tegra 3 is ook een tablet chip die sommige telefoonfabrikanten in een telefoon hebben gestopt. Deze nieuwe chip van nVidia zal denk ik ook wel weer een tablet chip zijn. Ook qua accuduur heb je dan meer mogelijkheden.

Het probleem van AMD is dat ze volgens mij geen hardware partner kunnen vinden. ASUS bijvoorbeeld brengt aan de lopende band producten met Intel SoC's uit en ook nog eens voor goeie prijzen. Alleen Medion komt af en toe met een AMD product uit.
Hoe zit het dan met de PS4 en de XBOX one? Hebben die geen AMD?
De HTC One heeft geen Tegra 3? Daarbij is de One gemaakt van aluminium en voel je de hitte dus ook tig keer beter. Het zou best eens zo kunnen zijn dat de Nexus 4 een stuk heter word dan de One, maar dat voel je niet want hij is van plastic en glas.
Ik bedoel natuurlijk de HTC One X.

Je zou daar gelijk in kunnen hebben, alleen kan ik mij beter vinden in de opmerking van ChicaneBT want dat verklaard het een stuk beter.
Ook bij langdurig gamen wordt mijn Nexus 4 niet warm.

@ChicaneBT
Het is inderdaad jammer dat er vrij weinig fabrikanten producten uitbrengen met AMD APU's erin. Juist eerder waren deze een stuk beter dan bijvoorbeeld die oertrage Atoms.
Nu zijn het nog steeds goede producten imo.
Wat de Tegra 3 betreft klopt het helemaal wat hij zegt, dat ding was niet bedoelt voor telefoons. Ik vind het wel vreemd dat je zegt dat je Nexus 4 er geen problemen mee had, want ik kon me juist herinneren dat dat ding problemen had met thermal throttling. Ik heb zelf ook de Find 5 gehad, en die had ook een s4 Pro. Dat ding kon echt ongenadig warm worden. ( Heb hem ook een keer overgeklokt naar 1.9 GHz, dat was gewoon niet leuk meer. Ik brandde mijn vingers aan de achterkant.) Maar zelfs op stock snelheden werd hij behoorlijk warm.
Heeft de iPhone 5S trouwens niet juist een aparte chip voor physics? Of was dat alleen voor het verwerken van motion?

Is hier wel rekening mee gehouden in de testen?
Alleen voor het verwerken van sensorinput, dus dat maakt niet uit. Zelfs als het wel uit zou maken, processors van Qualcomm hadden dit al een tijdje toen de A7 uitkwam. Dan zou de vergelijking dus alsnog eerlijk zijn.
Ik weet niet op welke resolutie ze de tests uitvoerden, maar die A7 heeft natuurlijk ook maar een behoorlijk lage resolutie aan te sturen op een iPhone en is dus relatief snel. Als je de A7 aan een serieus scherm koppelt kon dat wel eens veranderen.
1136 x 640 zou ik nu niet bepaald super laag noemen voor een smartphone. Maar men zit nu een zuinige proc in een 4" telefoon te vergelijken met een 28" tv/computer die vrolijk op de netstroom staat. Verder is de A7 in de iPad Air 8% sneller dan de 5s en zit dan op een resolutie van 2048 x 1536 op 10", lijkt dus niets te maken te hebben met resolutie voor die Icestorm benchmark...
1136x640 is gewoon laag als je het vergelijkt met smartphones van dezelfde prijs. Zelfs telefoons van 150 Euro hebben al een hogere resolutie. Ik zat me inderdaad al af te vragen of de K1 ook in tablets en mobieltjes komt of alleen voor wat serieuzere dingen bedoelt is, lijkt me wel. Maar het zou natuurlijk wel vet zijn als hij in een tablet of telefoon komt.

Heb je een bron van die 8%? Niet dat ik jou niet vertrouw, maar als dit weer van die marketingpraat is van Apple geloof ik het gewoon niet. Resolutie doet er namelijk zeer zeker wel toe ( en veel ook,) en het verschil in resolutie van een iPad en een iPhone is erg hoog. Het lijkt me sterk dat de iPad 8% sneller is.
Volgens de metingen van Anandtech loopt de A7 in de iPad 7.69% sneller.

http://anandtech.com/show/7460/apple-ipad-air-review/3

[Reactie gewijzigd door sudo op 14 januari 2014 09:01]

Even vergelijken met een high end Android smartphone:
1920 x 1080 = 2.073 .600 pixels
1136 x 640 = 727.040 pixels

Zit toch best een aardig verschil in.
Laten we vooral geen iOS vs. Android-discussie aanslingeren, dat is echt oeverloos en heel erg irritant voor iedereen. Overigens klopt je reactie letterlijk gezien wel.

[Reactie gewijzigd door mincedmeat op 13 januari 2014 20:03]

Dat was ook niet mijn intentie, ik had net zo goed Windows Phone neer kunnen zetten maar daarbij is het alleen van toepassing op de allernieuwste modellen. Als je alle populaire high end toestellen op een rij legt dan heeft de iPhone de laagste resolutie, dus is het ook niet zo vreemd dat deze in onscreen benchmarks het beste presteert. Niets ten nadele van de A7, want dat is natuurlijk in alle opzichten een erg snelle SoC.
En zoals hierboven ook door RebelwaClue opgemerkt wordt, is ook de offscreen test op z'n minst vergelijkbaar. De pixel vergelijking voegt dus niet zo heel veel toe.
Okee, zo :P Nee maar even om te voorkomen dat we een gigantische haat-thread hier krijgen tussen fanboys.
Een lage resolutie? De A7 chip kan zonder moeite een Retina display aansturen, kijk maar eens naar de iPad Air. De iPad Air heeft een resolutie van 2048 x 1536 pixels bij 264 ppi (pixels per inch). Persoonlijk vindt ik dit niet laag. Het meest interessante van de A7 processor is dat hij 64 bit is, dit kan in de toekomst veel voordeel hebben.

Natuurlijk moeten we ook in ons gedachte houden dat de software (iOS) perfect op het hardware is afgestemd. Hierdoor zullen de prestatie veel hoger liggen dan dat de software met allerlei soorten processor om moeten gaan.

[Reactie gewijzigd door Xieoxer op 13 januari 2014 20:44]

Ik heb het over de iPhone, niet de iPad. En ik denk dat ze op de iPad ook nog wel andere trucs hebben toegepast om dat ding goed te laten draaien ( zoals hoge kwaliteit, snel geheugen met veel bandbreedte.) Ja, de A7 is redelijk sterk en interessant, maar het is echt niet de heilige graal van alle processors.

Neem ook hierbij in gedachten dat Apple de A7 en de software perfect op elkaar af kan stemmen, wat ook een behoorlijke snelheidswinst oplevert. Die luxe heeft de K1 niet.
Zeker geen heilige graal. Maar als je de A7 vergelijkt met de quadcores die in Androids worden gebruikt dan komt de A7 zeer goed mee. Men moet Android eens goed optimaliseren ipv de SoCs te verbeteren.

Dat terzijde snap ik de vergelijking niet echt met de mobiele SoCs (telefoon/tablet)
Allemaal leuk en aardig maar zo wat ik lees komt de K1 in een totaal ander product. Een TV welk dus aan het net hangt en een grote ruimte heeft voor bijv koeling. Daarbij staat Nvidia niet heel erg goed bekend om het verbruik van haar producten, dus mocht het ooit in een tablet komen ben ik daar zeer benieuwd naar.
Klopt, dat heeft Apple inderdaad goed gedaan. Android optimaliseren is gewoon lastiger, want het moet alle hardware kunnen accepteren. Maar wat snelheid betreft zijn ze al aan de weg aan het timmeren met ART.

Ik zou inderdaad ook wel graag willen weten wat dit in een tablet doet en of dat een beetje bruikbaar zou zijn.

Wat de vergelijkingen betreft: ik denk ook dat er gewoon geen beter product is om het mee te vergelijken dan een mobiele SoC, want daar lijken ze nog het meest op. Processors maken speciaal voor Smart TV's en dergelijke is gewoon een relatief nieuwe tak. En de K1 trekt ARM en desktop-computing naar elkaar toe, dat is gewoon groot nieuws en het verklaart gelijk de vergelijking met zowel ARM als X86 processors.
Als ik het goed heb stond ergens voor de kerstvakantie in een artikel dat hij 5 W verbruikt
De tests zijn gedaan door benchmarks waar veel OS optimalisaties relatief weinig invloed hebben, ze grijpen zo strak mogelijk in op low level API's. Ook zijn veel tests ook offscreen waardoor je kanttekeningen niet super relevant zijn. Als je het over 'software perfect op elkaar af kan stemmen' hebt, heeft Anand nog wat leuke testjes gedaan bij sommige Android fabrikanten.

En natuurlijk, wat ook al is opgemerkt; qua performance zullen de processoren elkaar af blijven wisselen in wie de snelste/koelste etc. is. De titel en tekst van Tweakers is weer eens lekker onnodig polariserend. Maar ja, dat zijn we inmiddels wel gewend.
Dan alsnog. Low level of niet, een benchmark heeft met een kernel te maken die op iOS nou eenmaal afgestemd is op de hardware dan bij Android. En dat zet ik ook niet neer als een slechte zaak, mocht je dat denken. Ik vind het knap. ( En dat komt van een Android-gebruiker.)

Als je even verder gelezen had had je kunnen zien dat ik juist het feit dat benchmarks offscreen zijn in acht nam. En als je wat links hebt naar die testen waar je het over hebt, post ze maar, ik ben altijd geinteresseerd in een leuk stuk leesvoer en veel Tweakers met mij :)

Maar vertel me, als Tweakers je niet bevalt, wat doe je hier dan?
Ik weet niet of knap het goed woord is. :) Het is het gevolg van een keuze die z'n voor en nadelen heeft. Android maakt het zichzelf in dat opzicht lastiger door de variatie aan apparaten, maar het heeft ook duidelijke voordelen.
Het knapste van de A7 is denk ik de performance in combinatie met verbruik. Wat jij als voordeel noemt, de lagere resolutie, komt mede doordat de iphone een stuk kleiner is. Dit leidt tot een kleinere batterij, een misschien wel groter nadeel. (B.v. S4 vs 5s: 2,600 mAh vs 1560 mAh ) Ik ben dan ook heel benieuwd - en meerdere tweakers met mij, verder naar beneden - wat de real world performance en batterij-behoefte van de K1 is...

De tests met plaatjes staan in het gelinkte artikel van Tom's hardware waar dit stuk over gaat. En inderdaad, zoals johnbetonschaar al opmerkt veriest de A7 het bij de Future 3Dmark physics en Ice Storm, maar bij de andere tests is de A7 sneller dan de Android socs, ook offscreen. Je ziet bij Ice Storm en vooral physics duidelijk het voordeel van meerdere cores.

Waar je offscreen in acht neemt kan ik even niet vinden. Ik reageerde op je posts in deze thread en daar hamer je vooral op het resolutie verschil.

Als sommige dingen me niet bevallen, betekent nog lang niet dat alles me niet bevalt. Beetje zwart/wit gedacht...
Offscreen testen maakt het niet uit, aangezien er onafhankelijk van schermgrootte en pixels getest wordt. Daar zie je ook dat de smartphones elkaar het minste ontlopen.
Ik kan het zien. Dat jij dat niet kan is best, maar ik kan het wel. Vergeet ook niet dat schermen voor meer dingen gebruikt worden dan alleen mobieltjes en er dus zeker wel gebieden kunnen zijn waarop een hoger PPI nut heeft. Of al is het maar de ontwikkeling in techniek die ervoor nodig is die ergens anders gebruikt kan worden. Of de boost in de economie, of wat dan ook. Je snapt het idee wel.

Daarbij, ik heb het niet over PPI gehad. PPI is een combo van resolutie en schermgrootte, en ik heb het alleen over resolutie gehad.

[Reactie gewijzigd door mincedmeat op 13 januari 2014 21:07]

Dat doet er niet toe? Bij het mirorren met een FullHD-TV van 1080p is het anders wel leuk om scherp beeld te hebben.
Helemaal mee eens. En zo als al meer gezegd is voor een mobilie SoC het stroomverbruik erg relevant.
Regel nummer 1: Welke is het Stroomverbruik!

Je kan appels met peren vergelijken zoveel je wilt, maar als de K1 meer stroom zuipt dan de A7 / 800 / T4. Interessant detail is dat tot op heden er nog geen enkel benchmark met stroom verbruik uitgekomen is.

Tweede punt: De Tegra 4 was ook voorgesteld als een rekenmonster begin 2013. Hoeveel Smartphone's & Tablets draaien op de Tegra4? Juist ja ... Het probleem van de Stroomverbruik was grondig onmerkbaar. Als je ziet de Batterij Capaciteit in Nvidia hun Shield, zegt genoeg.

Zowat alle high end Smartphone's draaien op de Snapdragon 800... Waarom kiezen de fabrikanten niet voor de Tegra 4? Zou het mogelijk zijn, dat ze hun redenen daarvoor hebben?

Het probleem met Nvidia is, dat ze producten tonen, vaak 6 tot 8 maanden voor ze op de markt komen, met veel media fanfare, maar dat later nadelen naar buiten komen ( trage productie, design problemen, batterij verbruik enz ). En nu begint hetzelfde spelletje weer.

Het probleem is dat de meeste games nog altijd ontworpen worden voor de grote markt... M.a.w, je mag een 250km/uur Ferrari kopen, maar als men de wegen bouwt voor 120km op te rijden, dan ben je ook niet ver af *lol*. Tegen dat je games hebt, dat grafische het niveau bereiken om een K1 te pushen, zit je 9/10 kans als met smartphone's dat de K3 bevatten of wat dan ook. En waar je een K2 "ex-high end" phone/tablet voor 200 koopt.

Grappig genoeg zit men nu al aan een verzadigingspunt op gebied van mobiele CPU's. Zelf een "oude" Tegra3, draait nog perfect alle content, gewoon omdat de meeste applicaties gewoon niet intensief genoeg zijn om meer te pushen. Of Apple's A6 ... oude, traag? Nowp ...

Het is een beetje hetzelfde met de rush naar 64bit. Jammer genoeg heeft de PC markt al jaren bewezen dat 64bit in maar een paar gevallen nut heeft ( 4GB+ geheugen is het belangrijkste punt ). Voor de rest zijn de voordelen vrij beperkt, buiten natuurlijk "marketing". Wat een beetje hetzelfde is als die octacore SOC's, waar ze in praktijk in 4+4 gewoon staan ( big.little ), en je in werkelijkheid maar 4 kan aanspreken ( en zelf dan nog is de meeste software enkel in staat 2 te gebruiken *lol* ).

Marketing ... verkoop cijfers ja.... Het probleem is, dat hun spelletje eigenlijk nadelig is voor hun zelf. De XXX SOC is de snelste whatever, nog maar juist uit. O nee, nu moet men vlug de XXX+1 aankondigen dat nog eens 30 a 40% sneller is. Mensen wachten / stellen aankopen uit, want ja, hun oude smartphone werkt nog goed. O, 6 maanden later is de XXX+1 uit... Mensen denken na om deze te kopen, maar wacht, o neeeeee. Nu kondigde men de XXX+2 al aan, dat nog eens 30 a 40% sneller is.

Soms denk ik dat men beter is, gewoon meer tijd te laten tussen hun aankondigingen. Zodat kopers van de laatste high end ding, zichzelf niet al direct ouderwets voelen *lol* ... Het gaat soms een beetje te snel, toch voor de kopers.
Als je na een Tegra3 eenmaal met een Tegra4 setup gespeeld hebt, is een Tegra3 serieus old gen. Tegra4 is VEEL sneller, duidelijk een nieuwe generatie. Idem met een A6 of oude Snapdragons. Het hoeft niet, maar dan moet je niet met het nieuwe spul gespeeld hebben.
Gevoelsmatig harde schijf vs SSD. Eenmaal gewend wil je niet meer met het oude spul.

Qualcomm, nVidia en Intel hebben in 2013 een enorm grote stap gemaakt. Veel meer als van Tegra2 naar Tegra3 bijvoorbeeld.
Net als van HDD naar SSD is de stap in 2013 van Qualcomm, nVidia en Intel zeker de moeite waard om te upgraden.
@Wulfklaue: helemaal mee eens. De CPU en GPU van mijn S advance(dual core @1 Ghz en een mali 400) staat constant in de spaarstand. Waarom? Je merkt het verschil toch niet en een langer accutijd merk je wel. Alleen voor Dead Trigger 2 gaan ze uit de spaarstand, mat dat is ook een game met dikke graphics. Op het gebied van rauwe rekenkracht hebben we ondertussen al wel wat we nodig hebben. Laat ze hun tijd maar steken in Accu's, veel opslag, flexibele telefoons ed. Dat is iets waar we nog wel heel wat te winnen hebben
Ik weet niet hoor, maar ik had een S2 met die specs, sinds ik die kan vergelijken met een Note 2 en een HTC One is het een behoorlijk trage chip. Er zit wel degelijk merkbaar verschil in dagelijks gebruik tussen de oudere en de huidige generatie. Om nog maar te zwijgen over de GPU prestaties.
De Nvidia 7 tablet, met de Tegra 4. is niet schrikbarend slecht qua stroomverbruik/accu.
Als nVidia de SoC op tijd kan gaan leveren n een goed energieverbruik kan verbinden aan de SoC maakt deze een kans. Jammer trouwens dat ze de Intel Z3740 niet hebben getest, deze schijnt onverwacht een hoop volwaardige spellen te kunnen draaien onder Windows 8.
Staat in het artikel van Tom's Hardware dat Lenovo het eerste product gaat leveren in juli van dit jaar.

Benchmarks zijn leuk, maar dan wel producten vergelijken die momenteel beschikbaar zijn. Als dit over 6 maanden op de markt komt zit de concurrentie ook inmiddels op de volgende versie (Apple A8, Snapdragon 900, etc).

Samenvatting van Tom's Hardware: "Potentially The Next Big Thing In SoCs"

Eerst even het gebruik (incl. bijbehorende warmte productie) van deze SOC zien, voordat we helemaal los gaan...

[Reactie gewijzigd door Zware Unit op 13 januari 2014 19:44]

Het worden erg snel wegwerpproducten. Op dat moment is er vast wel weer een snellere SoC beschikbaar. Ik zou liever zien dat het OS volledig wordt geoptimaliseerd voor de SoC. Dit doet bijvoorbeeld Microsoft met de Tegra 3 en 4 op respectievelijk de Surface RT en Surface 2 RT. Natuurlijk doet Apple dit ook, zeker de A7 zal nog wel enige tijd meekunnen.
Amen. De ontwikkeling van SoC's gaat erg snel en dat is mooi, maar nu nog software die gebruik maakt van al die kracht en een accu die langer dan twee dagen meegaat.
Ik wou dat mijn accu twee dagen mee ging.... Langer als 16 uur houd het hij niet vol.
Terwijl ik gewoon wat app, sms, browse en af en toe een game speel.
Ik kan jouw conclusie ook alleen maar bevestigen. Ik snap de schrijfstijl van dit bericht dan ook niet helemaal. In bijna alle benchmarks is de PowerVR G6430, de snelste GPU van dit moment. De Adreno 330 van de Snapdragon en de Tegra 4 kunnen volgens de benches hier niet aan tippen.

(Deze reactie wilde ik aan johnbetonschaar quoten, maar was niet gelukt zie ik)

[Reactie gewijzigd door smidtak op 13 januari 2014 23:45]

Ik heb geen idee hoe 3dmark de totaalscore berekend:

maar de totaal score voor de intel z3740 = 1827.
http://www.notebookcheck....-Tablet-SoC.101427.0.html

en de scores van de tegra k1 zijn:
ice storm: 22285 (ik denk dat dit totaal is???)
graphics: 24927
physics: 19299

EDIT:
wauw, deze soc scoort soms even goed als de hd4000 in de ultralow processors:
http://gfxbench.com/devic...4000%29&testgroup=overall

Maw, een ultrabook van voor de haswell generatie is mogelijk grafisch minder krachtig dan deze soc?

EDIT2
@maevian: vandaar "van voor de haswell generatie", hiermee bedoel ik dus beter dan ivy bridge/sandy bridge/...

[Reactie gewijzigd door pinna_be op 13 januari 2014 23:39]

HD4000 is ivybridge :p
neemt niet weg dat dit nog altijd een indrukwekkende prestatie is!
Jammer trouwens dat ze de Intel Z3740 niet hebben getest
Op papier is die veel trager. Bay Trail heeft Gen7 gpu met 4 execution units @ max 688 MHz, dat betekent maximaal 44 GFLOPS. Snapdragon 800 en Apple A7 zitten op ruim het dubbele. Bay Trail is een erg snelle cpu, maar heeft een relatief kleine gpu aan boord. Da's geen schande ofzo: Windows tablets worden vooral zakelijk gebruikt, een kleine gpu houdt de chip klein en goedkoop, en zuinig.

[Reactie gewijzigd door Dreamvoid op 14 januari 2014 11:36]

Leuk, maar wat verbruikt ie en hoe warm wordt ie als er echt iets moet gebeuren? Of is dit pas nuttig als er eindelijk werk gemaakt is van die nieuwe accu's waar we al 8 jaar op wachten?
Die accu's bestaan al een hele tijd, en telefoons zijn al lang bezig een stuk zuiniger te worden. Het probleem is niet de technologie, maar de verwachtingspatronen van mensen: er wordt niet geoptimaliseerd op langere accuduur maar op gelijkblijvende accuduur met betere prestaties. Mensen zijn gewend om elke dag hun telefoon aan de sap te leggen, dus dat is wat je krijgt.

Als je een moderne telefoon licht gebruikt krijg je er gemakkelijk 5-7 dagen accutijd uit. Net als dumbphones van weleer bij zulk gebruik. En stukken beter dan de minder-dan-een-dag anderhalve dag van drie jaar geleden.
5-7 dagen? Zelfs als ik hem alleen maar standby laat komt de iPhone niet verder dan 2 dagen en 12 uur. En ook andere telefoons zie ik dat niet veel beter doen.

Hoe jij dan ook komt tot 5-7 dagen met licht gebruik IN DE PRAKTIJK is mij een raadsel
Dat lijkt me sterk, tenzij het een erg oude iPhone is. Mijn HTC 8s ging zo een 5 dagen mee bij erg(!) licht gebruik. Dan heb ik het over om de paar uur m'n mail checken en whatsapp bekijken. Tussendoor staat dan wel wifi/3g uit. En dat @ 1400 mAh.
Ik heb het over een gebruiksklare iPhone, daar staat dus 3G en Wifi wel aan.
Daarnaast is het een iPhone uit 2012 en zie ik echt alleen maar mensen die hem om de dag moeten opladen, ook bij relatief licht gebruik. Alle locatievoorzieningen en notificaties staan overigens uit.

Simpel gezegd: 5-7 dagen doen met een batterijlading in real-life op een iPhone is een hoax.
Dat is toch echt abnormaal. Met mijn Windows Phone haalde ik met licht gebruik toch makkelijk 2 dagen.

Dan heb ik het over +- 3 uur muziek luisteren per dag, wifi bijna constant aan, geregeld via 3G Whatsapp en Facebook checken en een half uur per dag internet surfen.

Natuurlijk kunnen onze definities van 'licht' gebruik verschillen, maar ik neem aan dat een iPhone, die toch altijd bekend staat om zijn/haar batterijduur, dat toch ook makkelijk moet halen?

Wat is trouwens om de dag moeten opladen? Ik deed dat bijvoorbeeld ook, ook al zat er nog 75% in. Was het echt nodig omdat de batterij leeg was of meer uit voorzorg?
Echt leeg.

"Dan heb ik het over +- 3 uur muziek luisteren per dag, wifi bijna constant aan, geregeld via 3G Whatsapp en Facebook checken en een half uur per dag internet surfen."

Zou ik al typeren als middel-zwaar gebruik. Als ik dat probeer moet ik hem binnen de dag zelf al opladen.

Overigens verneem ik dat de situatie al wel wat beter is met de iPhone 5S, maar nog absoluut niet de waardes die jij noemt.

Sowieso heb ik nog nooit van iemand gehoord dat diegene niet minstens 1x per 2 dagen zijn telefoon moest opladen. Kan zijn dat jij net de juiste telefoon en instellingen qua accuduur gevonden hebt.

[Reactie gewijzigd door Pyrone89 op 13 januari 2014 23:22]

Mijn iPhone 4s ging op vakantie in Thailand 4 dagen mee. Ik maakte weinig gebruik van 3g en zat voornamelijk op wifi. Nu heb ik een iPhone 5 en die heeft hier in Nederland al een aanzienlijk langere accuduur, ik weet wel zeker dat ik met dit toestel minimaal 5 dagen in Thailand zou doen.
mux wat vind je van deze smartphone (Lightning/ Micro USB) oplader? Kickstarter: Native Union - Jump Ik vond het ook wel een project wat jij had kunnen leiden :).

[Reactie gewijzigd door ChicaneBT op 13 januari 2014 19:49]

Appels met peren vergelijken ... Een gpu is voor de graphic performance , voor de 5s dus voor het 5s scherm ... Niet voor hardcore gaming, en doe het dan ook testen op basis van een 64 bit applicatie ...
Het is 'n puike prestatie, punt. Eens we de concrete cijfers kennen van de accuduur en warmteontwikkeling weten we pas echt wat voor 'n monster dit al dan niet is. En of de applicatie 64-bit is of niet, dat doet er toch weinig toe, nee? Er is toch maar 2GB werkgeheugen aanwezig?
De prestaties van het OS onder games wordt inderdaad niet meegerekend. Het kan nog steeds zo zijn dat spel X op de Apple SoC beter presteert onder iOS dan met een van de andere SoC's onder Android.
ik denk dat je daar verkeerd ben, ze testen 3d mark op ios en android, op alle apparaten dezelfde game simulator.
Hier is de bewuste benchmark te zien als grafiek, ik neem aan dat Tweakers dit niet in het artikel mag zetten.
Voor beschrijvingen is de eerste hyperlink in het artikel, bij 'meldt'.

1, 2, 3, 4.
Onder nummertje 4 vind ik een plaatje waarin ik zie dat vrijwel alles t.o.v de Tegra 4 een stuk sneller is, BEHALVE de GPU?!?! en er word zo enorm veel ingespeeld op de grafische kwaliteiten van deze soc? opvallende conclusie, ondanks dat ze zeggen dat hij niet op ''volle sterkte'' draait.
het ligt er aan of ze een onscreen of offscreen bench draaien. Onscreen bench op 4K levert natuurlijk wat minder frames per seconde op dan een onscreen bench op 720p
Heb je goed gekeken?
Het gaat trouwens om de K1 en niet de tegra4.
Ja, go figure met 192 Kepler-cores. Waar ik meer in geinteresseerd ben is in het verbruik. Is dit monster nog enigszins nuttig in een telefoon of is dat niet meer interessant vanwege het verbruik? Dat neemt overigens niet weg dat dit een prestatie van formaat is en een beest van een processor.
Ik denk helaas dat het verbruik niet van de poes zal zijn met zo'n krachtige gpu. Dat zijn we ook een beetje gewend van nVidia soc's. Voor een tablet is dit niet zo erg maar moest hij ook in smartphones gebruikt worden wel.
Gaan we nou echt voor de grafische prestaties voor telefoons tegenwoordig?
Een spelletje schaken spelen is leuk, maar je hebt een telefoon gekocht.

Hartstikke leuk dat je ermee kan browsen en de wifi sterkte meten via een app, maar dat games/fps een race worden op smartphones...consumerism.

Geef mij maar battery. Jiayu G4, als normale telefoon gebruiker, soms een schaakspelletje, 5 dagen.
Als ik wil gamen, zet ik mijn mooie desktop wel aan.
Je moet het meer zien in het licht van ARM benadert x86.
Dat tablets op basis van ARM net zo goed zijn als laptops, of zelfs beter. Etc.
Ok, inderdaad, dat is dan wel weer indrukwekkend, ja.
Maar waar heb je het op een telefoon voor nodig? Ik vind het heerlijk om een snelle computer als telefoon in m'n zak te hebben, maar als game apparaat met mooie fps kan mij het echt niet veel schelen.
Het betekent dat alles wat grafisch is (incl. de UI) ervan profiteert. Games zijn toevallig een goede benchmark aangezien ze grafisch het meest belastende zijn wat beschikbaar is voor consumenten
Denk aan een docking station in iedere monitor waar je je telefoon in klikt. je eigen computer op zakformaat
Voor een potje schaken schuif ik aan tafel en speel ik op een schaakbord. O wacht.......
Wel mijn Pipo M8 pro tablet hangt geregeld aan de TV met HDMI, een draadloze controller eraan, en je hebt een leuke console :-) Als XBMC nu oook nog vlekkeloos zou werken...
Geeft de off-screen benchmark ook niet een verkleurd beeld weer aangezien prestatie op mobiele apparaten vaak beperkt wordt door warmteafvoer? En aangezien het gaat om een monitor zou ik denken dat deze makkelijker warmte kan afvoeren en bvb op 2GHz draaien terwijl de meeste smartphones en tablets dit niet kunnen?
Ziet er goed uit. Vraag me af wat voor CPU performance we zullen zien bij de 64 bit Denver CPU versie van de K1 die Q3 van dit jaar zal verschijnen (en idd zoals de naam al doet vermoeden is dit het 'Project Denver' dat Nvidia reeds aankondigde in 2011).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True