Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 31, views: 14.065 •

Diverse sites hebben de eerste benchmarks gedraaid op apparaten met een Snapdragon 800. Dit is Qualcomms krachtigste system-on-a-chip voor smartphones en tablets tot nu toe. De soc presteert gelijk aan Cortex A15-processors, terwijl de gpu het beter doet dan de concurrentie.

De Snapdragon 800 zal vermoedelijk zijn weg vinden naar veel telefoons en tablets in de tweede helft van dit jaar. Samsung gebruikt hem in een snellere variant van de Galaxy S4, LG gaat hem naar verluidt toepassen in een nieuw topmodel, terwijl ook Nokia hem uitprobeert voor nieuwe Lumia's en Sony en HTC hem wil toepassen in hun grote telefoons. Daardoor is de kans groot dat het de belangrijkste soc voor in elk geval telefoons zal worden in de tweede helft van dit jaar.

Sites als Engadget en Anandtech kregen kortstondig de beschikking over reference designs van Qualcomm, om de nodige benchmarks te kunnen draaien. Op cpu-gebied neemt de Snapdragon 800 een toppositie in bij veel benchmarks, al moet daarbij aangetekend worden dat cpu-benchmarks op Android als problematisch worden gezien. Als vervanging voor native benchmarks worden veelal browsertesten gebruikt. Bij Mozilla's JavaScript-benchmark Kraken is Samsungs Exynos 5 Dual van de Nexus 10 sneller en bij Googles Octane-test zijn zowel de Exynos 5 Dual als de Exynos 5 Quad van de Galaxy S4 sneller.

Op het gebied van de gpu is de Snapdragon 800, met als typenummer MSM8974, veel concurrenten vooruit. De Adreno 330 moet het bij de low level geometry- en fill rate-testen van GLBenchmark 2.7 afleggen tegen de A6-soc van Apple, maar bij de gametest van die benchmarksuite en bij Citadel en BasemarkX neemt de Snapdragon met afstand de koppositie in. Anandtech draaide ook nog 3DMark-testen om een vergelijking met pc-gpu's te kunnen maken. Hieruit blijkt dat de Adreno 330 van de Snapdragon 800 nu beter scoort dan de Radeon HD 6310 van AMD'a Brazos-apu E-350 uit 2011, tegen een veel lager verbruik. Intels tablet-soc Atom Z2750 wordt met grote afstand verslagen, maar de HD 4000 van Intels Ivy Bridge-processors is nog vele maten te groot. Bij GL/DXBenchmark scoort de Adreno nu gelijkwaardig aan een Geforce 8500 GT uit 2007.

De grootste vraag is nu wat het verbruik van de soc bij verschillende scenario's is. Qualcomm claimt dat het verbruik gelijkwaardig is aan dat van de Snapdragon 600. Dit zou onder andere komen omdat van TSMC's High Performance for Mobile 28nm-procedé in plaats van het Low Power 28nm-procedé, zoals bij de Snapdragon 600 gebruikgemaakt is. Ook is het de vraag hoe de prestaties zich tegenover de Tegra 4 van Nvidia verhouden. Ars Technica doet een poging de twee met Geekbench-resultaten tegenover elkaar te zetten op basis van de huidige info. Daaruit valt op te maken dat de Tegra 4 de overhand heeft, maar dat ze niet veel voor elkaar onderdoen.

Snapdragon 800 reference designs (foto: Anandtech)

Reacties (31)

<quote>Hieruit blijkt dat de Adreno 330 van de Snapdragon 600 nu beter scoort dan de Radeon HD 6310 van AMD'a Brazos-apu E-350 uit 2011, tegen een veel lager verbruik. Intels tablet-soc Atom Z2750 wordt met grote afstand verslagen, maar de HD 4000 van Intels Ivy Bridge-processors is nog vele maten groot. Bij GL/DXBenchmark scoort de Adreno nu gelijkwaardig aan een Geforce 8500 GT uit 2007.</quote>

Dit is vooruitgang! Dit zal waarschijnlijk ook in de games te zien zijn!
Hieruit blijkt dat de Adreno 330 van de Snapdragon 600 nu beter scoort
Ik vraag me wel af of deze zin klopt, aangezien het artikel over de Snapdragon 800 gaat.
Het aantal games wat op een HD4000 draait en/of te verkrijgen is voor de platforms is van aanzienlijk andere architectuur van de platforms waar je een SnapDragon 600 of 800 gaat inzetten. Ook het OS zal, in veel gevallen, van een geheel andere smaak/fabrikant zijn en hierdoor betere of slechtere invloeden uitoefenen.

Ik vind dan ook niet dat je een default benchmark meteen kan classificeren als "dit zal waarschijnlijk ook in de games te zien zijn"; klinkt een beetje als "het is sneller dus beter".
klopt! wat je zegt, de chips moeten natuurlijk ook nog veel dingen ondersteunen zoals bijv. een openGL of directX.
Maar dat de snelheid er al is, vind ik al wel mooi!
Leuke is dat je bij bijvoorbeeld Android wel mogelijkheid heb om low level te programmeren zonder api tussenkomst in tegenstelling tot Windows systemen. 8500GT niveau zal denk ik behaald worden door gebruik te maken van api's. Als je de api's weglaat bij deze soc en direct instructies uitvoert op low level taal zal prestatie wellicht met aantal factoren kunnen toenemen. Is hetzelfde verhaal als console vs win pc, console kan je ook veel meer uit de hardware halen door low level te gaan, is wel stuk lastiger programmeren. Maar als ontwikkelaars er tijd in willen steken kunnen ze waarschijnlijk nog veel meer uit de Adreno 330 halen dan 8500GT op pc kan.
Leuke is dat je bij bijvoorbeeld Android wel mogelijkheid heb om low level te programmeren zonder api tussenkomst in tegenstelling tot Windows systemen.
Sinds wanneer kan dat niet meer op Windows systemen?
Als het waar is, is dat inderdaad leuk. Maar ik zou graag eerst wat meer informatie hebben. Als de resoluties sterk verschillen of de benchmark niet identiek is, is er weinig te vergelijken.

M'n vriendin gebruikt tegenwoordig als enige computer zo'n AMD E-350 netbookje van 2011, en ik moet zeggen dat het ding lekker draait, hoewel de GPU natuurlijk nooit echt een topper is geweest. Source-engine games hebben moeite om er vlot op te draaien met een degelijk detailniveau, laat staan moderne engines.

Het toont natuurlijk wel aan dat de afstand tussen low-end low-power PC hardware en smartphones echt wel snel wordt dichtgelopen, indien deze benchmark klopt.
Het is natuurlijk wel een 'moving target'. We zijn nu zover dat een smartphone chip uit 2013 vergelijkbaar performt met een E-350 uit 2010. Maar dat is een chip van 2 generaties terug, anno 2013 zit AMD met Temash ook alweer een stuk sneller, en Intel's low-end Ivy Bridge varianten ook. Er blijft natuurlijk altijd een gat tussen ~5W tablet chips als Snapdragon 800 en ~15W chips voor netbooks/ultrabooks, da's niet meer dan logisch.

Maar ik zie Qualcomm op het moment als de enige chipfabrikant die het Intel echt lastig kan maken. Ze hebben een enorm R&D budget (twee keer zoveel als AMD en nVidia samen!) en hebben een ijzersterke portfolio van cpu, gpu en baseband technologie, plus dat ze voorop lopen in de samenwerking met de fabs voor de laatste productietechnologieeen (de eerste op TSMC's 28nm node bv). Ze domineren nu de snel groeiende markt voor telefoons en tablets, de concurrentie is min of meer gereduceerd tot budget ARM chips voor een habbekrats, terwijl Qualcomm comfortabel 30-50 dollar per chip kan vragen. Met de transitie naar de 64-bit ARMv8 ISA kan Qualcomm ook eind 2014 de stap maken naar de markt voor laptops, all-in-ones en servers met >4 GB.

[Reactie gewijzigd door Dreamvoid op 19 juni 2013 13:24]

Dit is toch wel een enorme vooruitgang op de Adreno 320!

Als het zo doorgaat worden de X86 chips vervangen in de ultrabooks voor dit soort chips gecombineerd met een gigantische accu. Ik kan niet wachten op de opvolger van de Adreno 320!
Vermits het Ultrabook-concept van Intel is, lijkt me dat dit niet snel zal gebeuren :p In tablets en laptops kan het echter best wel, zeker nu Windows RT ook op ARM draait, en ze snel genoeg zijn om een FHD resolutie aan te drijven. Alleen moeten we niet vergeten dat ook Intel stilletjesaan in die markt rondschuifeld en veelbelovende dingen laat zien.
De reus intel is wakker geworden, de atom loopt nu nog achter maar bij iedere generatie zie je dat ze steeds dichter in de buurt komen. Intel heeft daarnaast het geld in huis om te ontwikkelen, eigen fabs om de winst maximaal te houden.

Denk dat we de komende 2 jaar leuke dingen zullen zien van intel op laag energie gebied.,
Intel heeft niet alleen de Atoms. De nieuwe Haswell heeft modellen die stroomefficient genoeg zijn om in tablets etc geplaatst te worden.

Gezien Intel binnen het jaar wellicht nog een iteratie met extra modellen zal introduceren, is het erg waarschijnlijk dat ze dit stroomverbruik nog naar beneden duwen.

Ik ben zelf niet zo'n grote fan van Intel, maar in absolute kracht is er tegenwoordig geen concurrentie, en met hun nieuwe focus op stroomefficientie maken ze indrukwekkende vooruitgang in het performance-per-watt domein.
Ja maar zelfs als ze een Haswell er in kunnen krijgen zal dit nog steeds een relatief dure die zijn tegenover een standaard ARM of Atom SoC.
Dat is natuurlijk ook weer waar. Het feit dat Intel een monopolie op high end chips heeft, betekent dat ze ervoor vragen wat ze willen. De ARM en Atom apparaten zullen onvermeidelijk altijd lager geprijsd blijven, tot wanneer ARM ook naar de snelheidskroon kan grijpen.
Om ter snelst, het doet mij denken aan de race vroeger bij PC's tussen CPU en grafische kaarten.
De ene benchmark draaien achter de andere want die ene framerate meer dat was het. Heb duchtig mee gedaan vroeger, nu als mijn apps vlot draaien is het ok. Om de 3 maand een nieuwe GSM hoeft niet zo nodig.
Wanneer zouden we het punt bereiken dat de normale consument voldoende neemt met dit soort chips? Ik neem aan dat de normale consument alleen op youtube twitter en facebook zit met soms een email versturen. Daarvoor heeft deze chip meer dan voldoende kracht voor om definitief af te rekenen met x86 chips.
En wat zou het voordeel voor consumenten zijn op dit soort chips in hun computer te hebben ipv x86 chips?
Veel zuiniger, een smartphone met een arm cpu gaat net zo lang mee (of langer) op 1 lading, als een ultrabook met een x86 cpu, als dit in een ultrabook komt dan is een werktijd van 20+ uur ineens werkelijkheid.
Nadeel is echter dat programmas voor x86 zijn.
Het feit dat ARM per definitie veel zuiniger is dan x86 is niet waar. Getuige daarvan wat Intel momenteel aan het doen is met de Atoms. Als ze willen, kunnen die ook zuinig zijn, het is gewoon nooit zo hard nodig geweest dus is er altijd gefocusd op prestaties.
Het verbruik van de x86/ARM cores is ook maar een beperkt deel van de chip. Zet er de verkeerde gpu, geheugencontroller, baseband of pci/sata controller naast, en je chip is ondanks een zuinige cpu niet zo geweldig meer. En omgekeerd kan je een onzuinige cpu arch best acceptabel krijgen als de rest van de SoC goed is.

Zo is het nog steeds niet helemaal duidelijk waarom de Exynos 5250 zo onzuinig is. Ligt het aan de Mali T6xx gpu, de Cortex A15 cores, een beroerde uncore of is het productieproces niet helemaal ideaal? Alleen Samsung weet het, als reviewer/gebruiker zie je alleen het eindresultaat.

[Reactie gewijzigd door Dreamvoid op 19 juni 2013 13:26]

De concurrentiekracht.
De x86 instructieset puilt helemaal uit van de legacy troep die door elke fabrikant moet worden ondersteund. Stel je wil een x86 chip op de markt brengen dan mag je je halve r&d budget gaan steken in de ontwikkeling van functionaliteit die door nooit meer door niemand gebruikt gaat worden - ja behalve die ene keer door die ene videokaart driver die zn resolutie instelt door in real mode een vesa functie aan te roepen omdat de fabrikant allang is vergeten hoe ze dat ookal weer deden. Dus je moet het toch lekker alles ondersteunen anders krijg je huilende klanten.

Vervolgens mag je licentiekosten aan intel af gaan dragen voordat je zo'n ding op de markt mag brengen. En als je het dan ver genoeg schopt om enigszins een bedreiging voor intel te vormen dan drukken ze je gewoon de markt af door OEMs smeergeld te betalen (zie deze link).

Alles bij elkaar genomen is het gewoon extreem moeilijk om te concurreren op x86 gebied. In ARM-land is dat een heel ander verhaal en daar zie je dan ook aardig veel concurrentie en innovatie. Intel investeert nu hard in de zuinigheid van x86 omdat het absoluut niet wil dat we met z'n allen dag gaan zeggen tegen x86. Wat mij betreft hoe eerder hoe beter.
De ARM ISA puilt ook uit van legacy troep en extensie op extensie. Er is een hoop veranderd sinds 1983: Thumb, Thumb-2, ThumbEE, VFDv1,2,3,4, NEON en ga zo maar door, we zitten inmiddels al in de achtste versie van de ISA. Bijna niemand prutst meer in legacy ARM als je het ook gewoon in Thumb-2 kan doen, maar het zit er nog wel in. En denk je dat ze met ARMv8 (64-bit) eindelijk schoon schip maken, think again: legacy ARMv7 zit daar ook allemaal in.

Met al die nieuwe instructies om 'code density' te verbeteren is ARM zelfs moeilijk meer een pure RISC ISA te noemen, net zo min als de huidige AMD/Intel architecturen CISC zijn.

De meeste moderne architecturen volgen het principe "CISC in memory, RISC in execution". Het combineert de voordelen van beide concepten: CISC voor efficient gebruik van cache/mem, RISC micro ops voor de snelle verwerking in je compute cores, en een instruction decoder ertussen. AMD deed het al jaren geleden met de K5, een x86 decoder op een RISC cpu schroeven. Het werd 1 van de snelste cpu's van dat moment. Het hele verhaal dat de x86 instructie set op 1 of andere manier een negatieve invloed op de performance van een cpu architectuur heeft, wordt nu al dertig jaar keer op keer ontkracht. Het heeft ook geen magische positieve kracht, het is niets meer dan een instructieset. Je moet hem een beetje up to date houden met nieuwe instructies, maar uiteindelijk kan je er geweldige of klote architecturen mee ontwikkelen.

Wat x86 zo vervelend maakt is niet de ISA zelf, maar Intel: die zijn niet heel scheutig met licensies, terwijl elk willekeurig bedrijf met een bankrekening een ARM ISA licensie kan kopen.

[Reactie gewijzigd door Dreamvoid op 19 juni 2013 15:15]

Normale consument? Volgens mij is hier geen definitie van maar aangezien je het voorbeeld YouTube aanhaalt, wil ik er wel iets over zeggen. Een HD4000 heeft, zeker bij 1080p YouTube of 720p Vimeo soms toch moeite om voldoende snel te "decoden"; mogelijk dat dit komt omdat de hardware acceleratie niet altijd is afgestemd tussen driver & browser-plugins.

Ga je dan een SnapDragon 800 inzetten die, zeer waarschijnlijk, niet default ondersteund wordt door Windows, dan beslis je dus indirect dat de normale consument en geen Windows draait en geen grafische taken op hogere resolutie wil voltooien.

Gezien het marktaandeel Windows en de toegenomen digitale workflow van foto's, YouTube, Twitter (al dan niet samen met Vine), vind ik niet dat de normale consument voldoende gaat/kan nemen op korte termijn met de SnapDragon.

Ik denk dat de komende anderhalf jaar juist een grote beslissing gaat vormen voor de low-power Intel SOC's/CPU's aangezien deze fabrikant een hele grote slag wil gaan maken in het uibreiden van hun activiteiten.
dat lijkt me sterk, dan is er wel iets heel goed mis als jouw HD4000 (en Core iX cpu) geen 1080p youtube aan kan.

De intel processoren kunnen die video met quicksync nu al denk dat sneller encoden dan realtime.. laat staan dat de decode een probleem moet zijn voor welke huidige cpu van intel of amd.
Dat kan al. Het heet een tablet of een chromebook.

Maar dat is niet echt de "normale consument" als die al te definieren valt. Aangezien computer eisen voor iedereen verschillend zijn. Ook een "normale consument" wil nog wel eens photoshoppen of pacasa gebruiken o.i.d. Of gewoon een word document typen. Dan zit je toch vast aan x86 chips.
Interessant om ook de vergelijkingen met mid-low range PC videokaarten uit een andere tijd te zien.
Ik had vroeger de 8500 GT en dat is zeker weer leuk om die tevoorschijn te zien komen!
Maar allemaal leuk en aardig maar ik zit nog steeds te wachten op een sneller smartphone die minimaal een dag mee kan...
Ze hebben nog een lange weg af te leggen, nog heel veel geduld vooraleer dit echt hier in huis komt.
Leuk dat er nu een vergelijking getrokken kan worden met grafische hardware uit de PC. Qualcomm is lekker bezig.

Wat ik me wel afvraag: in het artikel staat dat CPU-tests in Android problematisch zijn, waarom is dat zo?
http://www.blogcdn.com/ww...0-tablet-benchmarks02.jpg
Dit plaatje illustreert het verschil wel goed zeg :o

http://www.engadget.com/2...ragon-800-mdp-benchmarks/

[Reactie gewijzigd door jip_86 op 19 juni 2013 11:22]

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Nokia Websites en communities Smartphones Google Apple Sony Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013