Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 110 reacties

Qualcomm heeft twee nieuwe socs gepresenteerd voor high-end smartphones. De Snapdragon 810 heeft acht processorkernen op basis van een 64bit-architectuur. Daarmee laat Qualcomm voor nieuwe processors zijn eigen Krait-core vallen ten gunste van ARM's micro-architecturen.

De Snapdragon 810 heeft vier Cortex A57-processorkernen en vier Cortex A53-kernen, alle acht gemaakt op 20nm. De Cortex A53 en A57 zijn de eerste microarchitecturen op basis van de ARMv8a-instructieset met 64bit-ondersteuning die Qualcomm gebruikt. Met de aankondiging van de Snapdragon 810 en de eerder gepresenteerde 610, 615 en 410 is duidelijk dat geen van de nieuwe socs van Qualcomm nog draait op de eigen Krait-core. Qualcomm gebruikt sinds begin 2009 een eigen core voor zijn processors.

De Snapdragon 810 heeft een Adreno 430-gpu en ondersteuning voor lpddr4-geheugen. De soc ondersteunt uhd-displays en is daardoor ook bruikbaar voor een komende generatie tablets met hogere resoluties dan het huidige maximum van 2560x1600 pixels. De Snapdragon 810 moet in de eerste helft van 2015 in smartphones en tablets verschijnen en zoals het nu lijkt, is die soc dus op tijd voor de opvolgers van bijvoorbeeld de Samsung Galaxy S5 en HTC One (M8).

Daarnaast komt Qualcomm met de Snapdragon 808, een hexacore-soc met twee Cortex A57-kernen en vier kernen op de Cortex A53-core. De gpu daarin is de Adreno 418, die veertig procent sneller moet zijn dan de Adreno 330 uit huidige socs. Beide socs ondersteunen de snellere variant van 4g, lte-advanced.

Qualcomm levert momenteel de socs voor vrijwel alle high-end smartphones met Android en Windows Phone. De chipmaker presenteerde eerder al de Snapdragon 610 en Snapdragon 410. Onder meer Samsung, Sony, HTC, Nokia, BlackBerry, LG en Google gebruiken de socs van Qualcomm.

SocSnapdragon 810Snapdragon 808Snapdragon 801Snapdragon 800
Kernen 4x Cortex A57+
4x Cortex A53
2x Cortex A57+
4x Cortex A53
4x Krait 400 4x Krait 400
Snelheid Onbekend Onbekend Max 2,5GHz Max 2,3GHz
Instructieset ARMv8-A ARMv8-A ARMv7-A ARMv7-A
Gpu Adreno 430 Adreno 418 Adreno 330 Adreno 330
Geheugen LPDDR4-1600 LPDDR4-900 LPDDDR3-933 LPDDR3-800
Bijzonderheden Dual ISP, HEVC-decode/encode Dual ISP, HEVC-decode Dualsim SensorCore
Release Eerste helft 2015 Eerste helft 2015 Q1  2014 Q3 2013

Qualcomm Snapdragon 810 en 808Qualcomm Snapdragon 810 en 808

Moderatie-faq Wijzig weergave

Reacties (110)

Ik mis in dit verhaal de vergelijking met de eerder aangekondigde Snapdragon 805, welke tussen de 801 en en 808 gepositioneerd wordt en later dit jaar geïntroduceerd wordt.

http://www.qualcomm.com/snapdragon/processors/805

nieuws: Qualcomm presenteert opvolger Snapdragon 800-soc
Mooie ontwikkeling in de smartphone wereld, iets wat ik ook aanmoedig. Enkel zal er echt gebruik van gaan worden gemaakt, of zal het weer puur een specificatie zijn waar men mee kan pronken? Kijk eens naar de S5 en de One, beide toestellen hebben geen 3GB geheugen ingebouwd, terwijl dit wel al mogelijk is (Note 3, Z2). Waarom is dan vanaf 4GB geheugen nodig? Als je nog niet eens fatsoenlijk daaronder het geheugen hebt?

Ook is die power een beetje onnodig in mijn ogen, momenteel. Het komt gewoon door dat de optimalisatie gewoon brak is van de fabrikanten dat deze power nodig is! Ik haal Windows Phone er even bij, als je bekijkt hoe vlot het werkt met veel mindere specificaties, zegt dit al genoeg in mijn ogen!

Ik snap dat een chip-fabrikant wil doorontwikkelen, het is tenslotte een hele mooie verbetering die ze hebben, maar een smartphone fabrikant gebruikt dit weer totaal verkeerd in mijn ogen..... een Samsung kan hierdoor weer meer troep en minder optimaliseren bij hun nieuwe telefoon, waardoor ze lui blijven.

Waar ik benieuwd naar ben is, is wat de next big step is met smartphones, snelheid ontwikkeld in een rap tempo, maar kan een toestel niet onderscheiden in mijn ogen, resolutie hoger dan Full HD, heeft weinig zin (voorlopig), geheugen is wel fijn, maar met een goede optimalisatie helemaal niet nodig! Camera kan zeker nog in verbeterd worden! Maar hiervoor worden meer onzinnige marketing termen voor gemaakt, dan dat het daadwerkelijk onwijs veel onderscheid. De batterij is zeker een punt waar ze wat meer op kunnen en mogen gaan richten, qua design kan ook nog wel aardig wat verbeterd worden maar de grootste rek is hier wel uit!, flexibele beeldscherm lijkt mij ook meer een gimmick.

In mijn ogen is een WP of een Ubuntu Touch goed bezig, beide systemen groeien naar het computer OS toe, waardoor beide straks misschien wel een vervanging van de computer kan zijn (telefoon op beeldscherm aansluiten), echter zie ik het met een Android of een iOS veel minder zitten, doordat het puur smartphone is, en ik niet echt zie zitten om op een android computer te zitten. In mijn ogen brengt de toekomst dat de grens tussen desktop en smartphone vervaagd.
Het beste is dus om de Sony Z2,HTC M8 and Samsung S5 te negeren en te wachten op de volgende generatie, waarbij er dus echt een stap is gemaakt qua prestaties. Aangezien de 801-SoC eigenlijk een overklokte snapdragon 800-SoC is.

[Reactie gewijzigd door BlacKstaR- op 7 april 2014 14:00]

Maar heb je daadwerkelijk meer prestaties nodig?
Ik ben in het bezit van een HTC One met een Snapdragon 600-soc, maar ik ben nog niets tegen gekomen waar de soc niet snel genoeg voor is.

IMO is lager verbruik momenteel weer even belangrijker dan meer prestaties.
Nochtans wordt er bij de 600 en 800 telefoons weleens geklaagd over lag van de UI.
En dat zijn in 99% van de gevallen waarschijnlijk Samsung's...
Dat ligt aan de software en niet aan de hardware. Touchwiz is en blijft een bagger schil.
Ligt dat niet aan Touchwiz dan bijvoorbeeld?
Android draait namelijk gewoon lag-free op de Nexus 5.
Hoe sneller de CPU klaar is met berekenen, hoe eerder deze weer in de slaapstand kan.
Dus snelheid zou kunnen helpen de accuduur te verbeteren.
Mits dat berekenen niet onevenredig veel meer stroom verbruikt, zoals een snelheidsverhoging meestal doet... Regelmatig (bij desktop-CPUs) met een 3e macht ongeveer, da's niet rendabel voor mobieltjes. Extra cores zijn vaak een goedkopere oplossing, energie-technisch gezien.
Leuk, maar zolang Android geen 64bit ondersteund is het zinloos. Dat is het mooie van de iPhone5s waarbij je gelijk een 64bit OS hebt
Zolang er geen (beschikbare) 64-bit SoC is is het ook nutteloos voor Android om 64-bit te ondersteunen :) En zo is het klokje weer rond, en hebben we een kip/ei verhaal...
Dat is het mooie van de iPhone5s waarbij je gelijk een 64bit OS hebt
Oke en nu het voordeel nog dan? De extra snelheid van de A7 SoC komt voor 95% voort uit de andere optimalisaties zoals de nieuwere instructieset die de A6 en andere SoC's op de markt niet hebben...

[Reactie gewijzigd door watercoolertje op 7 april 2014 14:29]

enige voordeel wat je zou kunnen hebben is dat de telefoon met meer RAM geheugen uitgerust zou kunnen worden, maar of dat op dit moment een bottleneck is betwijfel ik.

Die 810 en 808 komen in ieder geval niet op tijd voor de Note 4.
Het RAM (of geheugen en niet "RAM geheugen") vormt op dit moment zeker geen belemmering. Het blijven voorlopig nog de geheugenkaartjes en de doorvoersnelheden. Uiteraard zijn de opslagtechnieken al snel en sterk verbeterd, maar het blijven het langzaamste onderdelen. Net als de traditionele harde schijf in een computer.

Ontwikkeling van nieuwe onderdelen en opkomende telefoons loopt helaas niet altijd synchroon. Zo zal de Note 4 inderdaad geen 810 of 808 krijgen. Maar goed, ik heb letterlijk 30 minuten geleden mijn Note 3 in ontvangst genomen en daar ga ik nog fijn een aantal jaar van genieten. :)

Aanpassing: grammaticaal

[Reactie gewijzigd door EliteGhost op 8 april 2014 14:15]

wat lul jij, de Linux kernel ondersteunde al voordat iOS bestond 64 bit ;)
Door het harde werk van Intel de afgelopen jaren er inmiddels wel een 64-bit Android, die kan nu voor de ARMv8 instructieset gecompileerd worden. Nog wel enig optimalisatiewerk, maar het meeste werk is al gedaan.
Hoezo telefoons van nu zijn al rete snel.
Het gaat ook om software hoe het geprogrammeerd is.

Als je kijkt naar ss en htc , de s5 is hoger geklokt dan de m8 en de m8 is veel sneller.

Een 64SoC is een gimmick nog want er is niks wat een 64bit nodig heeft maar goed ..
M8 heeft een benchmarkboost de S5 deze keer niet (naja nog niet gevonden iig) :)

http://www.examiner.com/a...-a-feature-by-the-company

De S5 komt er dus een stuk beter van af, bijna 20% sneller (in antutu)!
ik heb het over gebruikerservaring met de telefoons.
een week lang de S5/M8 in handen gehad.
En als je kijkt naar de interface kreeg ik soms dat de software op de S5 MINDER SOEPEL liep vaak als je een sluit/opstart en dan weer terug merk je dat het wat trager gaat. En qua benchmarkts ja dat zou wel gewoon kunnen.
Er zijn op iOS anders zat apps die er daadwerkelijk gebruik van maken, vooral in de muziek / grafische bewerkingstools.

Op android heb je wel gelijk, ookal zou er op dit moment een Android toestel uitkomen met deze soc dan schiet het niet op want er is geen 64 bits android.
64bit is danook niet de grote sprong voorwaarts maar wel de ARM v8 instructieset.

[Reactie gewijzigd door aval0ne op 7 april 2014 22:38]

Of de volgende generatie negeren en te wachten op de telefoons van 2016, waarbij er dus echt een stap is gemaakt qua prestaties.

Sorry, maar dat kan je uiteindelijk wel voor elke techniek stellen. Wil je een nieuw product nu en heb je het geld ervoor, waarom dan wachten...
is de standaard reflex he, wachten op 'the next big thing'... Voor veel tweakers denk ik een herkenbare gedachtengang :)
Ja en compleet fout eigenlijk. Koop wat je nodig hebt, wat aan vervanging toe is en je niet
kan missen. En smijt je oude brol weg !
Het staat hier vol "oude brol", zolang het doet wat het moet, waarom zou ik het in godsnaam weggooien??

Ik vind het maar niet meer als normaal dat je wat onderzoek doet voor je wat koopt en als je in momenten vind dat je beter even kan wachten, dan doe je dat toch gewoon.

Niets fout of juist aan. Hij en ik denken zo, jij dus niet.
Of de volgende generatie negeren en te wachten op de telefoons van 2016, waarbij er dus echt een stap is gemaakt qua prestaties.

Sorry, maar dat kan je uiteindelijk wel voor elke techniek stellen. Wil je een nieuw product nu en heb je het geld ervoor, waarom dan wachten...
Niet iedereen koop telefoon voor 1 of 2 jaar, dus soms even paar maanden wachten zodat je weer paar jaar toch een aanzienlijk snellere telefoon hebt over die periode en er ook weer langer mee kan doen voordat die echt te traag word.

Ik ken veel mensen die even wachten tot volgende generatie(auto. cpu, videokaart, telefoon), maar ken niemand die dan steeds maar blijft wachten zoals deze steeds herhaalde opmerking van "je kan dan wel blijven wachten"(of welke variante erop).

Denk dat we sowieso te snel dingen willen en niet kunnen hebben dar buurman al eerder een "betere" telefoon heeft. Ik heb meer respect voor mensen die met wat ouder model rond lopen en er zuinig op zijn als mensen die steeds een nieuwe kopen. Ik zelf zie telefoon toch meer als status symbool voor de wat armen. :D

[Reactie gewijzigd door mad_max234 op 7 april 2014 14:58]

Dat ligt er alleen maar aan waarvan je overstapt natuurlijk. Als jee een Z1, M7 of S4 hebt is het het misschien niet waard maar vanaf bijvoorbeeld een S3 of een ander model lijkt het me zeker de overstap naar de huidige generatie waard.
Ik heb een S3 en ik zou inderdaad wel naar een 'current gen' telefoon willen overstappen, maar eigenlijk is de enige echte reden daarvoor dat mijn S3 nog een eigen processor van samsung heeft (exynos) en de support voor custom firmware van deze serie socs erg mager is. Het grote voordeel van de huidige marktdominantie van qualcomm is dat hun SoCs prima support hebben voor opensource development.

EDIT; voor gewone gebruikers die geen custom firmware flashen is de S3 wel traag geworden sinds de laatste updates; met een fatsoenlijke ROM erop loopt ie bijna net zo soepel als de nieuwste toestellen.

[Reactie gewijzigd door antiekeradio op 7 april 2014 14:37]

Ik verwacht dat de processoren pas begin 2015 in de producten te koop zijn. En dan nog. Wat kan je er extra mee doen?
Mwah, een smartphone is meer dan een processorplatform. Daarnaast is het niet zo dat de huidige telefoons beroerd presteren, lees: dat we deze hardware nu nodig hebben.
Gaat snel met de ontwikkelingen!

Het mobiele platform schiet op het moment vooruit en word misschien wel even snel als computers tegenwoordig als het op deze manier moet!

Vraag me alleen af of deze chips energie zuinig blijven. het is knap dat ze steeds zuiniger worder maar het batterverbruik gaat er niet op achteruit als ze meer functies blijven toevoegen.
Ooit zullen ze net zo snel worden als de huidige computers, maar ze zullen nooit gelijkwaardig zijn aan de computers van dat moment vanwege beperkingen die een gewone pc nou eenmaal niet heeft (energieverbruik, koeling, ruimte).
Het enorme tempo waarmee SoCs voor mobieltjes zich blijven ontwikkelen verbaast mij ook, maar er zijn natuurlijk wel enorme research budgetten mee gemoeid in de laatste jaren. Het lijkt er nu wel op dat de eerst grote stap vooruit sinds de snapdragon 800 dus pas weer in 2015 plaatsvindt, waar dus 1,5 jaar tussen zit. Ik heb het idee dat er dus voor het eerst in jaren geen enorme verschuivingen plaatsvinden (zoals van single naar dual- en quadcore, van scorpion naar krait, verschillende ARM architecturen)?
tuurlijk heb je daar wel een punt maar vergeet ook zeker niet dat als er meer geld omgaat in het verbeteren van de mobile socs, het misschien wel sneller word als de huidige processors.
Dat puur en alleen omdat hiervoor dan minder budget is om verder te ontwikkelen. Maar ik denk dat dat niet zo snel gebeurt.
Mocht dat moment ooit komen (komt nooit), dan pak je een mobiele cpu en stop je die in een pc.

Vervolgens plak je er een actieve koeler op van één kilo die 10x zoveel hitte kan afvoeren en verhoog je de clockspeed. (Zo benut je de restricties van een mobiele cpu t.o.v. een normale cpu; zoals Luappul aangeeft; energieverbruik, koeling, ruimte)

Je maakt van een mobiele cpu dus een 'normale' cpu door em extra stroom en koeling te geven. Leg me nu eens uit hoe de mobiele cpu OOIT sneller zou kunnen worden dan zichzelf alleen dan opgevoerd.

Om het uiterste uit een cpu te halen zullen die factoren altijd bepalend zijn.

Je kunt stellen dat mobiele cpu's straks dezelfde architectuur hebben als normale cpu's (of omgekeerd) maar dat deze in een pc verder tot het uiterste gepushed kunnen worden door deze limiterende factoren die een mobiel apparaat altijd zullen hebben tegenover een vast systeem.

Zodra data wereldwijd draadloos verstuurd kan worden met latency's van onder de 1ms op 99, 9+% betrouwbaarheid, zal het goedkoper en efficienter worden om voor bijna voor alle interfaces die je gebruikt alles in de cloud te laten berekenen.

Het enige wat je dan bij elk apparaat nodig hebt is een scherm, een krachtbron, en de minimale hardware om 'beeld' te streamen op een zeer lage latency.

Simpel voorbeeld: Als LogMeIn zo snel is dat je zelfs bij bij hardcore gamen nooit verschil zal merken (1ms latency) tussen het apparaat waar het op berekend wordt (een pc bijvoorbeeld) of het apparaat waar alleen het beeld heen wordt gestreamed (ultrabook of tablet), zal je naast een pc nooit meer een gamelaptop/dure tablet/etc. kopen. Je kan alle prestaties van je pc/cloudoplossing namelijk volledig benutten op je ultrabook/tablet etc. die ook nog eens lichter, goedkoper en langer op een accu mee gaan dan devices met heel veel rekenkracht.

Elke x jaar een nieuwe pc kopen is straks duurder dan 2x zoveel rekenkracht uit de cloud huren.

Tegen die tijd zal de vraag naar mobiele rekenkracht verminderen ten opzichte van rekenkracht die aan netstroom zit.

Mobiele apparaten zullen alleen beeld hoeven kunnen weergeven op een latency die niet merkbaar is.
Wereldwijd met latency van 1ms gaat nooit lukken. 1ms op de snelheid van het licht is ongeveer 800km. In een kabel is de snelheid nog iets lager, kabels liggen niet kaarsrecht naar het doel dus je cloud datacenter moet dan binnen een straal van ~ 200km liggen om die latency te halen.

Maar 15ms latency is ook prima te doen op 60fps heb je ook maar elke 16.7ms een nieuw beeld.
Er komt vast wel weer een techniek of trucje om zelfs tot de 1ms te komen. Wat nu normaal is kon ik mij 20 jaar geleden totaal niet voorstellen. Daarom ben ik ook enorm benieuwd wat er over 20 jaar is :)
De term 'lichtsnelheid' maakt weinig indruk, huh... Ik kijk uit naar wat we de komende 20 jaar ontwikkelen en het zal zeker indrukwekkend zijn. Maar ik reken er niet zo op dat we de fundamentele wet van de lichtsnelheid kunnen omzeilen.
warp speed.... :+

[Reactie gewijzigd door firest0rm op 8 april 2014 00:10]

Dat zou mij inderdaad verbazen, maar de wetenschap sluit het ook niet volledig uit. Misschien plaatsen ze wel om de 200km een data center en syncen ze die onderling continu zodat je daadwerkelijk overal ter wereld binnen 1ms bij je data kan. Maar we gaan het zien :)
Nee, topsnelheid en energiezuinigheid zijn twee niet-verenigbare ontwerpfactoren - met geld valt de wetenschap niet te omzeilen. Een SoC en processor werken veelal op dezelfde principes, waarbij in een SoC een extra beperkende randvoorwaarde wordt toegevoegd (energieverbruik) waar een processor geen last van heeft.

Heb je dus een goed presterende SoC, kun je altijd een beter presterende full-size processorversie bouwen door het energieverbruik als randvoorwaarde te elimineren.
Just for the record, een CPU voor een pc heeft ook last van de beperkende randvoorwaarde, zij het in veel mindere mate. Een 1KW consumenten CPU verwacht ik niet, net zo min als dat ik een 100 W SoC voor tablets of smartphones verwacht (wellicht ooit voor laptops)
offtopic:
Hoewel AMD toch graag die richting opgaat getuige de FX9xxx


Vraag me nog steeds af wat de huidige relevantie is van 64bit voor SoC's :S. Als er nu 4 tot 8 gb ram in een smartphone zit alee, maar met nauwelijks meer dan 2gb op de markt (wat voor jan modaal al overkill is getuige mijn n5) snap ik de noodzaak voor 64 bit niet voor de huidige en volgende generatie.

Edit: En ja ik snap dat stilstand achteruitgang is, maar wat is een concreet voorbeeld bij de huidige en volgende generatie van 64bit buiten het marketing aspect en acces tot meer RAM in de daaropvolgende generaties.

[Reactie gewijzigd door eL_Jay op 7 april 2014 14:47]

De vooruitgang voor ARM 64-bit zit hem voornamelijk in de Aarch64 v8 instructieset die een stuk efficienter is dan de 32bit arm/ thumb instructieset.
Hoe kom je daarbij? Bron?
Jezus, dat is toch algemene kennis. Lees elke review van de Apple A7 maar.
64 bits bestaat niet enkel voor meer dan 3 GB ondersteuning. Met een 64 bits processor kan je 64 bit berekeningen maken per kloktik i.p.v. 32 bits. Dat kan een voordeel opleveren qua rekenkracht.
Enig idee hoe lang er al 64 bit in CPUs zat voordat het een klein (klein) beetje werd ondersteund door OSen? Laat staan applicaties, die er vaak nog verder achteraan hobbelen. 4 GB-foons zijn niet gek ver weg meer, en tegen die tijd wordt het heel belangrijk om een capabele 64-bit ondersteuning te hebben. Verder stelt het meer CPU-opties ter beschikking aan bouwers, en laat een grote switch als deze een hoop backwards-compatibility (en dus bagage) achter.

Ik vind het wel jammer dat de Kraits niet in 64-bit beschikbaar zijn, wellicht komt er over een jaartje een eigen variant, want ik kan me niet voorstellen dat ze bij Qualcomm zitten te suffen. Dat ARM zelf ze te snel af is is begrijpelijk, maar toch...
Ik heb het vermoeden dat Qualcomm een beetje geschrokken is doordat apple een 64 bit processor heeft ( of dat nou nuttig is is een andere discussie). Om snel toch een 64 bit processor te hebben komen ze met een "stock" arm ontwerp ipv een gemodificeerde zoals de krait.
Dikke kans dat ze inderdaad over een tijdje weer met een krait achtig iets gaan komen.

@AmigaWolf
Was dat een reactie op mij?

[Reactie gewijzigd door kaaas op 7 april 2014 21:58]

Tjonge jonge DDR4 in een smartphone, wanneer wij (PC gebruikers) nog met DDR3 zitten, wat gaat het toch snel zeg.

Nog even en de smartphones zijn net zo snel als de PC's.
De wetenschap valt niet te omzeilen met geld, resources zijn er wel mee aan te boren in de vorm van kennis, als beter geschoold personeel, gerichtere doelgroepen e.d.
Dat zal ik niet ontkennen, maar dat verandert niets aan het feit dat energiezuinigheid uitsluitend restrictief werkt op de prestaties bij het ontwerpen van een SoC of processor.

Een chip die ontworpen is met energieverbruik als zwaar meewegende factor, zal dus nooit sneller zijn dan eenzelfde soort chip waar deze factor niet meespeelt, dat is wat ik probeer te zeggen met 'wetenschap valt niet te omzeilen met geld'.
Precies, meer beter opgeleid personeel, meer research teams en design teams die langer aan een ontwerp kunnen werken. Er is een heel simpele reden dat Intel snellere processors met minder verbruik kan ontwerpen en maken dan AMD.
topsnelheid en energiezuinigheid zijn wel degelijk tot op een bepaalde hoogte verenigbaar, als je hetzelfde werk kan doen in een kortere tijd heb je mogelijks minder energie nodig...
Het concept heet 'race to sleep', en wordt hier duidelijk uitgelegd.

Je kan het bvb intuitief inzien bij bvb 3g vs 4g, als je je 100MB file kan downloaden in 10 sec ipv 100 sec dan zal het totale verbruik naar beneden gaan, terwijl je radio mss dubbel zoveel batterij nodig heeft om zo snel te zijn zal hij toch minder verbruiken omdat hij slechts 1/10 van de tijd moet aanstaan...

Dit geld net zoveel voor een snellere cpu.

Echter komt het in de praktijk meer voor dat mensen meer werk gaan doen met een snellere cpu (zwaardere desktop apps draaien bvb), en dan gaat het energieverbruik natuurlijk netto naar boven...

[Reactie gewijzigd door Keneo op 8 april 2014 16:57]

Een high-end telefoon zal dan wel gelijk worden aan een budget of erg kleine PC (b.v. NUC). Uiteindelijk heb je ook niet veel meer nodig voor normaal gebruik. Ik plug straks ook liever mijn telefoon in een dock om hem te gebruiken als PC. Alleen 3D gamen blijft erg zwaar, ik zie nog niet zo snel dat er telefoons gaan komen met 2500+ shaders, momenteel zijn die chips alleen al te groot voor een telefoon.
van de andere kant met de lichtere versie van de gpu (adreno 420) zit je al op 4.8 gigapixel/s (http://en.wikipedia.org/wiki/Adreno) terwijl de ps2 bijvoorbeeld tegen de 2.4 gigapixel/s loopt, dat is zeker niet de nieuwste console maar toch al een leuk idee dat je met een dergelijke 3d kracht in je toestel rondloopt ;)
Heb je ook lekker veel aan met de huidige mobiele internet abonnementen.
nou ja, ik moet zeggen.. ik heb toendertijd een vodafone abo afgesloten waarbij je 10 gig mer kreeg en ik heb m nog geen een keer op gekregen.
Ik heb zelf nog een onbeperkt abo van Ben en de 10 gig tik ik ook nauwelijks aan.

Maar tegenwoordig betaal je je bont en blauw aan gb's.
Los van al de rest van de ontwikkelingen vind ik het toch treffend dat Qualcomm pas een heel jaar na apple met een 64bit chip weet af te komen. In ieder geval lijkt het er meer en meer op dat ARM ook desktops gaat kunnen bedienen in de toekomst. Het valt maar af te wachten hoe de desktop OS makers en intel hier zullen op inspelen.

Vooral op vlak van GPU hoop ik dat er wat winsten geboekt worden. De Adreno 330 is nu toch al een hele tijd heer en meester geweest.
Mijn telefoon (galaxy SIII) is (multi-core) al 3x sneller (in GFLOPS, Linpack bencmark) dan mijn eerste pc (pentium III, 450mhz) :)

Maar om de redenen die anderen al eerder noemde (andere totale warmteafvoercapaciteit, dus andere design limits) denk ik dat PCs en telefoons van gelijke generatie altijd zullen blijven verschillen...
Waarom precies laten ze de eigen Krait architectuur vallen? Te duur om steeds opnieuw een eigen ontwerp te maken? Want juist met die Krait architectuur onderscheidde Qualcomm zich van concurrenten, als je een Krait processor hebt kan je ervan uitgaan dat hij wel snel is om het zo maar te zeggen.

EDIT: En de 805 heeft nog wel een Krait core, maar die is dan ook nog op 28 ipv 20. Heeft dat dan te maken met 64-bits of iets anders?

[Reactie gewijzigd door mavamal op 7 april 2014 14:02]

Gewoon `time to marked`, een kant en klaar ontwerp zoals die van ARM zelf is veel sneller te op de markt te brengen, omdat het als een soort legoblokje kan worden gebruikt.

Een eigen ontwerp moet nog ontwikkeld en getest worden dus dat zal nog wel een jaartje duren.
*time to market
Al betwijfel ik of dat de reden is. Apple heeft krait ook gedumpt ten voordele van ARM.
Apple heeft nooit niks met krait gedaan.
dat is doorontwikkeld ontwerp van Qualcomm, op basis van arm v7 instructieset.
Allicht zit er een opvolger aan te komen, maar is die nog niet gereed. Voor de tussentijd (64-bit misschien ja) moet je dan de andere divisies niet laten wachten, dan ben je je positie kwijt. Er is natuurlijk nergens gezegd dat deze verandering 'definitief' is

[Reactie gewijzigd door ktf op 7 april 2014 14:07]

Hun eigen core is nog niet af. Het was sneller om een licentie op cores van ons te nemen en in de tussentijd die van hunzelf te bouwen.
Omdat bij Qualcomm de blinde paniek was toegeslagen dat ze geen 64-bit processor gingen uitbrengen in 2014, terwijl Apple vanaf 2013 kon marketen met hun 64-bit Apple A7. Het was een beetje een verrassing dat Apple zo snel met een ARMv8-chip uitkwam.

Ik zeg niet dat 64-bit geen voordelen heeft, maar ik vind het wat overdreven allemaal.
Qualcomm is altijd pragmatisch geweest. 1 van de redenen dat Qualcomm zijn eigen Krait core sterk heeft doorontwikkeld is dat het ARM design, de Cortex A15, onacceptabel onzuinig was. De low-end Cortex A7 is daarentegen prima, en die gebruiken ze dus ook. Nu is de A53/A57 blijkbaar wel goed, en dan houden ze die R&D dollars gewoon in de zak.
64bit was toch een gimmick volgens Qualcomm? :+
Ja, en ze hadden e dus nooit rekening mee gehouden waardoor ze nu dus hun eigen krait core laten vallen en maar gewoon na de standaard arm architectuur gaan.

Klinkt aar mijn idee als dat ze snel moesten omschakkelen zodat ze de boot niet zouden missen.
Tis vrij simpel en eigenlijk ook best triest.

Als je zo'n soc zelf gaat ontwikkelen moet je een analyse maken welke zaken beter kunnen. Waarschijnlijk hebben ze enorm veel R&D gestoken in het beter maken van hun eigen core.

Nu heeft de markt (op aangeven van Apple) een nieuwe USP introduceert, willen de smartphone makers deze USP weer teniet doen door zelf 64bit toestellen te produceren en is Qualcomm gedwongen om hun afnemers hierin te volgen

Het rare aan dit verhaal is (als je het vanuit het technisch oogpunt bekijkt) dat de ontwikkelingen die Qualcomm wilde introduceren misschien wel veel meer winst had opgeleverd maar moeten ze nu vanwege marketingtechnische redenen hun plannen op de schop gooien.
De ARMv8 instructieset was er uiteraard al voor de A7 werd geïntroduceerd. Dat 64 bit er op korte termijn ging komen was al bekend voordat Apple überhaupt de 5S presenteerde, zeker bij Qualcomm. Ik neem aan dat het afnemen van cores bij ARM een reden heeft en Qualcomm op dit moment even Krait laat voor wat het is. Wellicht dat er een nieuwe generatie Kraits volgt? Bij de Snapdragon ging dit ook zo.
Dat 64 bit er op korte termijn ging komen was al bekend voordat Apple überhaupt de 5S presenteerde, zeker bij Qualcomm.
Nope!

Qualcomm: Apple’s A7 Chip Surprised the Industry
Ik neem aan dat het afnemen van cores bij ARM...
Zo werk dat dus niet.

Bedrijven als Apple, Qualcomm, Samsung etc nemen een licentie om het ontwerp van een bepaalde core te mogen gebruiken.

[Reactie gewijzigd door Carbon op 7 april 2014 16:37]

Ze nemen inderdaad geen fysieke cores af, daar heb je gelijk in. Maar wel een licentie op zowel de architectuur als de cores zelf. Apple heeft ook gewoon een licentie op de ARMv8a instructieset voor de A7. Deze instructieset is en was op moment van lancering van de A7 de meest recente en zou hoe dan ook in de nabije toekomst gehanteerd gaan worden. Waar men alleen niet op voorbereid was is dat Apple zo snel zelf een eigen core kon produceren die draaide op die instructieset.
Ja en octacores waren ook niet de juiste manier volgens Qualcomm :P
90% van de gebruikers van smartphones zullen de extra functionaliteit die zo'n relatief 'zware' processor met zich meebrengt niet tot nauwelijks gebruiken...
Het zijn niet de gebruikers die dit wel of niet gebruiken maar de apps. Een gebruiker zal er niets van merken. Maar een app als instagram die foto effectjes kan toevoegen zou er al gebruik van kunnen maken. Zijn tenslotte allemaal floating point matrix berekeningen die effecten, en laat dat op een 64 bits soc nou net sneller gaan.
Die doe je alleen niet op de cpu maar op de speciale imaging coprocessing unit die op alle moderne SoC's zit.
Zoals eindelijk een vlotte en vloeiende UI zonder lag of haperingen? Lijkt me nochtans wel essentieel.
Hoe verhoudt zo'n quadcore zich tot een huidige desktop-processor?

Wel mooi om te zien dat desktop en mobiele processoren dichter bij elkaar komen, Zie Bay Trail, Atom en zelfs de GPU 750ti, weinig stroomverbruik, toch de performance.
Dit is ongeveer hetzelfde als vragen hoe een tablet zich verhoudt tot een laptop. Zonder te specificeren welk type / model valt er weinig over te zeggen.
Lees de review van de A7 cpu van Apple op Anandtech. Deze dual core komt in de buurt van desktop cpu's.
Dit klopt niet:
De Cortex A53 en A57 zijn de eerste micro-architecturen op basis van de ARMv8a-instructieset met 64bit-ondersteuning.
De A7 van Apple is ook gebaseerd op de ARMv8a.
Je maakt de zin dan ook niet af:
"...die Qualcomm gebruikt."
Volgens mij stond dat er toen nog niet.
Het moge duidelijk zijn waarom Qualcomm zijn Krait-ontwerp heeft laten vallen voor de reguliere ARM-instructieset. Qualcomm heeft aangegeven dat ze verrast waren door Apple die als eerste met een 64-bit processor kwam, waardoor de druk op Qualcomm en andere fabrikanten kwam te liggen. Vervolgens worden goedkopere socs gepresenteerd op 64 bit door concurrenten, waardoor de druk op Qualcomm nog verder steeg. Dit is de noodoplossing: een standaard instructieset om de tijd te overbruggen.
Het lijkt me ook dat Qualcomm ondertussen bezig is met het ontwerpen van een nieuwe Krait-soc die beter moet worden dan de 810. Qualcomm heeft namelijk al eerder aangegeven geen heil te zien in hexacore en octacore processors. Een ander argument waaruit blijkt dat Qualcomm voor deze beslissing heeft gekozen.
Het blijft natuurlijk wel leuk om straks te zien hoe deze processors gaan presteren. Ik zelf ben echter benieuwd of Qualcomm straks nog met een quadcore komt die de kracht van de A57/A15 combineert met de A53 in een en dezelfde processorcore die zuiniger is. Persoonlijk vind ik octacore en hexacore namelijk overkill en voornamelijk nuttig voor marketing dan echt rauwe kracht.
De instructieset ligt vast, daar kunnen ze zelf weinig aan doen. De implementatie kunnen ze zelf doen maar inderdaad om de tijd te overbruggen hebben ze een licentie genomen op de cores van ARM zelf.
De octacore is voornamelijk een bijgeloof issue in China. Alles met het getal 8 verkoopt daar beter.
Correctie: alles met het getal 4 is bad luck. Ook vermenigvuldigingen daarvan.
Edit: Maar nummer 8 dan weer niet inderdaad :P Je hebt gelijk.

[Reactie gewijzigd door HMC op 7 april 2014 15:32]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True