Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Snapdragon 835 bevat Kryo 280-cores op maximaal 2,45GHz'

Door , 70 reacties

Enkele slides die op internet zijn gezet tonen de details van de komende Snapdragon 835-processors voor de high-end smartphones van 2017. De processor bevat acht Kryo 280-cores waarvan vier op maximaal 2,45GHz lopen. Ook is er een gigabit-modem aanwezig.

Het cluster van de vier krachtige Kryo 280-cores bevat 2MB L2-cache en zou voor 20 procent hogere prestaties bij toepassingen als vr en webbrowsen moeten zorgen. Het cluster van vier zuinige cores draait op maximaal 1,9GHz en hierbij is de hoeveelheid L2-cache ten opzichte van de voorganger verdubbeld naar 1MB.

De gpu is de Adreno 540, die 25 procent beter zou presteren dan de Adreno 530 van de Snapdragon 820. De gpu ondersteunt DirectX 12, OpenGL ES en Vulkan. De display processing unit kan 10bits 4k-video op 60fps verwerken en de video processing unit kan 10bits hevc 4k-beeld foveated renderen voor vr-toepassingen.

Ten opzichte van de Snapdragon 801 van 2014 is het verbruik met 50 procent afgenomen en ook de omvang van de soc is verminderd, vooral dankzij de overstap van een 14nm- naar een 10nm-procedé. Tenslotte wijzen de slides die Videocardz publiceert op de aanwezigheid van de X16 LTE-modem. Qualcomm noemt dit de eerste modem van de gigabit-klasse. De Snapdragon 820 heeft een X12 LTE-modem met maximale downloadsnelheden van 600Mbit/s maar met de cat. 16-modem van de Snapdragon 835 lijken smartphones dus 4g-gigabitsnelheden te gaan ondersteunen.

Qualcomm Snapdragon 835 Videocardz

Reacties (70)

Wijzig sortering
Ik vraag me wel af of dit in Nederland haalbaar is. We hebben hier een beperkt spectrum aan frequenties. Deze snelheden worden gehaald door channel bonding, blokjes van 5Mhz op te tellen, en daarmee de bandbreedte te verhogen. Meer frequentiespectrum tegelijk gebruiken dus. Maar die is uiteraard wel beperkt.

Ruw gezegd zijn deze frequenties beschikbaar: 800MHz-, 900MHz-,1800MHz, 2.1GHz en 2.6GHz. Die laatste frequenties hebben veel last van muren e.d. dus werken binnenpandig duidelijk minder goed.
In 2012 waren de frequenties alsvolgt verdeeld:
KPN 6x10Mhz, 3x20Mhz en 2x5Mhz, 1x30Mhz, totaal 160Mhz
Tele2 2x10Mhz, 1x 5Mhz, 2x20Mhz totaal 65Mhz
T-Mobile 2x15Mhz, 2x30Mhz en 1x20Mhz, 2x25Mhz, 2x5Mhz totaal 190Mhz
Vodafone 6x10Mhz, 4x20Mhz en 2x5Mhz, 2x20Mhz totaal 185Mhz
Dus even los van de bruikbaarheid, en de verdeeldheid (veel kleine blokjes zijn ook niet altijd bruikbaar); er zitten hier al best flinke verschillen tussen de providers. Bron o.a.: https://nl.wikipedia.org/wiki/3GPP_Long_Term_Evolution

Dit is deels beschikbaar voor 4G (we hebben immers nog 1G, 2G (Edge) en 3G. Dus niet alle bovenstaande blokken zijn vooralsnog beschikbaar (uiteraard zetten ze steeds meer om, deste meer gebruikers op 4G zitten). Zo gaan nu eindelijk ook nieuwe pinautomaten van edge naar 4G. WiMax is denk ik al weer uitgefaseerd?

LTE kan in theorie 100 Mbit/s down en 50 Mbit/s uplink geven op 20 MHz. Dus per provider krijg je (heel theoretisch en grof maximum):
KPN - 160Mhz geeft 800/400Mbit
Tele2 - 65Mhz geeft 325/167Mbit
T-Mobile - 190Mhz geeft 950/475Mbit
Vodafone - 185Mhz geeft 925/462Mbit
Totale spectrum is bijna 600Mhz wat neerkomt op een totaal van 3,0Ghz down en 1,5Gbit up.

Edit: https://www.qualcomm.com/...pdragon/modems/4g-lte/x16
Info over het nieuwe modem geeft dat hij maximaal 4 blokken kan gebruiken, dus bovenstaande maxima zijn dus lager!

Edit2: Ziggo/UPC spectrum toegevoegd onder Vodafone, 2600Mhz spectrum toegevoegd (zat niet in die veiling-gegevens). Het verhaal ging al wel uit van 4x4MIMO QAM256!

[Reactie gewijzigd door Peetke op 2 januari 2017 11:57]

Ruw gezegd zijn deze frequenties beschikbaar: 800MHz-, 900MHz-,1800MHz, 2.1GHz en 2.6GHz. Die laatste frequenties hebben veel last van muren e.d. dus werken binnenpandig duidelijk minder goed.
Helaas is dit een verwarring van praktijk problemen met de theorie van signalen. De hogere frequenties komen beter door muren en andere constructies heen, beduidend beter zelfs in het geval van gewapend beton. Dit is een simpele kwestie dat hoe hoger de frequentie, des te kleiner de golf wordt en des te kleiner een 'opening' nog moet zijn voor de golf om doorheen te komen. Dit is ook waarom je met een 5 Ghz Wi-Fi wel door 3 lagen beton komt en een 2.4 Ghz bijvoorbeeld niet (praktijk voorbeeld overigens). Het nadeel is dat er makkelijker en ook meer energie in die lagere golven is te stoppen waardoor ze buiten hun natuurlijke gedrag van verder reiken ook energetisch verder kunnen komen.

De praktijk komt dan dus met dat ze minder ver reiken en moeilijker te genereren zijn (watt voor watt sprekend). Hierdoor is de dekking van een cell met hogere frequentie flink kleiner en is de drop-off sterker. Het tweede effect zit hem dan nog in je telefoon die ook nog eens terug moet kunnen zenden tot aan de mast. Een signaal ontvangen is niet per se communicatie. Zo kan je in datzelfde 5 Ghz Wi-Fi verhaal bovenop je dakterras zitten (geen ervaring, absoluut niet, in het opblaasbad), maar nog steeds geen goede verbinding hebben (ondanks sterk signaal). Bij Wi-Fi spreken we over soms maar 10 meter (3 verdiepingen), maar bij telefonie zit er wat meer dekking per cell op, daarom zijn de hogere frequenties minder gewenst.

Hogere frequenties komen dan, ondanks beduidend beter signaal door constructies (helemaal gewapend beton van de wel bekende nieuwbouw), per saldo slechter uit, maar de stelling dat ze minder goed werken binnenpandig is helaas precies omgekeerd.

De reden dat Telecom-providers hard de praktijk benadrukken is omdat dit hun helpt. De dekking per 800~900 cell is veel groter, er is sneller een landelijke dekking op kaart te brengen en als je er maar genoeg energie in douwt komen ook die lagere frequenties nog wel door een muur heen. De hogere frequenties worden daarom vooral midden in een stad (veel ijzer, kooi van Faraday effect) toegepast waar er genoeg mensen zijn om de dekking te rechtvaardigen.

Alle nieuwbouw-beton blokken in het buitengebied ervaren dus echter wel dat de lagere frequenties niet ideaal zijn...
grappig,

ik heb totaal het omgekeerde met wifi 2.4ghz komt nog wel 1 of 2 verdiepingen hoger, 5ghz is met 1 verdieping eigenlijk al weg.

Zelfde geld voor buren, je ziet eigenlijk nooit 5ghz van buren, alleen maar 2.4

Dus volgens mij dempt hogere frequenties net veel sneller..
Ja, dat zei ik dus ook... Ze reiken veel minder ver dan de lagere frequenties. Daar zou ik bij moeten hebben gezegd dat dat bij gelijk vermogen is. Heb je dus minder vermogen beschikbaar, komt het uit frequentie drop-off + minder vermogen dat het minder ver komt.

Natuurkundig gesproken is het een afweging. Geen weerstanden, wint de lagere frequentie, maar bij hogere weerstanden (gewapend beton als goed voorbeeld) komt de hogere frequentie al snel verder. Dat is dan wel bij gelijk vermogen... Want als je al begint met het vermogen wat 1 druif je kan leveren, dan is die aardappel al niet eerlijk meer :P

Wat off-topic maar, welk modem gebruik je?
De standaard boxen die je meekrijgt hebben amper vermogen en bij die apparaten heb ik de ervaring dat de 'lucht' al een barriŤre lijkt te vormen. Wat betreft 5 Ghz buren zijn dat meerdere redenen natuurlijk, zijn het dezelfde halve aardappels en zijn ze er Łberhaupt?

Als voorbeeld staat mijn halve aardappel in bridge (en dus zonder enig verstoring van het luchtruim) en gebruik ik liever mijn 2.4 Ghz (lol inmiddels 10 jaar oude) modem dan alle meegezonden apparatuur. Toen flink duur (geloof ergens 200+) en beduidend betere kwaliteit dan de 'nieuwe' en flink bespaarde troep die met mijn ISP mee komt. Diens 2.4 Ghz kwam ook bijvoorbeeld wel tot aan het dakterras waar de ISP druiven dat al niet haalden. De 5 Ghz testen die we ooit voor de lol (niks wetenschappelijks net gedocumenteerd ofzo... luie studenten he) deden waren echt leuk te noemen, maar onze eigen apparatuur kon amper terug zenden. Daar had ik een aparte module voor op mijn laptop nodig om te kunnen communiceren (ontvangen prima, tot aan het modem terugzenden niet.... druif die met aardappel probeert te communiceren).

Zo is ook het Telecom verhaal, de zenders op de lagere frequenties zijn gewoon beter (en mogelijk goedkoper overigens, nog een item) en makkelijker dekkend te krijgen.

[Reactie gewijzigd door Freaky_Angelus op 2 januari 2017 13:34]

ik heb 2x de asus AC66 in mijn huis staan.
Maar een vrij nieuw huis (gebouwd in 2004) dus 5ghz kan ik niet echt gebruiken door 1 plafon heen.
We gaan wel offtopic eindigen zo, maar van de RT versie is al bekend dat je beduidend meer vermogen met een regio wijziging kan realiseren. Het zou me verbazen (gezien alle chips gelijk zijn buiten de 802.11ac chip) als dat niet ook op jouw AC66U kan...

Wat zoeken lijkt al wat voorbeelden te geven dat je 5 Ghz wat minder sterk staat in de basis. 17 dBm ~ 20 dBm waar je al tot 30 dBm zou mogen? Ik denk dat het in jouw geval (als je 5 Ghz wil gebruiken overigens) wel interessant is om even te kijken of je instellingen kan wijzigen op Tx van je routers en/of een andere firmware* kan vinden die tot de maximale vermogens gaat.

Overigens, ik kwam tegen dat bij de N66U versie (hier op Tweakers) dat de US region tot een 500 mW qua instelling kan, al interessant meer dan de standaard 50 mW die hij uit de doos zou moeten doen.... Dat gezegd, ik heb hem zelf niet en de router zou op specs gekeken met heel veel gemak op beide frequenties door je beton heen moeten gaan ;) Mooi voorbeeld praktijk vs. theorie.

edit
*, linkje naar een ander topic met firmware verhaal... niet geheel gelezen maar geeft dezelfde info van meer vermogen met Fork firmware.

[Reactie gewijzigd door Freaky_Angelus op 2 januari 2017 15:29]

Leuk, maar dat creŽert eenrichtingscommunicatie. Mobiele telefoons doen veelal maar 25 mW ivm stroomverbruik.

Pas met een afgestemde high gain antenne ga je hier wellicht iets aan hebben omdat receive gain hetzelfde is als send gain, versterken werkt dus beide kanten op. Maar niet per se door meer vermogen erin te pompen, wel door efficiŽnter gebruik van energie.

[Reactie gewijzigd door Nollekeuh op 2 januari 2017 20:42]

Een signaal ontvangen is niet per se communicatie.
Dit stond al in mijn eerste reactie, dus het is mij bekend...

25 mW / 14 dBm is overigens lager dan de standaard laptop range (32mW / 15 dBm) en daarbij ging het meer om allebei gewoon netjes het volle en gelijkwaardige signaal te sturen voor vergelijk. Als de 2.4 Ghz nu netjes boven komt en de 5.0 Ghz niet, dan durf ik wel te vertellen welke niet een eerlijke hoeveelheid energie krijgt ;)

In alle gevallen is er niks mis met je router gewoon af te richten.

Overigens, receive gain is niet hetzelfde als transmit gain. Ik snap je intentie, maar de een is een luidspreker die harder gaat en de ander een microfoon die gevoeliger wordt gezet. De Rx sterker zetten kost beduidend minder energie (ik denk dat je hierop doelt met efficiŽnter gebruik van energie), maar een ontvangen signaal versterken is wel een ander process (qua besturing dan) dan een uitgaand signaal versterken.

Verder mag volgens iig Wiki de 2.4 Ghz tot 100 mW (20 dBm) en de 5.0 tot 200 mW (23dBm) in de EU op 20Mhz kanaal blokken (mits dynamisch kanaal selectie mogelijk is) en de 5 Ghz zou zelfs tot 1 W (30 dBm) mogen indien ook 802.11h wordt gehonoreerd (right.... een overlap om 11 extra kanalen te krijgen, 23 in de 802.11a range en derhalve meer dynamische mogelijkheden). Voor het oorspronkelijke verhaal zou het iig mooi zijn als zowel 2.4 als 5.0 allebei op 20 dBm draaien en derhalve eerlijk te vergelijken zijn, dan kunnen we daarna aan de Rx sleutelen om nog communicatie te krijgen ook ;)

Je Rx meer versterken is prima, maar de andere kant zal pas contact zoeken als die de Tx ziet. Vanuit dat optiek zou ik blijven stellen dat beiden versterken de betere keuze is, maar let op de Rx die beduidend ruis gevoeliger wordt. Je S/N ratio zal moeizamer verlopen en dit kost je waarschijnlijk wel de nodige bandbreedte over de grotere afstanden.

Echter/nogmaals, het ging mij initieel er om dat er geen gelijk vermogen werd uitgezonden en per toeval kwam ik ook tegen dat het modem echt beduidend meer vermogen aankan.

[Reactie gewijzigd door Freaky_Angelus op 2 januari 2017 22:02]

Zover ik weeet wordt er vrij veel 2x2MiMo gebruikt, wat 150Mbps per 20MHz geeft.
Daarnaast worden dergelijke snelheid bijna nooit gebruikt, hoogstens ergens een piek. Capaciteit is daarbij een groter probleem dan de maximum snelheid die een gebruiker gaat halen. Dat is dan weer meer een probleem van genoeg (kleinere) cellen te plaatsen.

Daarnaast is meer bandbreedte niet de enige manier om de snelheid te verhogen, 4x4MiMo kan ook nog naast 64/256QAM.
Overigens zal 5G sneller worden met meer capaciteit door waarschijnlijk de hogere frequenties te gaan gebruiken (rond de 60GHz bv.)
Jouw gegevens kloppen niet (o.a. gedateerd).

Zo geeft LTE met 20MHz bandbreedte nu al 150Mbit/s down (ipv 100Mbit/s) en heeft Tele2 bv niet 2x 10MHz maar 10MHz + 20 MHz aan bandbreedte (in totaal dus 30MHz).

En volgens mij zet geen enkele provider deze frequenties nog in voor 1G ...

Snelheidswinst wordt niet alleen behaald door meer bandbreedte, maar ook door het inzetten van MIMO.
Heb je een bron voor die 150Mbit/s per 20MHz blok?

1G is inderdaad niet meer in gebruik. 2G is al actief aan de uitfaseerfase:
https://www.t-mobile.nl/k.../netwerk-en-bereik/lte900
2G/EDGE frequentiebanden zijn er dus nog maar minimaal. Dit gaat vooral vervelend worden voor de meeste mobiele pinautomaten.

MIMO zorgt voor meer bandbreedte, dat stond al wel in mijn verhaal.
Die advertising van snelheden is gewoon om onwetenden te lokken, wat wel raar is aangezien de gewone klant het verschil al lang niet meer ziet tussen de modems als het op rauwe throughput aankomt.

Celular netwerken zijn met 4G kwa data throughput over de piek gekomen die nodig is voor wat we er (momenteel) mee willen/kunnen doen.

Er is een reden waarom men met 5G zo'n nadruk legt op andere elementen zoals Latency..
Bij de slide over de GPU staat Q-Sync. Ik denk dat zit een vorm van Adaptive Sync is, de VESA-standaard die van AMD's FreeSync afgeleid is. Hiermee wordt de GPU output en het beeld, waarbij op het moment dat een nieuw beeld gerenderd is deze meteen weergeven word. Dit zorgt voor een zeer vloeiend beeld in bijvoorbeels games en VR, maar kan bij statische content ook stroom besparen.
De gigabit ondersteuning is helemaal leuk bedacht, maar zo'n netwerk bestaat niet. En dat zal ook nog wel even duren.
Zo kan je het als fabrikant natuurlijk nooit goed doen. Als er over 3 jaar ergens een netwerk is die het wel ondersteund dan is men weer boos dat hun "nog geen 3 jaar geleden gekochte flagship phone" opeens "waardeloos" is.
Idd men bouwt iets in dat er nog niet is, is dat erg nee.
Omgekeerd is het wel weer erg.
Conclusie het is nooit goed mensen zeuren altijd.
Iemand moet ermee beginnen toch? Anders zeggen de telcos ja maar waarom uitrollen als niemand het ondersteund en dan zeggen de fabrikanten waarom uitrollen als er geen netwerken zijn die het ondersteunen?
Precies dit inderdaad. Mooi dat de ondersteuning er op zit. Zo krijg je ook dat wanneer het netwerk er eindelijk klaar voor is een groot aantal consumenten er meteen gebruik van kan maken.
Er bestaat nog geen operationeel netwerk in ons land dat dit ondersteund. Dat betekent niet dat het niet bestaat.
Je telefoon is wel wat meer futureproof.

Ericson en Huawei hebben de apparatuur al klaar. De providers moeten die alleen gaan inbouwen.
En zoals glaasjejus zegt: zo kan je het als fabrikant ook nooit goed doen. Er is altijd wel iets te mopperen.
de soc kan ook in apparaten terechtkomen met een ethernet aansluiting...
Dat noemt men 'Toekomst gericht' en dat zouden meer fabrikanten moeten doen.
We hadden ook 100Mbit lan toen we nog op 2Mbit internet zaten. je hoeft ook geen 1Gbit netwerk te hebben om er toch al gebruik van te kunnen maken, als gebruiker/bedrijf/school/event/etc kan je routers neer zetten van 1Gbit LTE die verbonden zijn met glasvezel en zo het hele terrein(of je eigen huis) van 1Gbit LTE voorzien. En voordat je het weet heb we 1Gbit 5G of iets in die richting.
Omdat er heel wat mensen al een internet verbinding hebben die sneller is dan 100Mbit, en dan is een Gigabit aansluiting erg handig, ook handig als je grote bestanden kopieert.
Ben wel nieuwsgierig hoe windows hierop zal draaien... Surface 5 met deze soc kan erg interresant zijn..
Maar wil je wel Windows op ARM draaien? In verband met x86 programma's.
MS heeft een paar weken geleden een live demo laten zien van x86 programma's op een ARM soc. In de update in het voorjaar of die in het najaar (ik denk het najaar) dan komt die x86 emulatie naar een speciale Windows 10 variant.
Doet me denken aan de beloofde functionaliteit van Android apps op Windows en wat daarmee is gebeurd... niets is zeker tot het er daadwerkelijk is.
Het verschil tussen een Android runtime emulatie en x86 on ARM emulatie is business model.

Het heeft weinig zin om een Droid runtime te emuleren als je daarmee geen verschuiving weet te bewerkstelligen naar native ports. Iets wat de iOS bridge beter deed.
Stel dat je het performance verlies van android-emu zou hebben weten te beperken, wat is dan de business value uberhaupt?
Fijn, je kan .apks runnen.
Je hebt geen volledige GPlayServices (maar de eigenaar van die dienst heeft sowieso niet veel op met jouw platform dus de kans dat je dat kan fixen is al klein) en apps dat het niet nodig hebben worden ook niet omgebouwd naar een wel native versie want 'het werkt toch'.

En dat is nog los van juridische kwesties omdat het per definitie sideloading van apps betreft waarbij de bron van de apps (3rd party appstore of losse downloads) open staat voor copyright & piracy risico's.

x86 op ARM biedt samen met de Windows Appstore de mogelijkheid om al aanwezige x86 (uwp) apps voor - om het maar zo te noemen - Desktop Windows ook op ARM te gebruiken zonder heel specifiek ARM ports te moeten maken zoals dat wel voor Office2013 RT is gedaan destijds.

Ik heb Android emulatie op Win10 Mobile vanaf het begin meer als een gimmick gezien dan een nuttige functionaliteit.

[Reactie gewijzigd door alt-92 op 2 januari 2017 10:25]

Hier is lang aan gewerkt maar is ivm met bijna geen developers die er gebruik van maakten stop gezet.
Je kan moeilijk bakken devs verzamelen als het nog niet eens af is. De meeste development komt pas op gang post-release, dus dat is geen argument.
Had te maken met het leed dat play services heet. Daardoor kwamen Androids apps niet lekker op gang in Windows. IOS apps hadden hier geen last van
Emuleren kost meer rekenkracht versus "puur :9". Dan kun je Windows op ARM draaien met een snelle SOC en vervolgens lever je 30% op je snelheid in, dat lijkt mij persoonlijk niet de eerste keus.
Het klopt wat je zegt, maar voor huis tuin en keuken gebruik kan het snel genoeg zijn. Maar denk bijv een Windows Phone met deze SoC. In Contiuum kun je alle programma's draaien die je wilt, wat voor 80% van al het kantoorgebruik genoeg is. Deze mensen geef je een telefoon met deze mogelijkheid en hebben dan een telefoon van de zaak en je hoeft geen andere pc meer voor deze mensen te kopen, maar alleen nog maar een ramplaat, muis en scherm. Mensen die meer nodig hebben dan alleen Word en wat bedrijfsspecifieke programma's kun je nog altijd een desktop geven.
Wie zegt dat het om 30% gaat
Zou ook een mooie zijn cpu/gpu zijn voor een kleine media pc. Hardwarematige 10bit hvec decodering en direct x12 ondersteuning.
Dit is zeer zeker de processor waarop Microsoft de x86 emulatie heeft laten zien.
Demonstratie was op de 820, maar bij release van windows on ARM wordt dit de
minimale processor. Op de 820 draait windows on ARM al goed, met deze
processor kan het alleen maar beter gaan.
Nog niet, in ieder geval de volledige versie van Windows voor ARM is nog niet uit
Als de specs kloppen dan is het op papier in ieder geval een sterke verbetering en kan hij ook de concurentie prima aan.
Ik ben alleen benieuwd wat dit heeft gedaan met de warmte ontwikkeling. Iets waar de 820 nog behoorlijk last van had.
Specs zijn mooi, maar praktijk is belangrijker.
Bron dat de 820 warmteproblemen had? Ik dacht dat dat enkel bij de 810 was, en dat de 820/821 gewoon goed werkten.
De SOC had geen hitte probleem. Veel telefoons hadden gewoon niet voldoende koeling voor de SOC welke iets meer verbruikte. Maar als je dit weet, moet er gewoon rekening mee gehouden en de telefoonmakers wisten het, maar deden er echter niks mee. Dan krijg je idd een SOC die niet de maximaal kan presteren, omdat de koeling niet voldoet.
Het is maar hoe je het bekijkt natuurlijk... :)
Ik dacht dat de soc de TDP overschreed als die op maximale klok vol aan het werk werd gezet, maar kan me vergissen. Qualcomm had de TDP dus verkeerd ingeschat. Ook wel heel toevallig dat alle telefoon maker dit keer te weinig koeling gebruikte dit keer. :D

http://www.androidheadlin...augh-against-samsung.html

PS
Qualcomm geeft de TDP op aan de telefoonfabrikanten om koeling te ontwerpen. En ja ze zullen toen de telefoon klaar was wel gemerkt hebben dat het niet voldoende was om maximale uit de 810 te halen.
Bijna elke chip heeft tegenwoordig warmte-"problemen" en zullen zich downclocken wanneer die dat nodig acht. Bij de meeste chips is de performance die je verliest maximaal zo'n 5%. Bij de Snapdragon 810 kon je wel 50% van je performance verliezen, dus dat was een groot probleem.

De Snapdragon 801 had dit echter helemaal niet. Die kon dagen lang op maximale kloksnelheid draaien zonder ook maar 1% performance te verliezen. Als ze dit dus ook met de 835 weten te bewerkstellingen, naast prestatie en/of energieverbeteringen,, is dat dus erg knap!

Het verder helaas moeilijk om SoC's te vergelijken omdat het niet mogelijk is 2 identieke systemen te bouwen met enkel een andere SoC. Hierdoor is moeilijk te zeggen of de 820 zuiniger of minder zuinig is dan de 801. Met de 2 ervaringen die ik heb gehad met de 801 en 1 ervaring met de 820 denk ik dat de 801 zuiniger was, but who knows?
Ook de 801 had er last van, maar dat lag meer aN het ont van LG.
In de D855 zit er een paar mm tussen de SoC en de metalen behuizing.
Geen koelpad, geen verbinding, alleen maar lucht ertussen.
Een beetje appen, een beetje facebook via het mobiele netwerk en dat ding begon gelijk al te downclocken. Tegelijkertijd opladen? Ik heb al eens vaker de thermal shutdown bij de 100C meegemaakt.
Dit was met de stock firmware, en er is ook niets aan de hardware gedaan.
Was tevens al de vierde G3, de drie daarvoor hadden allemaal rare Problemen.
Na wat modden (Cyanogenmod + koelpad tussen de SoC en metalen frame) kwam de telefoon niet meer boven de 85C in dezelfde situatie. Zonder extreem in takt omlaag te gaan.
Daar zat natuurlijk wel een nadeel aan, de akku was nog sneller leeg dan voorheen..

Ik ben blij dat ik nu een OnePlus 3 heb, die G3 was gewoon een horrortoestel.. Continu problemen gehad met dat ding.
Dan ligt het dus niet aan de 801 maar aan ontwerpfout of het negeren van TDP die opgeven werd, daar kan je de 801 niet de schuld van geven.
Bij veel taken die een smartphone uitvoert, is er een korte activiteit piek en dan een tijdje niks.
In dat geval kan het beter zijn de CPU tijdens activiteit zo snel mogelijk te laten gaan (zelfs als ie dat niet constant kan volhouden), als ie daarna toch zat tijd heeft om af te koelen voor de volgende piek.
Dus als de 801 constant op de maximumsnelheid kan draaien, zou je ook kunnen concluderen dat de maximumsnelheid te laag was. Hadden ze hem mss beter hoger kunnen clocken zodat ie sneller was tijdens de pieken.
Dat is een ontwerp afweging; als een CPU de max niet constant kan volhouden, wil niet per se zeggen dat daar iets mis mee is, hooguit dat dat niet bij jouw persoonlijke belastings-patroon past. Het alternatief is namelijk een lagere klok waardoor ie tijdens de pieken waarin ie juist moet presteren, langzamer is. Of een dikkere/zwaardere koeling, maar als je dat toch al hebt kan je er als ontwerper nog voor kiezen hem tijdens pieken NOG sneller te klokken.
Het verbruik is met 20% afgenomen tov de 801 die geen warmteproblemen kende.
Ik concludeer dat warmte geen enkel probleem is bij de 835.
Als het chip-oppervlakte evenredig is afgenomen (volgens het artikel is de chip zelf kleiner geworden), dan zal het alsnog even heet worden...
Ik denk dat de totale hoeveelheid warmte-energie evenredig is met het opgenomen vermogen.
Het opgenomen vermogen daalt 20% tov de 801, dus de warmte die vrij komt zal ook 20% dalen.
Dit betekent m.i. dat de telefoon in totaal minder warm wordt.

De warmte van een kleinere chip kan worden verspreid met een koelplaatje.
Hangt natuurlijk van meerdere factoren af. Er zijn, geloof ik, tot nu toe weinig telefoon die echt met koelplaatjes werken. De meeste warmte moet gewoon via de print zelf wegvloeien naar de rest van de telefoon. Dit oppervlakte zal dus ook significant kleiner worden. Daarnaast hangt het natuurlijk ook af van het design van de telefoon.

Wel kan gezegd worden dat het zeer aannemelijk is dat het een verbetering zal zijn, en niet een verslechtering.
Zie deze Samsung: die heeft een koelplaat met vloeistof.

http://www.zdnet.com/arti...-keep-the-galaxy-s7-cool/
Kewl! Dit wist ik nog niet!
Interessant om te lezen.

Zal wel weer de volgende hype worden dit...

Ik vraag me af hoeveel van deze vloeistof er nog over is na een jaartje of 4...
Tegen die tijd word je geacht een nieuwe telefoon te kopen, aangemoedigd door een gebrek aan updates ;)
De telefoon zal minder warm maar de warmte ontstaat op een kleiner oppervlak, waardoor ze moeilijker af te voeren is. Warmteproblemen hebben te maken met de temperatuur van de chip, niet van de telefoon.
Daar zijn tegenwoordig oplossingen voor, zoals deze waterkoeling voor de Galaxy S7:

http://www.zdnet.com/arti...-keep-the-galaxy-s7-cool/
Als je een stukje metaal, dat hol is en waar een minieme hoeveelheid water in zit, "Waterkoeling" wil noemen dan heb je je laten beetnemen door de marketing!

De oplossing van het probleem "warmte afvoeren van een kleinere oppervlakte" is uiteraard betere koeling, maar de vraag is natuurlijk hoe goed je warmte kan afvoeren van een steeds kleiner wordend oppervlakte.
De beste oplossing blijft minder warmte produceren dwz minder energie verbruiken.
De nieuwe 835 gebruikt ook minder energie: 20% minder dan de 801.
Yep, maar op een kleinere oppervlakte, dus moeilijker om die warmte weg te voeren, dat was de discussie. Dus er zal wellicht een betere/efficientere warmteafvoer (lokaal tenminste, van de chip af...) nodig zijn dan wat er bij de 801 geimplementeerd was.
misschien werd er over 20% minder tijd gemeten? Of anders bedoel je misschien 20% minder opgenomen vermogen? ;) (uitgaande van een vergelijkbare belasting van de SOC uiteraard)
Ik lees nu dat de 835 zelfs 50% zuiniger is geworden:
Ten opzichte van de Snapdragon 801 van 2014 is het verbruik met 50 procent afgenomen en ook de omvang van de soc is verminderd, vooral dankzij de overstap van een 14nm- naar een 10nm-procedť.
Dat is een aanname, maar wel vrij waarschijnlijk idd.
Ik ben niet helemaal thuis in de wereld van processors, maar is 2MB L2-cache naar 1MB L2-cache niet een halvering ipv een verdubbeling?
iedereen setje cores heeft zijn eigen L2 cache, de high performance heeft 2MB terwijl de zuinige cores maar 1MB hebben. Bij de vorige generatie was er voor de zuinige cores dus schijnbaar maar 512KB cache aanwezig.

[Reactie gewijzigd door Bjornmeijer935 op 2 januari 2017 08:37]

Dat 1MB L2 cache is het cluster van zuinige cores, die voorheen dus kennelijke 512KB L2 cache had.
De 2MB L2 cache is voor het krachtige cluster. Staat allemaal gewoon in het artikel.
Klinkt allemaal goed maar ik ben vooral benieuwd hoe deze SoC zich verhoudt tot de nieuwe Exynos, die naar verwachting beide in de S8 te vinden zullen zijn. Met name de nieuwe Mali G71 (zie o.a. de Mate 9 met "slechts" mp8 configuratie) maakt hele grote sprongen voorwaarts, daar waar de Adreno 540 een meer bescheiden 25% winst noteert.

[Reactie gewijzigd door Jortio op 2 januari 2017 08:52]

Als ik van die laatste games zie op telefoons en soms ook VR games, dan vraag ik mij toch af hoe zo een Adreno 540 qua prestaties zich meet met mijn Intel HD 4000. Is de Adreno dan al beter?

[Reactie gewijzigd door SherlockHolmes op 2 januari 2017 10:22]

Als je aanneemt dat de Adreno 540 iets sneller lijkt te worden dan de PowerVR 7XT in de iPhone 7 Plus (circa 260 GFLOPs), dan komt hij inderdaad erg dicht bij de HD 4000 met zijn 330 GFLOPs. Dat is natuurlijk een vijf jaar oudere chip, maar het geeft idd wel aan dat de ontwikkeling nog steeds vrolijk doorgaat.
Even off-topic: ik zou toch in de toekomst wat meer willen horen over RISC-V in plaats van de zoveelste ARM SoC. Ik voorzie namelijk dat dit heel groot gaat worden.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*