Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Snapdragon 1000-soc voor laptops komt nog dit jaar

Qualcomm zou een Snapdragon 1000-soc in ontwikkeling hebben voor Windows 10-apparaten en Asus zou de eerste fabrikant zijn die deze in een laptop, convertible of tablet stopt. De ARM-processor verbruikt naar verluidt meer dan smartphone-socs en zal sneller zijn.

De Duitse website WinFuture zegt informatie in handen te hebben over de komende Qualcomm-soc en de plannen van Asus. De Snapdragon 1000, waarvan de naam wellicht nog niet definitief is, zou nog in 2018 aangekondigd worden. Volgens WinFuture gaat het om een soc die een hoger verbruik heeft dan de socs die Qualcomm maakt voor smartphones. Dat zou kunnen komen door het gebruik van meer of snellere cores.

ARM presenteerde donderdag zijn Cortex-A76-microarchitectuur waarmee de fabrikant specifiek op laptops mikt. Qualcomm zou die architectuur kunnen gebruiken voor zijn Snapdragon 1000-platform. De bestaande SD835 is gebaseerd op Cortex-A73-cores en de SD845 heeft aangepaste Cortex-A75-cores.

WinFuture stelt dat het tdp van enkel het processorgedeelte, zonder de gpu, op 6,5 watt ligt. Bij huidige socs die ook in Smartphones zitten zou het totale tdp niet hoger zijn dan 5 watt. Het verbruik van de nieuwe soc is te vergelijken met dat van de Intel Y-processors. Het krachtigste model daarvan, de i7-7Y75, heeft een tdp dat fabrikanten kunnen configureren tussen 3,5 en 7 watt. De Snapdragon 1000-soc is alleen voor Windows 10-apparaten bedoeld en niet voor smartphones. Eind dit jaar zou de soc uit moeten komen en begin 2019 zou een nog krachtiger model moeten verschijnen.

Qualcomm bevestigde begin dit jaar al in een interview met Tweakers dat het bedrijf snellere Snapdragon-socs gaat maken voor laptops. Fram Akiki, senior director of product management bij Qualcomm, zei toen dat de derde lichting van Windows 10-hardware met ARM aangepaste Qualcomm-socs zal bevatten die speciaal zijn ontworpen voor Windows-apparaten.

De eerste lichting is al uitgebracht, dat zijn de apparaten met de Snapdragon 835-socs en de tweede generatie zijn de opvolgers daarvan, die de Snapdragon 845-soc krijgen, of mogelijk de SD850. De plannen waar WinFuture over schrijft passen bij de uitlatingen die Qualcomm begin dit jaar deed in het interview. Akiki vertelde toen aan Tweakers dat socs die aangepast zijn voor laptops bijvoorbeeld meer cores krijgen en dat die vanaf 2019 zijn te verwachten.

Het apparaat van Asus met de Snapdragon 1000 zou de naam Primus krijgen en eind 2018 aangekondigd worden. Mogelijk verschijnt het product pas een paar maanden later en een release in 2019 is daarmee ook mogelijk. Het is een Windows 10-apparaat, maar het is nog niet duidelijk of het om een laptop, een convertible of een tablet gaat.

WinFuture publiceerde eerder deze week ook al informatie over de komst van de Snapdragon 850, die ook voor laptops bedoeld zou zijn. Waarschijnlijk is dat een variant van de bestaande SD845 met hogere kloksnelheden. De Kryo 380-processorkernen zouden tot 3GHz komen, in plaats van 2,8GHz. De Snapdragon 850 lijkt niet exclusief voor laptops te zijn, volgens een ander gerucht werkt Dell aan een klein apparaat met twee schermen met die soc.

Door Julian Huijbregts

Nieuwsredacteur

01-06-2018 • 10:11

86 Linkedin Google+

Reacties (86)

Wijzig sortering
Voor de mensen die net als ikzelf ook geïnteresseerd zijn in de werking van de Cortex-A76-microarchitectuur, ten opzichte van de overige/andere microarchitecturen, kan ik deze pagina aanbevelen:
Arm emits Cortex-A76 – its first 64-bit-only CPU core (in kernel mode) = theregister.co.uk.
En deze info is daar gepubliceerd op 31 mei 2018.
En is zeker de moeite waard om ook eens door te lezen, wanneer je er geïnteresseerd in bent.

"Arm's latest top-end processor core design – the Cortex-A76 unveiled today – is its first CPU to only run kernel-level code that is 64-bit, according to its inventors. The processor will still support applications that use 32-bit A32 and T32 instruction sets, as well as 64-bit A64, meaning your apps and other programs will run as normal on this CPU. Code in a non-privileged level (specifically, EL0) will work as expected on this processor design. But go down into the privileged tiers of the device's operating system kernel, drivers, hypervisor, and so on, in EL1 and EL2 – and the Cortex-A76 will only support 64-bit code, we're told."

[Reactie gewijzigd door SSDtje op 1 juni 2018 15:53]

Deze chip werkt dus speciaal voor Windows. Maar Xbox draait ook op een Windows kernel. Zou het niet iets voor de Xbox console zijn om deze relatief goedkopen chip in te bouwen als losstaande processor voor het dashboard en achtergrond download terwijl de APU zich puur focussed op games ? Zo hebben ze meer overhead op de APU en kunnen ze er meer kracht uit persen.
Deze SoC waar over wordt gesproken is een chip waar alles op zit, cpu, gpu, connectiviteit (wifi, 4G). Als je die in een Xbox gaat proppen dan ben je dus geld aan het weggooien omdat je dubbele chips in je apparaat hebt (die in het geval van 4G ook nog eens onnodig zijn).

Nou als je het hebt over het bij plaatsen van een ARM cpu in een xbox dan zou dat kunnen. Maar het sterke punt van ARM is extreme zuinigheid en de xbox moet dan wel geen energieslurper zijn, maar extreme zuinigheid is ook weer niet zo belangrijk dat je dit wilt gaan inbouwen, zeker als je bedenkt dat het Xbox OS er ook weer voor aangepast zal moeten worden.
Alleen de 4g zou dan onnodig zijn. En als er eventueel een goedkopere B variant zou kunnen verschijnen zou dit al verholpen zijn. Uiteraard zou het Xbox Os moeten worden aangepast maar als men een nieuwe Xbox zou ontwerpen als Next Gen moeten ze alsnog een nieuwe OS schrijven. Als je dan de mogelijkheid kan creëren dat de APU uitgaat bij niet gamen zou de Xbox minder energie nodig hebben waardoor er energie bespaard word, minder warmte en dus minder slijtage aan de console.
Ik lees nergens dat alle connectiviteit er ook in zit. Ik zie de term SoC één keer gebruikt worden, dus dat is misschien niet eens zeker. Het zou ook een APU kunnen worden (dus CPU + GPU). Het wordt tenslotte een chip speciaal voor laptops, en in laptops is er doorgaans ruimte voor discrete componenten. In telefoons is die ruimte er meestal niet.
Ik denk dat het veel efficiënter is om de gewoon APU krachtiger te maken dan de taken zo op te splitsen. Plus zal het combineren van 2 chips en het schrijven van de software die daar goed mee overweg kan ook zijn challenges meebrengen.
De trend is juist een beetje dat men taken op aan het splitsen is. Op de AMD en Intel CPU's zit ook een ARM chip, beide proberen ook al jarenlang de GPU er een vast onderdeel van te maken (Die extra GPU kan met DX12 bv prima ingezet worden), naast dat X86 al jaren vol zit met stukjes dedicated hardware om verscheidene taken her en der off te loaden. FPGA's worden momenteel door de datacenters in de wereld uitgerolt juist omdat ze uiterst geschikt zijn om specifieke taken op te offloaden.

De consoles lopen in dit offload wereldje juist een beetje voorop. De CPU is voor redelijk wat taken niet eens nodig (vandaar dat het niet zo erg is dat ie wat zwakker is), audio bv, mooi voorbeeld. BF3 op de PS3 en 360 gebruikte 2 van de 6 beschikbare threads, alleen al om de audio te verwerken. De huidige consoles offloaden dit netjes naar een 512 kanaals audio chipset.

Ik zou graag weer zien dat een dedicated geluidskaart weer de norm zou worden, zo veel CPU cycles die gewasted worden voor iets wat 100keer beter ergens dedicated geoffload kan worden.
Uiteraard zou een krachtigere APU beter zijn alleen zijn ze afhankelijk van AMD. Beide console lopen sinds de invoer van deze generatie toch wel tegen een muur aan van limieten. 2 cores zijn nu bezet door het dashboard en OS als het goed is. Dat is natuurlijk zonde. Aangezien Microsoft ervaring heeft met dual Xeons zou het al mogelijk moeten zijn.
Als de geruchten kloppen krijgt de nieuwe playstation een Zen APU. Dat zal wel een flink verschil zijn.
Dat vraag ik mij wel af. Ondanks dat Zen goed is, viel de vorige implementatie van AMD juist door de mand omdat er niets voor geoptimaliseerd was. Al die singlethreaded spellen en applicaties hadden moeite met de relatief zwakke singlethreaded performance van AMD CPU's. Terwijl als je multithreaded ging doen, het ineens wel goed ging. Nu alle spellen voor de Xbox/PS4 geoptimaliseerd zijn om maximaal gebruik te maken van die threads en architectuur, is Zen nog wel ietsje sneller, maar veel scheelt het niet meer.
De 2700x loopt niet enorm ver meer achter op de Intel CPU's. Ze maken goede sprongen in het singlethreaded gebied. Zal interessant worden wat 7nm met zich meebrengt!
Waarom zou er een merkbare hoeveelheid rekentijd in het dashboard gestopt worden? Als dat het geval is, moeten ze dat maar es fixen. Als je een game aan het spelen bent, dan dient het apparaat zich daaraan toe te wijden. Niet aan andere dingen waar je op dat moment geen boodschap aan hebt.
Achtergrond downloads , achivements ,partychat etc etc...
"Merkbaar"

Een download en wat lijstjes bijhouden, daar merk je niets van.

Ik doe tijdens gamen ook vaak andere dingen op de achtergrond, inclusief usenet leechen (op PC dan) en ik merk daar precies 0fps verschil mee.

De kunst is dus om een CPU te hebben die meer rekenkracht heeft dan games nodig hebben om aan 60fps te blijven. En gezien games vaak toch niet met al die cores overweg kunnen, blijft er altijd wel wat over voor achtergrond-tjak.

[Reactie gewijzigd door _Thanatos_ op 4 juni 2018 12:45]

Maar, hoe staan de prestaties ten opzichte van de reguliere Intel en AMD processoren? Zijn deze veel minder krachtig of zijn ze vergelijkbaar met bijvoorbeeld een i3 of hoger? Of vergelijk ik nu appels met peren?
ARM cpu's zijn volgens het RISC principe. Dat wil zeggen dat de hoeveelheid taken waarvoor ze geschikt zijn bewust beperkt is. Dit komt de efficiency heel sterk ten goede. Een i3 is een bewust veel breder inzetbare cpu wat dus ten koste gaat van de efficiency. Je kan deze 2 cpu types niet onderling vergelijken.
https://nl.wikipedia.org/..._instruction_set_computer
https://nl.wikipedia.org/..._instruction_set_computer
Onderhuids zijn intel processoren tegenwoordig ook gewoon RISC processoren. Volgens mij word de CISC geeumuleerd en is dit puur om backwards compatible te zijn.
Onzin X86 / A64 is gewoon CISC met optimalisaties voor RISC. Dit staat ook letterlijk in linkje 2.
Het is het maar hoe het je definieert. Zie ook http://sunnyeves.blogspot...sors-cisc-or-risc-or.html

In ieder geval zijn beide varianten naar elkaar toegegroeid en kan je ze prima met elkaar vergelijken.
Soort van tussenin. Er zijn een aantal instructies die in microcode worden gedaan (dat is niet emuleren), maar volgens mij zit de basis x86 en AMD64 er nog native in. Ook de virtualisatiefeatures zijn grotendeels in hardware gedaan (de reden dat Spectre niet zomaar gefixt kan worden). Maar RISC is het onderhuids nog niet.
Dat wil zeggen dat de hoeveelheid taken waarvoor ze geschikt zijn bewust beperkt is.
Je kunt met een simpelere instructieset nog steeds alles doen alleen moet je sommige dingen in drie stappen doen waar CISC er maar één nodig heeft.
Dat klopt, je kan ook nog steeds GPU werk door een CPU laten doen. Dat dit voor geen meter werkt en niet vooruit te branden is dien je er dan wel even bij te vertellen..... In feite is een GPU ook een RISC voorbeeld.

@hieronder: "klopt, alle chips zijn hetzelfde en allemaal idd RISC"..... |:(

[Reactie gewijzigd door SLC op 1 juni 2018 22:17]

Nee. x86 CISC is juist een RISC CPU met een CISC front-end. Omdat RISC simpeler is kun je de instructies in minder tijd uitvoeren en dus in een hogere frequentie. Die drie simpele RISC opdrachten zijn sneller uitgevoerd dan die ene complexe CISC.

GPU's zijn compleet andere architecturen op zich. Super parallel. Dat heeft niks te maken met RISC of CISC an sich. Als je een taak hebt die goed parallel schaalt is het ideaal, heb je single core performance nodig dan moet je juist naar ARM of x86. De A11 is een goed voorbeeld van een RISC chip die hoge single thread performance haalt.

De Power chips die voorheen in Apple desktops en laptops zaten waren RISC en hebben lange tijd ook aardig meegedaan (iets sneller, soms iets trager) met x86 totdat het na de G4 eigenlijk fout begon te gaan. AMD en Intel zaten in een race voor steeds snellere CPU's en IBM/Apple/Motorola bleven achter. Maar dat lag ook niet aan RISC, puur aan de hoeveelheid geld die AMD en Intel in hun R&D kunnen pompen.

Als Intel vandaag opnieuw zou kunnen beginnen met een wit vel qua CPU architectuur wordt het nooit een CISC CPU. Waarom gebruiksvriendelijke grote instructies gebruiken als je compilers hebt die het werk voor je doen?

[Reactie gewijzigd door BikkelZ op 1 juni 2018 17:42]

Je kan ze zeer zeker wel vergelijken als ze voor dezelfde taken ingezet worden en dan is arm gewoon waardeloos.
En laat een latop met intel of amd cpu nou voor hetzelfde ingezet worden ls een laptop et arm cpu.

Ik zou een arm cpu voor een laptop NOOIT aanbevelen of verkopen het kan gewoon niet veel soeps zijn tenzij ze maar 200 euro gaan kosten wat me zeer onwaarschijnlijk lijkt.
Perfecte nieuwe snelle zuinige ALU laptops kosten al 200 dollar alleen moet je even weten waar......
Met een ARM chip erin zal een W10 12 tot 14 inch Full-HD en 20 uur accuduur nog maar 125 dollar kosten.
Het duurste component (de intel chip) is er dan namelijk uit....... _/-\o_ _/-\o_ _/-\o_
De 2 grootste bezwaren zijn dan weg (kostprijs + accuduur) waardoor dit een groot succes kan worden.
Mits de software daadwerkelijk geschreven is voor een ARM processor zijn de prestaties van dit soort SOC's best goed volgens mij (kijk b.v. naar de iPad Pro, potentie is er wel). Echter vallen ze flink door de mand als er (x86) software op gedraaid wordt (via visualisatie emulatie/virtualisatie).

[Reactie gewijzigd door Tortelli op 1 juni 2018 10:46]

Het grote nadeel van de ARM implementatie van Apple is dat ze in sommige taken zéér snel zijn, maar in heel veel andere taken juist niet. Ze zijn heel specifiek voor (de beperkingen van) iOS ontworpen. Dat maakt ze dus ook lastig toe te passen in laptops, want daarvan is het gebruik en het OS doorgaans net iets anders dan van een tablet met iOS. iOS is nu nog steeds geen echt multitask platform. Multithreaded gaat wel goed, in beperkte mate en binnen één app. Dat zijn bewuste design beslissingen geweest, want zo heeft de actieve app veel performance tot z'n beschikking en werken AR, de camera en andere apps binnen de apps altijd lekker snel, bij Android is dat anders, daar heeft de voorgrond app minder tot z'n beschikking. Daar staat tegenover dat je tegelijk video kunt streamen naar je TV, kunt browsen en op de achtergrond een torrentje binnen kunt halen zonder moeite op zelfs midrange toestellen (want die hebben tegenwoordig ook allemaal 8 cores en 4GB ram). Dat kan op iOS simpelweg niet tegelijk. Daarom gaan benchmarks ook zo goed. Maar in het dagelijks gebruik waarbij je van app naar app switcht, merk je weinig van die hoge benchmarkscores. Ik vind het een vreemde ervaring dat een iphone/ipad op sommige momenten onverslaanbaar snel aanvoelt, terwijl op andere momenten de iphonex en de ipads ineens trager aanvoelen dan een budgettoestel van 2 jaar geleden omdat ik net iets wil doen waar iOS en de SoC niet voor gemaakt zijn.

De Snapdragon chips zijn heel anders ingericht, waardoor ze ook nu met een Snapdragon 835 opvallend veel performance neer weten te zetten in een rol als laptop. Ja, het is nog net geen Pentium. Maar de Celeron kunnen ze bijbenen en dat voor een chip die veel minder stroom verbruikt en met alle gemak passief gekoeld kan worden. Zelfs een Celeron heeft nog een fannetje nodig soms en verbruikt wel wat meer.

Dus de potentie is er deels, maar Apple vind ik niet het juiste voorbeeld. De huidige Snapdragon 835/845 zijn een veel betere indicatie omdat die chips veel 'breder' ontworpen zijn. Dat maakt ze ook zo nuttig voor Windows op ARM en Linux als desktop.

De performance daarbij is eigenlijk van de 835 opvallend goed. De 845 gaat daar nog een beetje overheen en deze nieuwe generatie SoC's zijn bedacht met de beperkingen van laptops, niet die van telefoons, dus mogen veel warmer worden en meer verbruiken, want de koeling is stukken beter te regelen. Het zou zomaar kunnen dat deze Snapdragon 1000 serie ineens mee kan doen met de subtop (core i3, instap core i5) van normale laptops. Natuurlijk is het bij lange na geen gaminglaptop en blijft er een beperkte vorm van x86 hardware-emulatie bestaan, maar voor een compacte goedkopere notebook met een mooi design gaan ze zeker een héél goede keuze worden. Het grootste risico ligt 'm in de GPU snelheid en drivers.
Het is een lange lap tekst maar je komt met meningen aan over de Apple ARM architectuur waar ik geen enkel aanknopingspunt vind. Het is meer een hoop doet leven verhaal. Qualcomm SoC’s breder ontworpen? Waar komt dat allemaal vandaan?
Fapkonijntje denk dat de Apple ARM chips specifiek voor iOS ontworpen zijn en dat iOS niet volledige multitasking is. De werkelijkheid is dat Apple ARM chips conform de ARM architectuur/blauwdruk zijn en dat iOS een volledig multitasking OS is. Tsja...
De ARM specificaties zijn niet meer dan een paar losse bouwblokken die jij op een eigen manier in elkaar kunt zetten. Een soort Lego dus. De werkelijkheid is dat Apple gekozen heeft voor een klein aantal snelle blokken en dat er bij Qualcomm, Mediatek en HiSilicon gekozen is voor grote aantallen langzamere blokken. Die laatste situatie komt nu ook voor bij laptops (zowel macOS als Windows) en dat vertaalt zich in bredere performance voor meer uiteenlopende (gelijktijdige) taken. Waarbij Apple dus bij de iphone de SoC en iOS gericht heeft op het snel afhandelen van enkele taken. Multithreading kan zeker wel op een iOS soc, maar daar zijn ze simpelweg minder goed in dan de Qualcom en andere socs. Tenzij je het aantal threads volledig beperkt tot het aantal snelle cores dat Apple gekozen heeft.

Multitasking is iets dat iOS simpelweg niet doet. Dat de kernel het ooit wel kon, is helemaal niet boeiend. Multitasking binnen iOS is niet mogelijk, want niet actieve applicaties worden grotendeels gepauzeerd. Je kunt namelijk niet tegelijk browsen met Safari/Chrome, films streamen naar een TV/chromecast en op de achtergond een torrentje downloaden. Dat kan iOS simpelweg niet. Dat die beperkingen kunstmatig zijn is natuurlijk wel een feit. Wat je wel kunt doen is multithreaden, dus één applicatie die meerdere threads gebruikt om gelijktijdig dingen af te handelen. Dat gaat ook vrij goed, zolang je niet overdrijft.

De Apple X11 soc heeft 2 snelle cores met een viertal vrij langzame cores die taken als bellen afhandelen en vrij weinig spannends kunnen. De performance zit voor 99% in de twee snelle cores. De Snapdragon 835 en 845 hebben vier snelle cores, met 4 net iets minder snelle cores voor andere taken, deze cores zijn nog steeds zodanig snel dat je ze als losse SoC ook ziet voor midrange toestellen (snapdragon 600 series), die per stuk ook voldoende zijn voor praktisch alle normale apps. Het is een ontwerpkeuze, niets meer dan dat. Hetzelfde komt voor bij het RAM geheugen van die apparaten, Apple kiest voor minder (2GB voor de iphone8, 3GB voor iphonex), waarbij de high-end android apparaten 6+GB hebben en zelfs de goedkoopste Androids nu met 3 of 4GB komen.

Dus nogmaals: de Apple SoC is leuk, maar qua ontwerp niet helemaal klaar voor het gebruik op desktop/laptops waar de gebruikers andere gebruikspatronen hebben en applicaties nogal anders werken. Dus ik zou ze zelf niet teveel als indicatie gebruiken dat ARM op een desktop/laptop ineens de heilige graal is. Dit zijn dezelfde redenen als waarom de benchmarks vergelijken tussen iOS en Android erg misleidend kan zijn.
Bron? (Over Apple zijn chip architectuur)

[Reactie gewijzigd door AndromedaM31 op 1 juni 2018 14:55]

Het klopt wel dat er minder cores op een iPad CPU zitten maar de conclusie dat minder cores slechtere multitasking en multicore benchmark prestaties betekent komt uit zijn dikke duim. Een i5 met minder cores presteert ook beter in multitasking omdat de invididuele cores veel beter presteren en het gros van de secundaire processen de CPU nauwelijks belasten.

Het is alsof 8 Rupee meer waard is dan 4 Pond omdat nou ja 8 is meer dan 4 niet?
Je komt ook met een enorme lap tekst iederen keer en 0 bronnen. Gewoon wat interessant bij elkaar gebazelde aannames. Sorry dat ik het zo grof zeg maar het is zo.
De werkelijkheid is dat Apple gekozen heeft voor een klein aantal snelle blokken en dat er bij Qualcomm, Mediatek en HiSilicon gekozen is voor grote aantallen langzamere blokken.
Vandaar dat die in multi-core CPU benchmarks er tegenwoordig ook compleet uit geblazen worden door Apple? Omdat ze zo goed kunnen multitasken?
Je kunt namelijk niet tegelijk browsen met Safari/Chrome, films streamen naar een TV/chromecast en op de achtergond een torrentje downloaden.
En daarom is Qualcomm beter in multitasken? Of ben je gewoon overgeschakeld op een anti-iOS rant midden in je betoog?
Multitasking is iets dat iOS simpelweg niet doet. Dat de kernel het ooit wel kon, is helemaal niet boeiend.
Ah inderdaad, midden in het verhaal gaat het ineens over iOS. Maar je kletst echt enorm uit je nek, sorry. Dat jij er als programmeur niet onbeperkt misbruik van mag maken wil niet zeggen dat het OS niet multitaskt. iOS doet constant dingen op de achtergrond en als er een API is die het toestaat (silent push, background downloads) kun jij het ook. Het heeft meer met batterijprestaties te maken en om te voorkomen dat iedere applicatie constant shit op de achtergrond loopt te doen. En wen er maar aan want Android gaat ook precies die kant op.
Dat gaat ook vrij goed, zolang je niet overdrijft.
Bron? Benchmarks? Of gewoon feiten negeren en zeggen "8 is meer dan 4 dus beter"?
Dit zijn dezelfde redenen als waarom de benchmarks vergelijken tussen iOS en Android erg misleidend kan zijn.
Grappig, benchmarks waren altijd dé manier om op allerlei vlakken technologie te kunnen vergelijken, je ziet op Intel vs AMD discussies ook helemaal niemand praten over de betrouwbaarheid van benchmarks, alleen over het nut van single core vs multi core prestaties. Alleen in mobile zijn benchmarks ineens totaal ruk en moet je juist clickbait vloggers gaan geloven.

De Apple SoC is gewoon een stuk groter dan die van de rest. Het zou knap zijn als je met al die extra transistors géén signifant hogere prestaties behaalt.
Fapkonijntje zegt toch juist dat apple wel goed met multicore omgaat zolang het maar binnen dezelfde applicatie gebruikt wordt, vandaar dat benchmarks geen problemen hebben.

Verder zijn benchmarks altijd al onbetrouwbaar geweest daarom doen we altijd meerdere verschillende en de resultaten kunnen enorm verschillen.

Ik wil niet zeggen dat een bepaalde architectuur slechter is, apple maakt hun socs voor telefoons en tablets, wanneer ze zich ook op laptops gaan richten zullen hun prioriteiten misschien ook meeverschuiven.
Maar multithreading wel goed werken binnen dezelfde app slaat nergens op. De kernel scheduled threads, ongeacht proces. Daarbij draaien er heel veel processen op iOS en kunnen Apps ook een background task draaien. Verder gaat threading voornamelijk via dispatch queues die afgehandeld worden door grand central dispatch. Een thread pool die op OS niveau draait, waardoor scheduling juist efficiënt is.
”Dat gaat ook vrij goed, zolang je niet overdrijft.”
Bron? Benchmarks? Of gewoon feiten negeren en zeggen "8 is meer dan 4 dus beter"?
Multithreading is altijd minder efficiënt als je meer threads gebruikt dan cores, in verband met context switches. De gebruikerservaring is daarentegen wel beter. Twee snelle cores is in veel gevallen ook weer beter, dan 48 trage cores. Zijn hele argument haalt hardware en software design keuzes door elkaar. Daarbij komt dat macOS en ook iOS grand central dispatch hebben, waardoor juist dat hele thread verhaal en overdrijven van hem ook gelul is. Ja, hij kletst uit zijn nek.
De ARM specificaties zijn niet meer dan een paar losse bouwblokken die jij op een eigen manier in elkaar kunt zetten. Een soort Lego dus.
ARM heeft 2 soorten licenties. Inderdaad is de ene een bouwblokkenvariant, maar ze andere is een variant dat je de instructieset licenceert maar zelf de complete architectuur maakt.
Apple (maar bijvoorbeeld ook Qualcomm en Samsung) heeft zo'n architectuurlicentie.
De cores in de Apple Ax processoren zijn dus ook volledig eigen ontwerpen sinds de Apple A7, de eerste 64-bits ARM die daadwerkelijk werd in een telefoon/tablet werd verkocht.
Het grootste risico ligt 'm in de GPU snelheid en drivers.
Zou de GPU het zwakke punt zijn? Android tablets lijken spellen beter te draaien dan de IGPU van Intel.
Bij de Atoms zorgde de PowerVR gpu ook voor problemen. Drivers voor Windows zijn een tikkie anders dan voor Android. Bij Android heb je een kleinere variatie aan api's. Windows kent dat iets breder. Ook moeten huidige en toekomstige applicaties goed werken op de GPU en kijk maar hoeveel werk een AMD en Nvidia daaraan hebben met de continu driver updates. Je wilt misschien je oudere spelletjes opnieuw spelen op je Snapdragon laptop, dan is het wel zo handig dat ze werken op de GPU.
In de Snapdragon 1000 zou best een andere GPU gebakken kunnen worden. Net zoals die nieuwe Intel cpu's (weet ff niet welke) waar een Vega in zit ipv een Intel GPU. Zo zou er in een Snapdragon ook een embedded GPU van AMD, nVidia, of Intel kunnen zitten.
Het grote nadeel van de ARM implementatie van Apple is dat ze in sommige taken zéér snel zijn, maar in heel veel andere taken juist niet.
Waar baseer je dit op? Want je hele verhaal daaronder gaat over iOS en design keuzes met betrekking tot toestaan van bepaalde achtergronden taken. iOS is prima in staat om multithreading en dus multiprocessing te doen. Het is in de basis namelijk een fork van Mac OS X geweest.
Ik vind het een vreemde ervaring dat een iphone/ipad op sommige momenten onverslaanbaar snel aanvoelt, terwijl op andere momenten de iphonex en de ipads ineens trager aanvoelen dan een budgettoestel van 2 jaar geleden omdat ik net iets wil doen waar iOS en de SoC niet voor gemaakt zijn.
Zoals? En ligt dit dan aan de applicatie, aan de SoC of aan iOS en waarom?
De snapdragon voor win laptops is gewoon op dit moment een doodgeboren kindje.

Het is een top cpu met een top prijs.
Echter door te emuleren verlies je heel veel prestaties en klopt de prijs/performance gewoon niet meer.

Lees intel zit ondertussen op op cpu's met 3,5 tot 7 watt maar die hoeven niet te emuleren en zijn dus gewoon sneller.
virtualisatie (emulatie) bedoelde ik 8)7
Maar, hoe staan de prestaties ten opzichte van de reguliere Intel en AMD processoren? Zijn deze veel minder krachtig of zijn ze vergelijkbaar met bijvoorbeeld een i3 of hoger? Of vergelijk ik nu appels met peren?
Eerlijk gezegd denk ik dat die vraag er voor de meeste mensen niet toe doet.
De processor is snel genoeg voor het grootste deel van de markt.
Nieuwe software wordt voornamelijk geschreven voor web en mobiel. Het heeft steeds minder zin om een laptop of PC te hebben die veel krachtiger is dan je telefoon.
De grootste prestatiewinst dat er voor arm cpu's is software optimalisatie.
De snapdragon 845 is met 8 cores nog niet half zo snel als de goedkoopste i3 uit de vorige generatie met 2 cores 4 threads.

De prestatie mag dus gerust belabberd genoemd worden. dus tenzij deze cores op 6 ghz gaan draaien zie ik er niet veel heil in qua prestatie.
Voor het geld dat deze laptops gaan kosten heb je al een nieuwe laptop met i5 8250 met 4 tot 6x de prestatie.

Voor browsen en accuduur zal het prima zijn maar verwacht er niet veel meer mee te kunnen zonder je te irriteren.
Denk voor light-gewicht gebruik toestellen???

[Reactie gewijzigd door theduke1989 op 1 juni 2018 10:21]

Voor "always connected" laptops/convertables. Vaak voorzien van 4G verbinding en een potentiële zeer lange accuduur (>12 uur).

Huidige aanbod op basis van een Snapdragon 835 zijn overigens veel te duur imo.

[Reactie gewijzigd door Tortelli op 1 juni 2018 10:30]

12 uur is toch niet zo spectaculair? Ik ga mijn prive dell upgraden omdat deze het nog maar 10 uur volhoud. Met mijn werk laptop heb ik de 16 uur gehaald (thinkpad T570). Iedereen heeft andere eisen, maar een laptop die het nog geen 12 uur volhoud, is voor mij afgekeurd. Ik zie het liefst een accuduur in dagen of weken.
Dagen of weken? Meen je dat? Dat hebben we zelfs met smartphones niet. 8)7
jwl hoor :-). Mijn nokia N9 gaat dagen mee op standby. Spijtig genoeg is werkelijk elke ondersteuning of app er niet meer en is het gewoon onbruikbaar geworden. Tenzij voor te bellen en mp3 (waar ik die dan ook voor gebruik als ik ga wandelen ofzo) en dat met een 1450 mah batterijtje.
Ja, maar hij heeft t over verbruik met scherm aan, niet standby.
Daarbij is t ook afhankelijk van hoe helder je t scherm zet, of je radio's aan hebt etc.
Zonder internet haalt mijn Galaxy S4 Mini (1,9Ah) 2 weken standby, overigens.
ah je hebt gelijk, my bad, verkeerd gelezen :)
Ik hoop dan ook dat dat zeer snel gaat veranderen. Ik heb een batterij hoes op mijn zakelijke toestel. Voor mijn prive toestel is deze besteld maar nog niet binnen.
Onze kinderen gaan het meemaken :)
Ik moest ook lachen, maar aan de andere kant #durftedromen

Het is een kwestie van wanneer.

Mijn smartwatch kan al een week. Er zijn smartwatches die minder lang meegaan (met kleurtjes op het schermpje, en WLAN, enz) en er zijn er die langer meegaan. Het kan beide kanten op.

Hetzelfde geldt voor tablets, smartphones, enz. Maar als het toestel groter is, kun je er traditioneel zwaardere dingen op draaien. En die vreten batterij.
Volgens mij zitten de modellen nu rond de 20 uur.

Uurtje of 12 is imo meer dan voldoende, kun je een volle werkdag (of b.v. een vlucht naar de VS) werken zonder voeding. Veel langer dan 12 uur werk je toch nooit zonder mogelijke voeding?.
12 uur werken is vaak met laag gebruik. Ik werk regelmatig dagen die langer zijn dan 12 uur (zeker op buitenlandse projecten werk ik vaak 16 uur per dag). De meeste werkzaamheden zijn op plekken waar een stopcontact meestal niet aanwezig is. Die 12 uur is ook alleen in het begin. Na enkele maanden zit je al een stuk lager. Ik wil niet eens met 12 uur beginnen. Ik geef dan ook meer om batterij duur dan om dun en licht. Ik heb geen probleem met een laptop van 8 kilo, zolang deze het maar lang volhoud. Ook als ik voor mijn werk naar elders moet, vind ik dat geen probleem. Op dit moment neem ik zowel mijn prive als mijn werk laptop mee met langere projecten in het buitenland.
Koop je toch een lichte laptop met lange accuduur en een extra accu? Probleem opgelost zou ik zeggen, en wanneer je weer stroom hebt beide opladen. Je heb ook van vele fabrikanten extended batteries die veel langer meegaan, en dat wel groter zijn, maar als gewicht toch niet uitmaakt.

Zat mogelijkheden dus zo lijkt mij.
lichte laptop is niet handig. Een core i7 en 32GB geheugen is toch wel minimaal. Dit is ook de standaard van het bedrijf. Helaas niet zelf de keuze om een nog snellere te kopen.
Nee, maar het principe blijft hetzelfde, een extra accu lost alles op lijkt mij niet?
dan hang je er toch gewoon de secondary battery eraan? :? . Veel producenten van bedrijfslaptops hebben deze, al dan niet een losse variant of eentje die je op de onderkant klikt.
Als er eentje is die ik aan de onderkant kan klikken, zou dat handig zijn. Eens kijken of ik er eentje voor mijn werklaptop kan bestellen. Goede tip
HP en Dell hebben vaak in hun zakelijke lijn ook van die extra grote accus voor redelijk wat modellen.
Alleen zit ik helaas aan lenovo vast.
Een laptop met Snapdragon hoeft niet per se ineens een extreem lange accuwerktijd te hebben. Waarom zou het? Omdat het onder volle belasting een paar watt minder in de cpu hoeft te stoppen? Dat stelt toch niks voor. Dat wordt dan wel weer gecompenseerd met een glazen beeldscherm dat meer helderheid nodig heeft om in daglicht zichtbaar te zijn.
Als de IGP ook goed is dan wordt dit nog een geduchte tegenstander van Intel en AMD.
Hoe zit het nou met ARM vs x86 en windows10? Was iemand niet bezig met een x86 emulator voor ARM of zo of was dat Qualcom zelf? Ik heb geen zin in een laptop waar alleen UWP apps op draaien die ik uit de (crappy) Windows Store moet plukken. :+
Microsoft heeft die emulator ingebouwd in W10 voor ARM.
ga maar wat benches vergelijken van arm vs intel in prestaties dan weet je dat er heel veel moet veranderen aan arm socs zoals ze nu bestaan wil het ook maar enige kans van slagen hebben tenzij mensen graag langer wachten op dezelfde taak.
Bijkomstigheid is dat ze zuiniger zijn maarja als je dan ook langer moet wachten is die accuduur schone schijn en kost het je gewoon vrije tijd of de baas zijn tijd.
Ik lees laatste tijd op Tweakers veel over ARM cpus voor laptops, (soms?) met x86 emulatie, maar hoe veel zin heeft dit op het moment? Alsin, werkt dat wel oke als je x86 moet emuleren? En hoe veel zuiniger is het per *random performance indicator*?
Waarom zou je willen emuleren? Heel veel software werkt gewoon op ARM. Thin and light laptopje met Ubuntu en deze CPU zou fantastische accuduren moeten geven ;)
De CPU's zijn per definitie zuiniger, wat ze ook moeten doen. Ze kunnen technisch niet veel stroom verbruiken. Emulatie is hardware gebaseerd, dus valt qua snelheid erg mee. Het blijven echter mobiele chips die gemaakt zijn voor telefoons, dus ze benutten nog niet alle mogelijkheden in een laptop (zoals betere koeling/meer ruimte voor de soc). Maar grotendeels werkt alles wel en veelal niet echt heel traag. Instaplaptops van 3 jaar oud zijn ongeveer even snel. En als je nog niets met Atom hebt liggen, die zijn heel wat trager dan dit.
Ze zijn per definitie zuiniger omdat ze minder rekenkracht hebben. De performance moet immers uit de lente of uit de breedte komen.
Ter illustratie van een ARM + Windows laptop word verwacht dat ze een accuduur gaan halen van 20 uur.
Een "vergelijkbare" actuele X86 (AMD/intel) + Windows laptop haalt ongeveer 10 uur accuduur.

Van ARM laptops word verwacht dat ze een "standby" stand krijgen die een maand lang "always on" blijft.
Die accuwerkduur is wel berekend op de fabrikant manier, waarbij de CPU bijna niets meer uitmaakt, omdat die zo goed als idle is. Bovendien kun je de geclaimde accuwerkduur niet vergelijken, omdat iedere fabrikant weer andere smerige truukjes uithaalt om een zo hoog mogelijk aantal uren te kunnen claimen.
(bewuste) Meetfouten even buiten beschouwing gelaten is een dubbele accuduur (20 uur ipv 10 uur) ook wat er door experts word verwacht gezien het veel zuiniger ARM platform.....
het zal wel mid tot eind 2019 zijn
Het is toch veel gemakkelijker de prestaties onder Linux te vergelijken. Linux voor ARM bestaat al in allerlei vormen.

Waarom zou een Snapdragon 1000 geen Linux kunnen draaien?
Dat zou prima moeten kunnen, maar omdat het geen x86 is, zal de architectuur van alles eromheen, zoals UEFI, storage, randapparatuur, ook anders zijn. Dat gedeelte moet Linux dan ook mee om kunnen. Het is niet een kwestie van hercompileren en "succes ermee". De installer zal wrs ook op een andere manier gebootstrapt moeten worden.
Aangezien Android ook op Linux is gebaseerd, zou je zeggen dat Qualcomm daar juist meer ervaring mee heeft.
Hoezo moet de architectuur van alles eromheen anders zijn? Sata is Sata, USB is USB. Tuurlijk moeten er drivers voor zijn, maar die zijn er ook al een heleboel. Dit heeft niks met de instructieset van de CPU te maken.
Sata en USB blijven hetzelfde, maar de architectuur gaat over "hoe je daar bij komt". Gaat het via PCIe? Ik heb nog nooit gehoord van PCIe in telefoons, dus wellicht dat een Snapdragon dat niet heeft, en dat dat op een hele andere manier werkt. Om maar wat te noemen.
zou wel mooi zijn als een smartphone deze processor krijgt met een flinke accu om het op te vangen en minimaal 6gb ram
Ik denk eerder dat dat een tablet wordt. Qualcomm is koppig genoeg om een levering simpelweg te weigeren als ze er lucht van krijgen dat deze cpu's in telefoon gestopt worden.

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True