HP Elite Folio krijgt Snapdragon 8cx 5G-soc en behuizing met kunstleer

HP presenteert de Elite Folio, een 2-in-1 in de zakelijke laptoplijn. Het Windows 10-apparaat is voorzien van Qualcomms Snapdragon 8cx Gen 2 5G-soc, een Arm-processor. De Folio is een soort 'schrijfmap' die in verschillende posities gevouwen kan worden.

De HP Elite Folio is als een tablet of laptop te gebruiken, maar in de laptopstand kan het scherm ook naar voren gehaald worden. HP spreekt over een pull-forward-ontwerp. Volgens HP is dat handig voor het bekijken van media. HP maakte eerder al de Spectre Folio en het nieuwe Elite Folio-model is wat concept betreft vergelijkbaar, maar bevindt zich in de hoger gepositioneerde Elite-productlijn.

In de HP Elite Folio zit Qualcomms 8cx Gen 2 5G-soc, een octacoreprocessor met Arm-cores op 3,15GHz en een X55-modem voor 5G. Het apparaat draait dus op de Arm-versie van Windows 10. Volgens HP gaat de accu 24,5 uur mee bij het kijken van video's die zijn opgeslagen op het apparaat.

Dichtgeklapt is de HP Elite Folio 16mm dik en het gewicht is 1,3kg. De behuizing is afgewerkt met kunstleer. Het 13,5"-scherm heeft een 3:2-verhouding een resolutie van 1920x1280 pixels. Het gaat om een touchscreen met ondersteuning voor een Wacom-stylus, die ook wordt meegeleverd. Er is 16GB Lpddr5-ram aanwezig en een 512GB-ssd. HP zegt dat de Elite Folio in februari uitkomt, maar noemt nog geen prijs.

HP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite FolioHP Elite Folio

Door Julian Huijbregts

Nieuwsredacteur

11-01-2021 • 02:00

55

Reacties (55)

Sorteer op:

Weergave:

Is ARM de toekomst? Ik kijk "globaal" naar het tech nieuws. Maar wat hoor/ lees over de M1 van Apple, lijkt dat de toekomst te worden.
Hopelijk maakt de release van de M1 de concurrentie wakker. ARM heeft ook op Windows zeker wel potentie, maar dan zal er eerst iemand anders dan Apple met een fatsoenlijke ARM SoC moeten komen. Het performance verschil tussen de 8cx en de M1 is dramatisch.

Ik verwacht dat x86 CPU’s het nakijken gaan hebben. De eenvoudigere instructieset van ARM maakt veel efficiëntere CPU’s mogelijk.
De eenvoudigere instructieset van ARM
Vraag me af of dat 1-Nog klopt en 2-De reden is dat ze efficienter zouden zijn. (Met andere woorden, als x64 vrij te licentieren zou zijn, zouden Apple/Qualcomm dan nog steeds voor ARM kiezen, en wat zouden ze kunnen bereiken als ze toch probeerden)

Ik kon helaas niet zo snel het aantal instructies vinden dat beschikbaar is in ARMv8, maar ik weet wel dat ook ARM met NEON SIMD instructies heeft gekregen, en in de zoektocht naar een aantal instructies vond ik bijvoorbeeld ook dat ARMv8.1 instructies voor CRC-berekening toevoegt. Beide zijn zeker niet noodzakelijk als je gaat voor een zo 'reduced' mogelijke instructieset, dus ook ARM lijkt nut te zien in een complexere instructieset om veelgebruikte operaties efficienter te maken.

Omgekeerd gebruikt Intel ook al jaren microcode om de complexere instructies om te zetten in eenvoudigere deel-instructies, dus ook niet elke toegevoegde complexe instructie moet noodzakelijk in de chip vast zitten.

Ik vermoed dus zelf dat de combinatie van andere architecturale keuzes, implementatie-keuzes en niet te vergeten ook de uiteindelijke transistors een belangrijkere rol spelen in effcientie dan enkel de instructieset.
Ik kon helaas niet zo snel het aantal instructies vinden dat beschikbaar is in ARMv8
'Reduced' in RISC slaat niet op het aantal instructies, maar op de complexiteit van de instructies. ARM is een zogenaamde load-store architectuur. Waar je bij ARM b.v. alleen een 'add' instructie hebt die 2 registers bij elkaar optelt, kan je bij x86 op allerlei manieren aangeven waar ie de waardes om op te tellen vandaan moet halen, een register, een geheugenlocatie, een geheugenlocatie via allerlei vormen van indirecte adressering. etc.
Omgekeerd gebruikt Intel ook al jaren microcode om de complexere instructies om te zetten in eenvoudigere deel-instructies
Klopt, en daar zit nu net het probleem.

Moderne CPU's doen aan instructie-level parallellisme. Een enkele core heeft meerdere execution units: integer units, logic units, floating point units, etc. De CPU kan meerdere instructies in parallel uitvoeren, zolang deze instructies maar niet van elkaar afhankelijk zijn. Om dit efficiënter te maken worden meerdere instructies vooruit gedecodeerd en in een zogenaamde re-order buffer (ROB) gezet. In de ROB wordt de volgorde van instructies veranderd (rekening houdend met afhankelijkheden) zodat er zo optimaal gebruik gemaakt kan worden van alle execution units.

Hoe verder je in het voren kan kijken, hoe beter je kan re-orderen en hoe efficiënter je de execution units kan benutten.

Omdat x86 instructies in vele vormen komen, zijn de instructies van variabele lengte. Dit heeft als gevolg dat je pas weet waar de volgende instructie staat als je de huidige instructie gedecodeerd hebt. Huidige x86 CPU's lukt het met veel moeite (en relatief complexe decoders) om 4 instructies tegelijk te decoderen. Dit is al jaren zo en het lijkt niet te lukken om dit te verbeteren (google: x86 decode bottleneck).

ARM CPU's , daarentegen, hebben dankzij de simpelere instructies een vaste instructie grootte, je weet dus precies waar de volgende instructie begint. Dit maakt het triviaal om meerdere instructies parallel te decoderen. De Apple M1 bijvoorbeeld decodeert 8 instructies tegelijk. Een bredere decoder betekent dat je een grotere ROB kan vullen, en een grotere ROB betekend dat het makkelijker is alle execution units bezet te houden (je hebt immers meer instructies om mee te schuiven). De Apple M1 heeft een relatief grote ROB, en ook een hele brede CPU (veel execution units). Dit alles zorgt er voor dat de M1 per kloktik heel veel werk kan verzetten, met x86 is dit simpelweg niet mogelijk.

Uiteraard zijn er ook nadelen aan RISC. Omdat er meer instructies zijn en deze een vaste grootte hebben, is de code iets groter. Dit betekent ook dat het meer geheugen bandbreedte kost om die instructies aan te voeren. De variable lengte x86 instructies functioneren eigenlijk als een soort instructie compressie. RISC CPU's zijn meer afhankelijk van geheugen bandbreedte dan CISC CPU's. Dit wordt over het algemeen opgelost door een RISC CPU te voorzien van een relatief grote CPU cache. Wat bij Apple's chips ook het geval is.

Anandtech heeft een goed artikel dat hier diep op in gaat.
Een aantal dagen geleden heb ik dit artikel over RISC-V vectorinstructies gelezen, waarin aantallen boven de 1000 voor x86 en ARM worden genoemd. Daarbij vraag ik me ook of SVE2 instructies zijn meegenomen in het getal voor ARM.

Zelfs RISC-V met zijn vrij orthodoxe instructieset is niet echt meer een klassieke RISC, als er sprake is van toevoeging van optionele extensies voor gecomprimeerde en vectorinstructies. En misschien is dat maar goed ook, aangezien we niet meer leven in het jaar 1980.
Het performance verschil tussen de 8cx en de M1 is dramatisch
Is dat zo? Ik kan er nog maar weinig over terugvinden eigenlijk, dus vanwaar zo'n 'dramatisch' statement?
Ik lees wel her en der dat de M1 duidelijk sneller is, omdat de 8cx een refresh van een ruim 2 jaar oud ontwerp is dat eigenlijk alleen bedoeld was om energiezuinig te zijn.

Een 'fatsoenlijke' ARM SoC is er dus eigenlijk al lang, maar laten we hopen dat de M1 de ontwikkelingen goed op scherp heeft gezet. Ik erger me al jaren aan de gemakzucht bij o.a. Qualcomm, die het allemaal wel best lijken te vinden en eigenlijk alleen de Snapdragon-lijn voor smartphones een beetje serieus nemen. Andere mobiele devices zoals laptops, smartwatches of zelfs car entertainment systems lijken pertinent enkel het 'minimaal benodigde' te redden aan performance en dat vind ik ergerlijk.

Met de 'digital transformation' en dus 'modern workplace' als ontegenzeggelijke toekomst zal men ARM chips héél serieus moeten gaan nemen. Ik roep het al jaren, dus ik ben blij dat Apple de boel op scherp zet!
Ja, nee. Dat is appels met peren vergelijken. Dat artikel combineert de verouderde SQ1 met een béta-versie van de64-bit x86 emulator op Windows 10.

Ik ontken overigens niet dat de 8cx inderdaad 'dramatisch' presteert tegenover de M1, maar ik heb nog geen gedegen 1 op 1 vergelijking kunnen vinden. Dan zou men de nieuwste release van MacOS op een Pro X met de SQ2 moeten installeren als 'Hackintosh' en zelfs dan is het maar de vraag in hoeverre dat eerlijk is.

Tot die tijd lijkt het me veilig om te zeggen dat Apple wederom een bestaand concept heeft weten te implementeren op een gedegen manier.
Dan zou men de nieuwste release van MacOS op een Pro X met de SQ2 moeten installeren als 'Hackintosh' en zelfs dan is het maar de vraag in hoeverre dat eerlijk is.
Linus heeft Windows op zn M1 gezet en getest tegenover een Surface Pro X met een SQ2 en zelfs geemuleert is de M1 een stuk sneller dan de SQ2 (Geekbench) Want er is niks anders om mee te vergelijken.
https://www.youtube.com/watch?v=OhESSZIXvCA&t=219s
Nog steeds niet optimaal maar ik vind t een goede indicatie van hoe goed Apple dit voor elkaar gekregen heeft.

[Reactie gewijzigd door Snowfall op 24 juli 2024 16:27]

En dan heb je nog de vraag wat het effect zal zijn van de overname van ARM door nvidia.

Het lijkt er in ieder geval op dat we naar een toekomst gaan van meer CPU-diversiteit. En zodra het eenmaal niet meer vanzelfsprekend is dat (bijna) alle mensen een bepaald soort CPU hebben in hun apparaat, zal software ook vaker cross-platform uitgebracht gaan worden, zodat hopelijk op een gegeven moment het type CPU in een apparaat minder relevant wordt.
"Het lijkt er in ieder geval op dat we naar een toekomst gaan van meer CPU-diversiteit."

Toekomst of de geschiedenis die zich herhaalt? Of ik moet het me verkeerd herinneren, maar volgens mij hadden we in de jaren 90 ook al een brede keus, met x86, PowerPC, MIPS, etc. En nog steeds eigenlijk wel, maar in de jaren 90 waren al die chipsets populair en nu alleen nog x86 en beetje bij beetje (in pc's/laptops) ARM. Dus meer diversiteit is gewoon de jaren 90 herbeleven.

[Reactie gewijzigd door TheVivaldi op 24 juli 2024 16:27]

Het grote verschil is dat ARM en RISC-V nu de onderkant van de markt bedienen en gebruikmaken van de schaal- en procesvoordelen die foundries tegenwoordig bieden. Dat was toen niet het geval, omdat Intel qua productieproces altijd voor lag op de rest en ook de grootste volumes had.

In die zin herhaalt de geschiedenis zich inderdaad, maar de namen zijn nu ARM en RISC-V in plaats van MIPS, SPARC, Alpha, POWER en PA-RISC.
Hopelijk maakt de release van de M1 de concurrentie wakker
Dat heeft de A1 op de mobiele markt ook niet gedaan, dus ik verwacht weinig fatsoenlijks voor mogelijke ARM based PCs.
Dit geloof je alleen als je in een roze Apple bubbel leeft. Qualcomm kan prima mee met de nieuwste Apple chips.

https://www.anandtech.com...snapdragon-888-benchmarks

Daarnaast heeft de M1 van Apple 1,6x meer transistors dan een 8CX. Dus niet heel vreemd dat de chip het ook veel beter doet.

[Reactie gewijzigd door Relief2009 op 24 juli 2024 16:27]

In die link zie je hoe de nieuwe 888 chip met 8 cores die nog in geen enkele telefoon zit ongeveer gelijk is aan de A13 SoC met 6 cores.. Dus nee, Apple loopt qua snelheid gewoon flink voor. De gemiddelde smartphonegebruiker zal er niet heel veel van merken nee, maar als de concurrentie met meer cores even snel is als je oude SoC met 2 cores minder dan loop je gewoon voor.

En niemand gaat natuurlijk een SoC kopen omdat het minder transistors heeft, dus dat is een beetje een non-argument. Zolang qualcomm niet met een desktop/laptop arm processor komt die meekan met de M1 loopt apple daar ook voor.

Maar helaas verwacht ik ook niet dat andere bedrijven hun eigen SoCs gaan maken. De grote jongens als Huawei, Samsung en Apple doen dat al maar het lijkt me sterk dat een bedrijf als LG of Sony of Xiaomi ofzo zijn eigen SoCs gaat ontwerpen. Te veel geld voor te weinig verschil.
de nieuwe 888 chip met 8 cores die nog in "geen enkele telefoon" zit

mi11
https://www.gsmarena.com/xiaomi_mi_11-10656.php

global lauch zal niet zo lang meer duren
https://www.gizmochina.co...-11-global-launch-teaser/
Naja, wauw 1 telefoon dan die ik nog niet eens kan kopen. Veranderd er niet heel veel aan natuurlijk dat de iphone chip van sep 2019 even snel is.

[Reactie gewijzigd door SpaghettiCake op 24 juli 2024 16:27]

niet fanboy bedoeld in deze benchmark is dat weer waar en heb je gelijk
pak je bijv. antutu
dan scoort de 12 PRO MAX overal 648439 punten
https://www.antutu.com/en/ranking/ios1.htm

en de MI 11 met de SD 888 702480

https://www.gsmarena.com/..._on_antutu-news-47028.php
https://www.antutu.com/en/ranking/rank1.htm

wat weer 8% hoger is
dus in de praktijk presteren ze hetzelfde en zal de gebruiker weinig verschil merken

edit
de A13 van de Iphone 11 513617 (dat is wel 36% verschil)

[Reactie gewijzigd door xtrme op 24 juli 2024 16:27]

In de link de zie ik dat de Apple chip toch duidelijk beter presteert.
Daarnaast denk ik dat als je de performance/watt er bij pakt dat het Apple op dat gebied duidelijk voor loopt. Een chip die sneller is is leuk, en chip die zuiniger is is ook leuk, maar een chip die sneller EN zuiniger is een duidelijke voorsprong.
Ik verwacht dat x86 CPU’s het nakijken gaan hebben. De eenvoudigere instructieset van ARM maakt veel efficiëntere CPU’s mogelijk.
ARM mag dan misschien in rekenkracht enorme sprongen gemaakt hebben, maar er is nog geen platform ontwikkelt. Waar is de IO?
Dat vergt samenwerking met andere partijen, afspraken maken, standaarden creëren. Daar gaat Apple geen deel van uitmaken.

Je ziet dat ARM op allerlei plekken waar integratie gewenst veel markt wint/heeft, omdat daar verder geen afspraken voor nodig zijn.
Dat is de echte kracht van AMD en Intel, decennia lang een industrie gevormd waar alle partijen als bouwstenen een groter geheel vormen. En dat is ook meteen het probleem van x86, ze zijn als het ware gegijzeld door hun eigen klanten en partners. Je kan dan niet zomaar breken met legacy, want klanten.
Ik verwacht dat x86 CPU’s het nakijken gaan hebben. De eenvoudigere instructieset van ARM maakt veel efficiëntere CPU’s mogelijk.
Maar wie zegt dat Apple een schok teweeg gaat brengen in de pc-/laptopwereld? Was dat niet ook de verwachting toen Apple overstapte op PowerPC? Maar uiteindelijk is PowerPC niet populair geworden.
Vreemd dat omdat het over Apples M1 gaat het proces en het procedé er opeens toe doen. Dit deed er nooit toe toen het alleen nog maar Intel en AMD of Qualcomm was. Toen hoorde je niemand over het proces of het procedé.
De vraag is wat je wil beoordelen:

De M1 als ontwerp vs. het ontwerp van de 8cx; die overigens al een jaar oud is.
Of een Mac met M1 als product vs een HP Elite Folio met het gedrocht genaamd Windows.

In het geval dat je het Apple ontwerp wil vergelijken met een Qualcomm ontwerp, dan is de vergeljking M1 vs. 8cx totaal nutteloos. Ik ben geinteresseerd in het ontwerp, want hoeveel TSMC N5 beter is dan N7, of Mac OS beter geoptimaliseerd voor ARM dan Windows is al lang bekend. Niet boeiend. Maar als anderen niet geinteresseerd zijn in de ontwerp-capaciteiten van Apple vs QCOM, ook prima natuurlijk.

Wil je een Mac boek vergelijken met een HP Elite Folio, ja, dan heeft het zin. Dus "er wel of niet toe doen": Dat hangt helemaal af wat je wil vergelijken.

[Reactie gewijzigd door kidde op 24 juli 2024 16:27]

Het is heel lastig te zeggen. Er zijn een aantal dingen waar ARM het heel goed doet, voornamelijk voor laptops is het een erg interessante optie vanwege batterij duur, maar het hele alles in een chip idee is wel lastig te verkopen in een desktop form factor. We hebben ook nog geen idee hoe de prestaties bijvoorbeeld zijn met extern RAM of externe GPU, omdat dan het voordeel van een alles in een chip wegvalt.
Het is duidelijk momenteel een interessante alternatieve optie, maar of het de toekomst is dat moeten we nog zien.
maar het hele alles in een chip idee is wel lastig te verkopen in een desktop form factor.
Ik denk dat dat helemaal niets uitmaakt, mits er voldoende aanvullende mogelijkheden zijn - m.n. waarschijnlijk voldoende PCIe lanes.

En ik vraag me af hoe dicht we op dit moment egenlijk al bij een soc zijn voor desktops. Een AMD Ryzen processor kan zelf al best veel, meen ik. En volgens wikichip is de x570 chipset gewoon een ryzen IO-die. Dat zou wellicht betekenen dat een Ryzen chip al bijna een soc is, en je ook een desktop kunt maken met enkel een Ryzen desktop chip, met een externe grafische kaart. Helaas kan ik zo snel geen details vinden die die hypothese ondersteunen of ontkrachten.
Leuke mashup tussen een laptop en een tablet. Daar is wel markt voor (in ieder geval mij lijkt het wat) om op de bank en in de trein en vliegtuig een energiezuinig apparaat te hebben met het gebruiksgemak van een laptop - waar ik dan de rekenkracht niet nodig heb (en de apps, Windows heeft dacht ik nog geen Rosetta) . 24 uur accuduur is voor mij echt een belangrijke factor, zou het 18 uur zijn, soit ook prima ik moet ook slapen.
Helaas vragen ze er dan ook vaak laptop prijzen voor en dan valt het onderscheidend vermogen snel weg helaas, dus ik ben benieuwd naar de prijsstelling.
Wat bedoel je met “Windows heeft nog geen Rosetta”?

Windows 10 op ARM heeft een compatibility modus waardoor 32-bits Windows applicaties al sinds de Surface ProX uit kwam gewoon draaien. Sinds een paar weken werkt dit ook voor 64-bit applicaties. Wellicht niet feilloos maar zeker voor de meeste software werkt dit gewoon.
Wellicht niet feilloos maar zeker voor de meeste software werkt dit gewoon.
Dit is niet wat Linus liet zien in zijn video over de Surface pro X SQ2 vs de MacBook Air. Vrijwel elke x64 applicatie crashte op Windows binnen 30 seconden. Sommige wilde niet eens opstarten.

https://m.youtube.com/watch?v=OhESSZIXvCA&t=219s

Het werkt namelijk niet gewoon. De meeste software die in emulatie draait op Windows is vreselijk traag. Dit geld dan voor 32 bits omdat 64 bit software niet eens draait.

Ik weet dat we Microsoft allemaal willen zien slagen met Windows om ARM en willen zien dat ze beter zijn dan Apple maar we moeten wel beetje realistisch blijven over Windows 10 emulatie. Er is Genoeg bewijs die zelfs sinds de eerste surface pro x laten zien dat het gewoon niet goed werkt. Wat ook te wijten is aan de (in vergelijking met de M1) super langzame SOC die erin zit.

En verder klopt het natuurlijk wel wat @franssie zegt. Windows heeft geen Rosetta en de emulatie die Windows doet is ook op geen enkele manier te vergelijken met Rosetta. 😂

[Reactie gewijzigd door Snowfall op 24 juli 2024 16:27]

Het grote probleem is dan ook niet het ontbreken van een binary translator zoals Rosetta, maar het feit dat het gewoon lastig is bestaande software gecompileerd te krijgen voor ARM vanwege het ontbreken van functionaliteit in Windows zelf en het ontwikkelproces in het algemeen.

Daarom kan het tot nu toe slechts beschouwd worden als een platform voor ontwikkelaars en early adopters, terwijl Apple M1 apparaten daadwerkelijk gebruikt kunnen worden door iedereen om hetzelfde te doen wat op de Intel Macs ook al mogelijk was.

Soms vraag ik me af of Microsofts eigen ontwikkelaars de Windows on ARM apparaten als hun primaire en enige ontwikkelplatform gebruiken zoals Apple- en Linuxontwikkelaars dat wel doen op hun (high-end) ARM apparaten. Zonder dogfooding komt een nieuw platform nooit van de grond.
Hoewel de M1 Macs een stuk functioneler zijn dan Windows on ARM, denk ik wel dat je een slag om de arm moet houden als we paren over "wat op de Intel Macs ook mogelijk was".... Er mist nog behoorlijk wat aan de M1 en M1-based macs voordat ze functioneel gelijk zijn aan de "oude"..... Vooral aan periferal ondersteuning en video opties lopen ze nog wel een stukje achter.
urrrr.... Wellicht moet je het filmpje nog eens kijken.

Het enige wat er crashed zijn benchmarks. De laatste keer dat ik die nodig had voor mijn dagelijks werk was..... nooit. Linus test nergens de werking van normale productiviteit software die normale gebruikers zouden gebruiken.
Het is ook absoluut niet de ervaring die we hier hebben. De Surface ProX heeft weinig moeite met het draaien van normale gebruiks-software, zoals je zou verwachten dat je dit apparaat gebruikt. De Surface Pro is helemaal niet bedoelt (of geschikt) voor Photoshop. Het is echter geen enkel probleem om Office, Edge, VSCode, Notepad++, Teams, Zoom, Discord, Slack te gebruiken.

Je claim dat "Vrijwel welke x64 applicatie crasht...." wordt niet alleen niet onderbouwd door de video, hij heeft ook geen enkel raakvlak met de echte wereld.
Het gros van de applicaties die je opnoemt heeft gewoon ARM versies, dus dat zijn erg slechte voorbeelden. Welke x64 applicatie gebruik je?
x64? Geen een, die worden simpelweg nog niet ondersteund. Daar wordt aan gewerkt op dit moment. x86 zou wel moeten werken.
x64? Geen een, die worden simpelweg nog niet ondersteund.
Fout: nieuws: Microsoft begint publieke test met x64-emulatie Arm-versie Windows
Ja, het is nog niet op het stabiele kanaal, maar het wordt wel degelijk ondersteund.
Alpha/Beta software kan je niet beschouwen als publiek beschikbaar, als stabiel of als ondersteund.
Ze brengen er updates voor uit, dus het voldoet aan de definitie "ondersteund".
Volgens mij moet dit wel al werken, zoals dus op de Surface Pro X.
En x64 is waar de hele discussie over ging... Heb je het wel helemaal gelezen?

[Reactie gewijzigd door unilythe op 24 juli 2024 16:27]

De laatste keer dat ik die nodig had voor mijn dagelijks werk was..... nooit. Linus test nergens de werking van normale productiviteit software die normale gebruikers zouden gebruiken.
Linus gebruikt voor zijn werk dat dus wel en het is dus onwerkbaar. Dus omdat jij het niet dagelijks gebruikt is t opeens geen issue?
et is echter geen enkel probleem om Office, Edge
Dat mag ik hopen. Het is MS zijn eigen Software.
VSCode, Discord, Teams, Slack
Nu benoem je dus ook geen geprogrammeerde hoogstandjes. Deze applicaties zijn allemaal geschreven in Electron. (dus Javascript). Electron werkt sinds versie 6.0.8 gewoon op Windows on ARM. Dus heeft weinig met emulatie te maken. Meeste daarvan zullen Native draaien. Je moet niet vergeten dat Electron zelfs op een broodrooster zou kunnen draaien ;)

Als je kijkt naar complexe software zoals Benchmarks is t verhaal namelijk heel anders. Dat zag je ook toen Photoshop en Premiere nog gemuleerd moeten worden. Was vrijwel onwerkbaar. Wanneer je op de Surface Pro X support forums kijkt word er ook vreselijk geklaagd over de emulatie die crashed wanneer het om complexere software gaat. Studio waar ik voor freelance hebben ze x64 emulatie ook al getest en het is nog steeds een drama. Affinity photo en Affinity designer zijn bijv x64 en de emulatie ervoor crashed gewoon regelmatig. Figma werkte bijvoorbeeld helemaal niet. Jij zal dan wel meer geluk hebben dat ze bij ons hebben, maar feit blijft gewoon dat MS emulatie gewoon rotzooi blijft vergeleken met Rosetta 2. En dit komt gedeeltelijk omdat de SQ2 SOC gewoon te langzaam is.
De Surface Pro is helemaal niet bedoelt (of geschikt) voor Photoshop
O? Is dat zo? Dat is niet wat Microsoft beweerde met de introductie van de Surface Pro X. Daar heeft Adobe zelfs nog gesproken over Photoshop en Premiere op de Surface Pro X en dat de oneindige performance van de Surface Pro X dit allemaal zonder problemen mogelijk maakt.
Ik maak mij zeer veel zorgen over de duurzaamheid van dit product. Kunstleer staat niet bekend om de goede duurzaamheid bij veelvuldig vouwen, om telefoonhoesjes als voorbeeld te nemen waar na 1,5 a 2 jaar het hoesje zo goed als uit elkaar valt op de vouw.
In het geval van dit folio model is de vouw zelfs nog scherper dan dat bij het plat leggen van het scherm.

Ik hoop dat HP hier goed over nagedacht heeft.
Je hebt kunstleer en je hebt kunstleer. Veel kunstleer in auto's gaat makkelijk 10 of meer jaar mee zonder dat het heel lelijk wordt.
Zeker, echter moet dat behandeld worden om dat soepel te houden. Maar dat maakt ook geen vouwen van 180 graden elke dag.
Je hebt kunstleer en je hebt kunstleer.
Klopt. Alcantara bijvoorbeeld. Vaak is het makkelijker te reinigen als echt leder. Echter de kunstlederen rugleuningen van een tweetal eetkamerstoelen hier, had toch gaten bij de eerste poging van de kat om zijn nagels er in te zetten. Daar scoort echt leder beter, en dus duurzamer.
Veel kunstleer in auto's gaat makkelijk 10 of meer jaar mee zonder dat het heel lelijk wordt.
Op de leeftijd van een auto is 10jaar niets. De gemiddelde auto gaat in Nederland 19 jaar mee, en de trend is omhoog tenzij de elektrisch aandrijving, en dan vooral de accu's (als die duur blijven) roet in het eten gooien. De hogere prijs van elektrische auto's kan echter ook nog wel eens ervoor zorgen dat mensen voorlopig langer met hun brandstofmodelletje blijven rijden omdat elektrisch voor hen in aanschaf of acculease te duur is.
Ik begrijp niet waarom het kunstleer wordt genoemd. Kunstleer is gewoon plastiek. Niets speciaal dus. https://en.wikipedia.org/wiki/Artificial_leather
"gewoon plastiek". Zo'n opmerking zegt eigenlijk al genoeg over jouw kennis van deze materie. Je hebt hele goedkope kunststoffen die snel lelijk worden, maar er zijn ook kunststoffen die veel en veel beter zijn dan natuurlijke materialen.
Volgens de info zoals op de door jouw gegeven link is het zeker niet alles en alleen 'plastic'. Er zitten voor mij verrassend creatieve alternatieven in.

Waarom het als een 'feature' naar voren zou worden geschoven ? Soms is leer wellicht gewoon niet mogelijk of gewenst !?

Marketing grijp in elk geval alles aan om iets begeerlijk te laten klinken. Kunst'leer ' wekt daarbij wellicht nog enige positieve associate terwijl voor het gros dat bij de term plastic niet zo zal zijn. Dat hoewel plastic niet noodzakelijk slecht of verkeerd hoeft te zijn mits goed toegepast (zie de hele discussie omtrent telefoons)
Grappig, ik heb ooit zoiets gehad van Sony, de vaio Fit Multiflip. Maar dan met intel.

Was grappig opzich (tot de accu's begonnen te ontploffen en ik hem in moest leveren), maar ik weet niet of ik daar nu nog voor zou gaan.
Het 13,5"-scherm heeft een 3:2-verhouding een resolutie van 1920x1080 pixels.
Dat lijkt me onwaarschijnlijk? Dat zouden rechthoekige pixels moeten zijn dan...
Pcworld noemt alleen '1080p' en volgens digitaltrends wordt het 1920x1280 wat me een stuk logischer lijkt.
Ook notebookcheck heeft het over 1920x1280. Gok dat @Xtuv een foutje heeft gemaakt.
Tikfoutje ja, 3:2 is uiteraard 1280p. Gefikst!
Met deze hardware verwacht ik dat HP ook vrij snel/eenvoudig ChromeOS versies van de ze hardware kan maken. Zit dat ook in de pen?
Grappig, maar het scharniermechaniek ziet er wel best fragiel uit wetende dat je 'm buiten kantoor kunt gebruiken i.v.m. de LTE module dat die heeft.

Bij ons op werk zijn we een beetje kijkende naar wat mobieler dan een laptop, maar wel stevig + Windows.
De transitie van Windows naar ARM en de gebruikte emulatie doet me nu nog terug denken aan begin 2000 toen Transmeta met de Crusoe CPU op de proppen kwam die middels emulatie x86 code op een RISC instructieset draaide. In het bedrijf waar ik toen werkte hadden we een stuk of wat Sony Vaio laptops/netbooks met die CPU's. Het werkte maar verre van stabiel en verre van snel.
Hoop van harte dat MS nu wel slaagt met de transitie en dat ARM een waardig alternatief kan worden voor x86 op het Windows platform.

Op dit item kan niet meer gereageerd worden.