Vivo neemt marktleiderschap van Apple over in smartphonemarkt China

Het smartphonemerk Vivo heeft het marktleiderschap overgenomen van Apple in China in 2024. De smartphones van het merk waren populairder door deals met onder meer providers en de komst van AI-functies, claimen analisten.

Vivo X70 Pro+, 12GB ram, 512GB opslag Oranje
Vivo X70 Pro+

Het marktaandeel van Vivo steeg van 16 naar 17 procent, zo meldt de Financial Times. Huawei is in China nu de tweede partij met 16 procent, een groei van een kwart. Dat Chinese merken het goed doen in China, komt deels door kopers die per se een Chinese smartphone willen, zo schatten analisten in. Apples marktaandeel daalde van 19 procent naar 14 procent.

Die daling komt onder meer doordat de AI-functies waarmee Apple adverteerde in de VS in China helemaal niet beschikbaar zijn, terwijl concurrenten dergelijke functies al wel hebben.

Het marktaandeel van Apple zal komend jaar nog verder onder druk staan door subsidies vanuit de overheid om telefoons in te ruilen die een nieuwwaarde hebben van minder dan 6000 yuan. Alleen de reguliere iPhone 16 in de goedkoopste variant valt daaronder, naast oudere modellen van Apple. Veel telefoons van concurrenten zitten onder die grens, waardoor die vermoedelijk komende tijd betere verkopen kunnen verwachten. Vivo was een merk van BBK Electronics, waar ook OPPO en OnePlus onder vallen, maar is sinds 2023 zelfstandig.

Door Arnoud Wokke

Redacteur Tweakers

16-01-2025 • 20:39

66

Reacties (66)

66
66
34
0
0
24
Wijzig sortering
Ik ken op recht niemand die een telefoon koopt vanwege zijnAI features. Ik heb mijn vrouw een paar maanden geleden een galaxy flip 6 gekocht omdat haar oude s10e echt te oud was. Ze heeft de ai features 1 keer gebruikt en verder nooit weer. Deals met fabrikanten helpen zeker maar ook simpelweg dat de economie in China slecht gaat. Vivo telefoons zijn dan gewoon goedkoper dan iPhones.
+ de teruggave van 6000 yuan door de staat uit in de vorm van subsidies om nieuwe Chinese producten te kopen .. en Apple (aangezien het Amerikaans is) daar dus gewoon van de markt weg te concurreren ..

.. De relatie tussen China en de USA verloopt momenteel nu niet bepaald .. vlotjes .. :X
Dan voelen de Amerikaanse techreuzen ook eens hoe hun eigen beleid in andere land nadelig voor hun zelf uit pakt.

Los daarvan: AI is iets waar in China wel heel erg veel gebruikt wordt omdat het land anders in elkaar zit dan hier. Dus ik snap t wel.
Ik heb een Iqoo 12 (submerk van Vivo) en daar heb je met de BlueLM Copilot wel alle gebruikelijke AI functies. Alleen allemaal in het chinees en meestal alleen te gebruiken in hun eigen apps die in het chinees zijn of die andere china only diensten gebruiken. Dus hier heb je er niet zoveel aan. :)

Verder wel mooie telefoons hoor die van Vivo.
Ja en al je data gaat naar een of andere Chinese server lijkt me? Het is ook maar de vraag of je dat moet willen natuurlijk.
Oprechte vraag: maakt dat nu echt zo’n groot verschil voor particulieren (lees: bedrijven hebben uiteraard andere overwegingen)? Je data gaat naar Amerika of China, en in geen van beide gevallen lijkt het mij 100% veilig.
Nouja bij het gebruik van chinese AI diensten (als dat mogelijk is) zou het gevaar kunnen zijn dat je je (sociale) gedrag in grote mate deelt met een land waarbij het onder controle houden van de bevolking belangrijker is dan in een land als de VS. Of dat grote gevolgen heeft voor ons als niet chinees staatsburger is maar de vraag, maar ik kan me goed voorstellen dat de chineese overheid in grotere mate geintereseerd is in de ai data dan een andere land/regime.
Het gaat om een subsidie van 500 Yuan op apparaten die tot 6000 Yuan kosten. Een subsidie van 6000 Yuan is wel erg veel (wat bijna 800 euro is). En die subsidie gaat later dit jaar pas in, dus het heeft geen effect gehad op de positie van Vivo vs Apple in 2024.

https://www.notebookcheck...-stimuleren.943961.0.html

[Reactie gewijzigd door Ted_W op 17 januari 2025 07:42]

Ik persoonlijk ook niet, maar ik praat dan ook nooit over telefoons met mensen. Je kunt natuurlijk uit je eigen ervaring die je beschrijft niks zeggen. Dat je vrouw het niks vindt, zegt niks over de rest van Nederland. Misschien is de AI-implementatie van Samsung (op de Flip 6) gewoon niks waard. Misschien heeft Vivo wel boeiende dingen ervan gemaakt?

Het kan ook een cultureel ding zijn. Misschien vinden Chinezen dit soort technologieën belangrijker?
Vivo maakt goedkopere telefoons dan Apple. Vroeger waren er gigantische verschillen. Tegenwoordig zijn telefoons van 200-300 euro's geweldig. Maar in sommige kringen is Apple nog een groot status symbool. Vaak onder de jeugd, alhoewel dat in Nederland niet echt heerst.
Dat snap ik, maar kijk naar de percentages.
Apple van 19 naar 14
Vivo van 16 naar 17
Huawei blijft op 16

Uiteraard is 5% een flinke daling, maar het kan natuurlijk prima dat men daadwerkelijk gevoelig is voor het AI-gebeuren op die telefoons natuurlijk.
Apple heeft de laatste jaren vrij weinig ge innoveerd. Hun enige 'innovatie' dit jaar was dat Apple AI. En dat hebben ze niet in China. Dus ik kan enigzins wel begrijpen waarom ze daar niet echt in de rij staan voor iPhones. Ook in het Westen zijn de Apple verkopen enigzins gestagneerd.
Ho ho, ze hebben een kamera knop toegevoegd! Echt een ongelovelijke vooruitgang der techniek /s
Snelste chips op de markt?
Apple hefet zeker de beste chips. En misschien ook de beste software. Maar als ik aan innovatie denk dan zijn foldables iets wat echt anders is. Huawei heeft een hele coole gemaakt recent YouTube: I want this SO BAD (but I can't have it) - Huawei Mate XT Ultimate D...

Apple heeft wel een mooie (en dure) VR headset geinnoveerd. Maar dat is geen smartphone.
Innovatief?
Plasic klapscherm?
Levensverwachting minder dan een jaar 😆😆😆
Ik heb iPad Pro 12,9 120 Hz
6 jaar oud
Ja precies. Leg nu eventjes uit waarom je geen nieuwe iPad koopt.
Klopt. Er is überhaupt weinig echte innovatie in smartphones de laatste jaren. De hardware is pure evolutie (snellere/zuinerige CPU's/GPU's, andere camera's, enz.) De echte 'revoluties' zitten veelal in de software op de telefoons. En Apple neemt over het algemeen de meeste software-revoluties al jaren mee naar de oudere modellen.

(En ik moet zeggen dat ik de 'revoluties' van de iOS ook heel summier vindt hoor, maar als we al innovatie vinden, is het meer in de software dan de hardware.)

Maar wat voor 'innovatie' zien we bij andere merken? Ook niet echt toch? Ik heb echt het idee dat alle telefoonmerken qua hardware wel een beetje zijn uitontwikkeld? Misschien die vouwbare telefoons? (Heb ik persoonlijk geen interesse in, maar dat is allicht iets?)
Of dat mensen langer met hun oude apples blijven doen, dan dalen de verkopen dus percentueel veel meer en per saldo komen er meer telefoons bij, dus daalt ook het markt aandeel.
Mijn vrouw is een Koreaanse en ze is zelf ook echt wel open naar tech maar de AI die nu in een telefoon zit is gewoon niet zo nuttig. Er is niet 1 functie waar ik zelf ook van Inzie dit is iets dat ik NU moet hebben. Vivo heeft juist nog minder AI functies want de echte goeie LLM's komen uit Amerika nu. Het is gewoon echt een geld ding. Mensen hebben in Chinese minder geld, tegelijkertijd zijn vivo telefoons goedkoper en nu ook nog gesubsidieerd door de CCP.
Ik heb mezelf er helemaal niet in verdiept, maar is het echt puur LLM's die de AI-dingen voeden op telefoons? Of zijn er ook andere technieken aan de gang.

Ik zit persoonlijk ook niet te wachten op 'nog meer spul' op m'n telefoon. Ik wil juist zo min mogelijk spullen hebben draaien op m'n toestel. Maar goed. Dat ben ik.
Het is bijvoorbeeld “geneer en plaatje voor het scherm aan de voorkant zodat je die als achtergrond kan gebruiken. Wat live translate stuff enz. Zie de link hieronder.

https://www.samsung.com/n...egbqAR8Aae_G158VOlaYkwrwc
Ik heb welgeteld 1 keer de functies op mijn pixel gebruikt om ff te kijken, dat was het.
Ja precies en dan zijn de mensen hier op tweakers nogal “Into tech” de gemiddelde persoon is dat echt niet.
Ik heb 1 maal wat afbeeldingen gegenreerd op windows, en was niet onder de indruk, verder kan me die hele AI de pot op.
Ik ook niet. De AI staat ook nog in de kinderschoenen, zeker op telefoons.

Ik ken wel mensen die de OpenAI app veel gebruiken. Ik gebruik hem zelf niet omdat hij een Google account vereist, wat ik niet heb op mijn telefoon (ik heb wel play services maar geen google account). Ik vind het nog steeds vreemd dat ze je verplichten om een account te nemen bij hun directe concurrent 8)7. Maar ik heb mijn eigen AI server en die gebruik ik wel veel vanaf de telefoon.

Ik denk dat veel mensen zoiets ook veel liever losgekoppeld hebben van hun hardware.
Ik gebruik zelf de bing app. Daar zit ChatGPT ook in zonder limiet
Oh ja inderdaad.

Ik heb alleen een hekel aan Microsoft, vooral omdat ik er op het werk zo veel mee moet werken (en ik kan de houding van hun medewerkers niet uitstaan). Dus prive gebruik ik zo weinig mogelijk van hen.

Op het werk gebruik ik het wel (helaas verplicht) en het is inderdaad niet slecht.
Mag ik vragen wat je daarvoor gebruikt (hardware en welk LMM)? En of je dit in de cloud of thuis draait en hoe de performance is?

Ben zelf op zoek naar een CUDA gpu voor AI maar weet niet echt wat de sweet spot is (ik wil niet veel uitgeven maar wel redelijke performance, dus het zal sowieso op 1 of andere manier behelpen zijn) zowel qua rekenkracht als qua memory(bus).
Ik gebruik een Ryzen 5 5600, Radeon Pro VII (was 289 euro nieuw toen ik hem kocht) 16GB, meestal gebruik ik llama3.1 8b uncensored. Deze kaart heeft 1TB/s geheugen bandbreedte, evenveel als de 4090. En dat is belangrijk met LLM inference. Ik krijg ongeveer 40-50 tokens per seconde met niet al teveel context (zodra de context toeneemt wordt het trager, logisch). Ik wil ook Phi-4 nog eens proberen maar geen tijd voor gehad (bovendien is daar volgens mij nog geen uncensored versie van). En als ik die draai op mijn 16GB kaart dan hak ik wel heel diep in de maximale context size. Ik kan nu tot iets van 80k tokens met het 8b Q8_0 model en K/V (context) quantificatie ook 8 bits. Op zo'n kleine kaart is context erg 'duur' qua geheugen.

Dit is dus een ROCm GPU. Daarmee zit je goed met Ollama (wat ik gebruik) maar andere dingen kan je vergeten, zoals faster-whisper. CUDA is beter ondersteund inderdaad. Maargoed met deze kaart zat ik wel voor een dubbeltje op de eerste rang.

Voor een heel licht budget zou ik gaan voor een tweedehandse 3060 12GB, die zijn meestal wel onder de 200 euro te vinden. Ik denk er ook over om er zoeentje bij te kopen voor faster-whisper en speech to tekst modellen (welke weet ik nog niet). Want op de GPU is het redelijk sloom. En dan kan ik de Radeon gewoon vrijhouden voor het LLM gebeuren (bovendien kan daar toch geen whisper op).

Overigens heb ik ook de cloud wel gekoppeld. Ik heb koppelingen met OpenAI, Anthropic (via LiteLLM omdat ze geen OpenAI interface bieden) en Groq momenteel. Frontend gebruik ik OpenWebUI en soms SillyTavern.

Natuurlijk is een 8b lang niet zo goed als wat je in de cloud vindt, bijvoorbeeld een GPT-4. Maar het valt me heel erg mee mits je bij Engels blijft. En als ik naar kennis vraag koppel ik het toch altijd aan een zoekmachine actie (dus de LLM vat alleen de resultaten samen). Want als vraagbaak heb je niks aan een 8b model. Maar ook GPT hallucineert me te vaak dus grounding met een zoekactie is nooit een slecht idee. Ik heb daar SearXNG voor draaien (alles lokaal, alleen SearXNG draait op een VPS).

Ik doe wel eens proefjes waarmee ik mijn eigen prompts ook in de cloud draai en echt veel beter zijn ze voor mijn usecases niet. Ik gebruik het als chatbot, samenvatter en ik ben bezig wat scripts te programmeren zodat hij uit nieuwsfeeds dingen kan pikken die me interesseren. Voor dat soort 'fuzzy' dingen zijn LLM's veel beter geschikt dan strakke implementaties met keywords.

En uiteindelijk denk ik er over om hem ook mijn chats te laten samenvatten, bijvoorbeeld groepschats waarvan ik geen tijd heb om ze bij te houden. Daar ben ik nog aan bezig. Juist in dat geval is het heel belangrijk het lokaal te hebben want ik wil uitspraken van vrienden natuurlijk niet ongevraagd de cloud in blaffen. Lokale modellen lijkt me niet zo'n probleem daarvoor want er gaat geen byte naar buiten op die manier. Maar of ik dat ga doen ben ik nog niet over uit.

[Reactie gewijzigd door Llopigat op 17 januari 2025 23:22]

Ten eerste, bedankt voor uw uitgebreide reactie!

De CPU had ik nog niet eens over nagedacht. Ik hoop mijn LLMs virtueel te draaien, heb jij hier ook ervaring mee? en hoe belangrijk is de cpu (gebruik zelf de 5600g voor virtualisatie)?

AMD wil ik voor AI helaas niet aan beginnen (geprobeerd werkend te krijgen met een Vega 56 maar dat is dus niet gelukt).

Met betrekking tot contexts en tokens zeggen nummers mij niet zo veel. Ik gebruik ook geen cloud AI dus ik denk dat ik degene ben die hier niet genoeg context heeft ;)
Ik zat zelf te denken aan een goedkope Nvidia kaart maar weet niet hoe groot de impact van de kleine memory bus zal zijn, erg lastig te schatten. Aan de andere kant zijn bijna alle 16gb kaarten van Nvidia echt flink boven mijn budget helaas (damn you market segmentation!)

Misschien moet ik Searxng ook eens op zetten, ik heb op het moment Whoogle draaien.

Behalve de door jou genoemde usecases zou ik ook nog met Stable Diffusion willen spelen. Daarnaast vast nog meer dingen maar daar zal ik tzt wel achterkomen neem ik aan.

Verder ben ik het compleet eens mbt alles/zoveel mogelijk lokaal houden.
De CPU had ik nog niet eens over nagedacht. Ik hoop mijn LLMs virtueel te draaien, heb jij hier ook ervaring mee? en hoe belangrijk is de cpu (gebruik zelf de 5600g voor virtualisatie)?
Nee ik draai ze niet virtueel maar aangezien je LLM toegang nodig heeft tot de GPU (voor serieuze prestaties) kan je dat al niet echt virtualiseren (GPU's kan je niet virtualiseren, alleen via vt-d aan een virtual machine aanbieden). De CPU was voor mij vooral belangrijk voor energieverbruik en text to speech performance. Ik had eerst de 2600 (die ik nog had liggen) en dat scheelde toch 5 watt standby en bovendien is text to speech een stuk sneller.

Maar je doet een lokale server vooral voor de snelheid en dan zou ik geen technieken als virtualisatie gebruiken eigenlijk. Al kan je de meeste tools wel in docker draaien en dat doe ik ook, met uitzondering van ollama die ik wel lokaal draai.
AMD wil ik voor AI helaas niet aan beginnen (geprobeerd werkend te krijgen met een Vega 56 maar dat is dus niet gelukt).
De Vega 56 wordt misschien niet ondersteund door ROCm. Nvidia ondersteunt zo'n beetje alle kaarten met CUDA. AMD helaas niet. Voor mijn kaart worden er ook geen verdere optimalisaties aangebracht voor ROCm helaas. Het is niet anders. Het is inderdaad geen geweldige optie. Maar ik had gewoon heel toevallig die kans omdat deze kaart toevallig uit de verkoop liep en daardoor voor een belachelijk lage prijs te krijgen was (nieuw was hij rond de 2500 euro). Voor de hardware die je krijgt was het een enorm goede deal. En ja voor Stable Diffusion en dergelijke heb je volgens mij ook CUDA nodig.

Context is de prompt die je er in stopt. Dat gaat in tokens, dat zijn delen van woorden. Hoe lang die precies zijn hangt af van het woord, het is niet 1:1 vergelijkbaar met bytes. Llama3.1 heeft bijvoorbeeld een maximale context grootte van 128k tokens. Dat is behoorlijk veel, dus je kan er een compleet document in stampen. Helaas loop je dan dus wel gauw uit je geheugen. Ik kom tot ongeveer 80k tokens, daarna gaat hij uit zijn geheugen lopen en moet hij het werkgeheugen gaan aanspreken waardoor alles enorm traag wordt.

Met een 12GB kaart zal je veel minder context kwijt kunnen omdat het model even groot blijft, tenzij je model flink gaan quantiseren waarbij de prestaties achteruit gaan. Als je het precies wil weten kan je deze calculator bekijken: https://huggingface.co/sp...LLM-Model-VRAM-Calculator

Llama 3.1 8b met 8 bit quantisatie is daarmee dus wel mogelijk maar je zal het bij kleine contexts moeten houden. Ga je hele discussies houden met over en weer vragen of documenten uploaden dan zal je uit je VRAM lopen. Het hangt daarmee heel erg van je gebruik af. Niet elke usecase heeft veel context nodig.

Met Phi-4 heb je nog een stuk meer dan 16GB nodig om er echt goed gebruik van te maken met een grote context. Gebruik je korte prompts dan kan het wel op zich.

En ja ik kan SearXNG aanraden. Ik draaide het al en het was bovendien de eerste metazoekmachine waar OpenWebUI mee kon praten. Ik krijg ongeveer dezelfde kwaliteit antwoorden als met Kagi (betaalde metazoekmachine) en dat vind ik erg netjes.

[Reactie gewijzigd door Llopigat op 18 januari 2025 20:52]

Voor zover ik weet kan je de GPU gewoon via passthrough aan een virtueel systeem hangen toch? Zo probeerde ik dat op de Vega in elk geval, en had inderdaad moeite om uberhaupt een werkende ROCM te vinden voor die vrij oude kaart. Het zou kosten-technisch wel fijner zijn om gebruik te maken van mijn huidige NAS aangezien daar nu maar een tweetal VMs op draait.

Die contexten en tokens maakt het inderdaad ingewikkeld qua welke kaarten het interessant zijn, ik ga denk ik eens rond kijken en misschien wat wachten op een dealtje voor een 2e handse kaart met 12-16gb vram.

Mbt dat quantizen, daar ga ik voor nu nog even niet aan beginnen tot ik wat meer ervaring opdoe.

In elk geval bedankt voor de waardevolle informatie.
De grotere modellen zal ik nog even moeten laten voor wat ze zijn voorlopig.
Het is ook juist reden voor vraagtekens. Een extra chip buiten de kern die ergens prestaties verbetert is onwaarschijnlijk. Daarmee kom ik tot de conclusie dat het ergens anders voor is.
Je ben nog niet zo oud geloof ik. Vroeger hadden we Co processoren, geluidskaarten , en nu ook nog grafisch kaarten. Die telen natuurlijk niet mee
Leg het eens uit dan. Een smartphone met een bepaalde SoC met tegenwoordig meerdere interne cores kan door een chip buitem het systeem worden overtroffen? Dat ontkracht eigenlijk het hele idee dat chips zo compact mogelijk moeten zijn om een be-oogde prestatie te halen.
Overigens, voor zover ik weet is het praktische voordeel van een 387 nooit aangetoond. In ieder geval niet bij normale toepassingen. Dual CPU had je ook al vroeg. Dat is alleen maar te benutten met een toegespitste taak. Een programma dat weet dat er 2 rekenmachines zijn.
Dit is geen performancekwestie. Een 386 had geen FPU, de 387 was de FPU. Als je floating point berekeningen wilde doen dan gaat dat dus niet op de 386, die kan alleen fixed point (integers), en moest je een 387 coprocessor installeren. De coprocessor wordt dus enkel gebruikt voor floats, en niets anders. Als je applicatie geen floats gebruikt voegt de coprocessor niets toe. Als je applicatie wel floats gebruikt dan draait hij überhaupt niet zonder coprocessor. Net als dat je CPU tegenwoordig geen shaders bevat, daarvoor moet je een GPU installeren. Als een applicatie shaders gebruikt zullen die in de GPU gedraaid worden. Heb je geen GPU dan draait de applicatie niet.

[Reactie gewijzigd door Bazz0847 op 16 januari 2025 23:44]

Als je floating point berekeningen wilde doen dan gaat dat dus niet op de 386, die kan alleen fixed point (integers), en moest je een 387 coprocessor installeren.
Zonder 387 installeren ging wel, maar softwarematig, lees: langzaam.
Precies; goniometrische functies, FDIV, FMUL, etc moeten dan via alternatieve instructies op de 386 die veel meer clock cycles kosten. Volgens mij moest dat echter wel door de software zelf gedetecteerd en afgehandeld worden; bijvoorbeeld FDIV wordt meen ik niet door de 386 zelf wordt uitgevoerd als er geen 387 aanwezig is. Als de software eigen implementatie van die instructies heeft in 386 instructieset dan draait het niet.

De 80386 set bevat geen FMUL:
https://media.digikey.com...%20pdfs/intel386%20sx.pdf

De 80387 set bevat die wel:
https://www.ardent-tool.c...datasheets/271074-006.pdf

[Reactie gewijzigd door Bazz0847 op 17 januari 2025 10:59]

Wiskundige berekeningen? Je software moet het alleen wel kennen. Volgens mij voegde het een totaal andere instructieset toe. Ik geloof dat het merkbaar was in Autocad. Althans, sommigen beweerden dat.
Was wel meer dan merkbaar in de autocad. Zonder co processor was dat op de 386 onwerkbaar.

Met werkte het naar de normen van die tijd best prima. Om de Spaceshuttle gerenderd te zien worden en daarna via de plotter afgedrukt was echt magisch.
Op een c64 had je een videochip en een geluidschip naast de processor. Amiga had dat ook en dus kon je met relatief weinig rekenkracht hele mooie dingen doen.
Dat zat toen allemaal gewoon op de main bus. Cartridges ook.
8-bit was nog zo langzaam dat de afstanden tussen chips bijna geen verschil maakten. Ik had Double Dragon voor Atari 2600. Die had een heel lang 1-kanaals muziekstuk. Daar was een zware cartridge voor nodig.
Met zo'n externe AI chip vraag ik me echt af wat het zou kunnen verbeteren. Alleen al data uitwisselen met de CPU kost als je het mij vraagt meer tijd en energie dan wanneer je hetzelfde in alleen maar ARM-instructies doet.
De interne cores van een default SoC zijn allround cores, best goed in het meeste, maar blinken nergens in uit. Specialistische cores kunnen 1 ding heel goed, en de rest _niet_. Daarom heb je aparte cryptografische cores soms (heel goed in SHA256 bijvoorbeeld), of grafische cores (heel goed in matrix-vermenigvuldigingen), of nu dus AI-cores (lees: NPUs, die goed zijn in hetzelfde soort matrix-vermenigvuldigingen, maar dan met lage precisie). Een factor 100 verbetering is geen uitzondering.

Chips hoeven niet per se zo compact mogelijk te zijn, maar dat kan helpen om kosten te verlagen, of te zorgen dat data handiger van A naar B kan (want minder interconnects over trage layers nodig).
Back to de mathematical co-processor van het jaar Kruik: die deden wel degelijk wat zodra je met floats ging spelen. Destijds hoogst relevant voor grafische berekeningen (renderen etc), wiskundig werk et cetera. Niet iets wat Sjon Bierkrat deed wellicht, maar als je het toevallig wel deed was zo'n coproc z'n gewicht in goud waard.

Dual CPU ken ik vanaf de Pentium Pros (voor normale mensen, de Cray X-MP etc laat ik even), en is sowieso een niche gebleven. Da's wel wat anders dan dualcore, of octocore of weet-ik-hoeveel-cores ze nu in een SoC prakken, vaak allemaal net even iets anders. Die worden wel beter benut nu, zeker met de overdosis dingen op de achtergrond, die dan naar een energiezuinige core geduwd worden, of gewoon parallel afgehandeld kunnen worden.

[Reactie gewijzigd door FreezeXJ op 16 januari 2025 23:37]

Apple maakt die software toch ook, dus kan het ook weten wanneer hij het meeste efficient die chip kan aanspreken.
Welke software? Volgens mij zou het voordeel van een computer met een externe chip buiten de core hard aantoonbaar moeten zijn adhv de tijdsduur van bepaalde rekenkundige toepassingen. Wat gaat er beter? Compressie, renderen, virtualisatie, iets... Probleem is dat het pas zin heeft als iets volledig intern langer duurt. Ik denk een scenario dat nooit voorkomt omdat transistor-logic nou eenmaal het snelst is met alle onderdelen bij elkaar in een chip met zo weinig mogelijk bedrading.
Wat ik amderzijds nog wel zie gebeuren is dat providers hier voor geld aan mee gaan werken en die chips buiten TCP/IP om data gaan laten uitwisselen. Dan kunnen AI-bedrijven 24/7 je telefoon scrapen. Dat willen ze vast wel graag.

[Reactie gewijzigd door blorf op 17 januari 2025 18:55]

Een 386SX met coprosessr waardoor het de prestaties hagd van een 386DX

Leuke tijden waren daþ 😎
alle phones krijgen een npu of tpu er naast. ook de samsungs en iphones.

Of heeft de alu folie ingefluisterd dat het backdoor chips zijn ?
slecht ? groei van 5% is nog altijd groei. vergelijk dat met de rest van de wereld, in Duitsland en veel landen is er zelfs recessie of stagnatie.
China is een export land, dus als er stagnatie is in de rest van de wereld is er automatisch minder vraag. als je dan alsnog 5% weet te groeien is dat juist erg goed.
Waar dit artikel niet op ingaat en wat veel waarschijnlijker is waarom Apple zo slecht presteert is dat China in een economische malaise zit. Shanghai wat de sterkste economie van het land heeft, heeft de afgelopen 2 jaar kwartaal op kwartaal de belastinginkomsten van bedrijven zien teruglopen, sommige kwartalen double digits. Helaas is de overheid gestopt met het vrijgeven van deze data sinds afgelopen zomer.

Luxe merken zoals Gucci, Prada, LV sluiten voor het eerst winkels en verwachten stuk voor stuk een teruggang in omzet. Porsche verkoopt voor het eerst auto's onder MSRP in China. De verwachting voor het afgelopen jaar is dat de luxe markt met 30% is ingekwakt en dat deze trend doorzet.

Dus dat Apple het minder goed doet dan budget merken zoals Vivo zal niemand verrassen en is eerder kenmerkent voor de staat van de economie.

Dat Apple niet innoveert is niet anders dan andere merken, noem mij nou een mobiel leverancier die iets verrassends laat zien. Ook is het niet zo dat Apple "onderpresteerd" als het op AI aankomt (overigens moet ik nog een mobiele gebruiker tegenkomen die iets zegt over hoe geweldig de AI is op zijn mobieltje, dat interesseert niemand een drol).
Hmmmmm, het enige waarop Apple nu op inoveert, zijn die M chips, verder zie ik ontzettend weinig nieuws uit de Apple stal komen, die bril is geflopt, en waar zijn de vouwbare telefoons? Samsung zit al bij versie 5.

Maar inderdaad, het gaat bar slecht in China, en dan is de Apple belasting gewoon te duur. Chinese telefoons zijn nu eenmaal een stuk goedkoper.
Apple hoeft wat mij persoonlijk betreft (als iemand die simpelweg smartphones gebruikt) niet persé te innoveren, maar eerder de innovaties die je noemt te volgen en eens een keer goed afkijken bij Android. Ik gebruik zowel iOS als Android, en die laatste is tegenwoordig echt gebruiksvriendelijker wat mij betreft. Iets simpels als van links naar rechts vegen om “terug” te gaan werkt universeel in Android, terwijl het bij iOS per applicatie afhankelijk is.

Als Apple het besturingssysteem niet binnen een paar jaar op gelijke voet weet te zetten zal dit (iPhone 15 pro waarop ik dit typ) waarschijnlijk voorlopig mijn laatste iPhone zijn, terwijl ik over de M-chip laptops wél altijd erg te spreken ben en zonder twijfel weer zo’n laptop zou kopen als mijn huidig het begeeft.
Apple is groot geworden door die innovatie, en nu hobbelen ze er achteraan, weet niet of dit goed is voor het bedrijf, stilstand is achteruitgang. Het feit dat jij nu dus overweegt over te stappen geeft al goed aan dat ze te weinig doen.
Absoluut. Ik ben dan ook zeker geen Apple fanboy, al zou je dat misschien wel zeggen vanwege al het Apple spul dat ik thuis heb liggen.
Interessant inzicht!

Ik heb overigens m'n iphone 15 pro verkocht omdat die ai features zo halfbakken werken en gebruik nu erg veel gemini op m'n pixel 9 pro; er zijn dus gebruikers die er waarde aan hechten 😜
Porsche verkoopt voor het eerst auto's onder MSRP in China.
Daar geloof ik werkelijk niets van, ben dan ook gestopt met lezen van je reactie want lijkt volledig uit de lucht gegrepen. Heb je een bron waaruit blijkt dat Porsche de voorbije jaren elke auto aan MSRP verkocht? Geen enkel luxe automerk doet dit namelijk, 5 tot 10% krijg je heel gemakkelijk. Zelfs zonder te vragen wordt er altijd wel een commerciele tegemoetkoming gegeven.
vivo X200 Pro is een van de beste smartphone camera
Dat zal misschien wel . maar apps van insta en facebook posten betere foto's met een apple telefoon. Tevens voor video is er niets beter dan een iphone. Beeld stabilisatie en geluids opname is gewoon het beste op een iphone.

Tevens reparatie van een iphone kan overal.

Ik ben een android gebruiker en zal nooit een Chinese brand telefoon kopen. Software updates zijn er nauwlijks, en garantie is ook een ding. Mijn LG velvet is end of life na 4 jaar en wordt dit jaar vervangen
De punten die je hier noemt zijn binnen China niet van belang.
Meta en Google zijn er niet beschikbaar. Binnen China zijn er andere apps die gebruikt worden.

Deze telefoons worden ook niet primair ontwikkeld voor de markt buiten China.
Sommige merken maken wel een aparte ROM. OnePlus als bekend bijvoorbeeld. En verkopen de toestellen dan ook internationaal.
The Xiaomi 14 will get four years of Android updates and five years of security patches

In 2022, OnePlus confirmed that it would commit to four years of major Android/OxygenOS updates and five years of security updates, beginning with its 2023 lineup
Het blijft jammer dat LG is gestopt met het maken van mobiele telefoons. Het aanbod van niet Chinese merken is nu gewoon klein, en waar ik woon (Laos) tot Samsung en Apple gereduceerd. Heb niks tegen Chinese telefoons, maar competitie vanuit andere landen is beter. Mischien dat ik mijn volgende telefoon gewoon in Nederland koop.
Toevallig enkele dagen geleden besteld (momenteel alleen beschikbaar (als je hem in europa wil kopen) in Spanje. Een kennis stuurt hem door naar Nederland, ben benieuwd. Het toestel inderdaad gekocht voor de camera.
Vivo x200 Pro is goed, maar de Magic 6 Pro en 7 Pro is beter.
https://www.dxomark.com/smartphones/Honor/Magic6-Pro
vergeet niet dat de Magic 6 Pro, 5 gouden plakken heeft.
Beste Selfie, Beste camera, beste batterij beste display, beste audio.
kwa camera is het enkel ingehaald door Huawei.
maar nog steeds netjes op nr 2.

ondertussen is de 7 Pro net uigekomen.
DxO werkt samen met fabrikanten, hoewel we absoluut niet stellen dat fabrikanten en DxOMark ons hiermee massaal foppen, is het wel een extra reden om de DxO-score sceptisch te blijven bekijken.
De mensen in China hebben liever een Chinese smartphone. Ik heb juist niet liever een Chinese smartphone. Daarom een Samsung (made in India...)
AI functies op de telefoon interesseren mij helemaal niets. Gebruik ik ook niet. De enige AI functie die ik gebruik zit in mijn fotobewerkingssoftware (ON1 Photoraw) op de laptop.
prima toch, keuze is reuze. mijn familie heeft ook liever Samsung. prima toch. dan kies je een Nothing phone ook prima toch ?

Op dit item kan niet meer gereageerd worden.