'Google loopt achter met ontwikkeling eerste volledig eigen Tensor-soc'

Google loopt volgens bronnen van The Information achter met de ontwikkeling van een eerste volledig eigen Tensor-soc. Die zou volgend jaar moeten verschijnen, maar is nu voor 2025 gepland. De huidige Tensor-socs worden samen met Samsung ontworpen.

De ontwikkeling loopt volgens de The Information-bronnen achter doordat de teams verspreid zijn over de Verenigde Staten en India. Het zou moeilijk zijn om het werk tussen deze twee teams te verdelen en te coördineren. Daarnaast zou er een hoog verloop zijn onder de werknemers in beide teams. Door deze problemen zouden bepaalde deadlines niet zijn gehaald, waardoor de chip niet op tijd klaar is voor massaproductie in 2024. Google verwacht de soc nu een jaar later in massaproductie te kunnen nemen.

Sinds de Pixel 6-serie uit 2021 brengt Google smartphones uit met Tensor-socs. Deze worden nu nog in samenwerking met Samsung gemaakt, waarbij Google bepaalde delen van de soc aanpast en een eigen npu voor AI-taken toevoegt. Samsung produceert deze socs. Sinds die eerste Tensor-soc vervangt Google steeds vaker Samsung-onderdelen door eigen Google-onderdelen, schrijft The Information.

Met de eerste eigen Tensor-soc, die mogelijk Tensor G5 gaat heten, wil het bedrijf dus niet langer van Samsung afhankelijk zijn. De soc zal wel op Arm gebaseerde cores krijgen, net als nu. Google is volgens de bronnen van plan om de soc door TSMC op TSMC's 3nm-procedé te maken.

Dat procedé bevat diverse voordelen boven Samsungs procedé. Zo is TSMC's variant efficiënter, waardoor er krachtigere en energiezuinigere socs gemaakt kunnen worden. Google zou de soc mogelijk ook voor andere producten willen gebruiken, zoals VR-producten.

Google Tensor
Google Tensor

Door Hayte Hugo

Redacteur

07-07-2023 • 13:49

77

Submitter: TheVivaldi

Reacties (77)

77
77
20
0
0
50
Wijzig sortering
Als het Google lukt om productiecapaciteit bij TSMC te krijgen zou ik het serieus overwegen om mijn Pixel 7 in te ruilen voor een 8 (mits GrapheneOS uit is). Dat moet een wereld van verschil geven.
Zou eerder naar de 8 upgraden voor de leuke camera snufjes zoals "volledige 50mp" foto's en de nieuwe HDR implementatie. Zal qua efficientie geen mega update zijn.
Ik zou naar de 8 upgraden omdat die een kleiner formaat lijkt te krijgen. Iedereen zo z'n reden ;)
Ja goed punt, ik wilde dat in het begin ook maar ben niet zo'n fan van de nieuwe hoeken, juist de wat rechtere strakke schermen vond ik zo mooit, nu is die ronding te veel imo
Absoluut. Waarschijnlijk is de gewone 8 maar zo'n 1,6 mm langer dan m'n oude Pixel 4a. Kan niet wachten.
Als ik het nieuwsbericht goed lees moet je dus minimaal tot de Pixel 10 wachten voordat ze overgaan naar TSMC ;)
Het boeit mij weinig wat voor cpu erin zit. De P7 is al meer dan snel genoeg met een redelijk verbruik.

Wat wel mij kan overtuigen is de (bijna) 1" sensor. En mogelijkheid aansluiten smartphone op een TV.
Het feit dat de sensor bijna 1" is maakt niet bijster veel uit
Nee? 35% meer licht, meer data, meer scherptediepte, weer een volgende generatie met minder ruis en staggered hdr maakt allemaal bijster weinig uit?

Ok.
Nee want Google heeft de software niet op orde. Alles wat je nu opnoemt kan je met de Pixel 7 ook bereiken. En in-sensor HDR kan je zelf als met de OnePlus 7 bereiken.

Maar ik zegt niet dat het niks brengt, maar het is veel minder dan je denkt.
Hoe kan je precies met de P7 in softwsre 35% meer licht opvangen? Software dat hardware staggered hdr doet, meer optische scherptediepte en via software minder hardwarematige ruis krijgen? Beetje vaag verhaal hier.

Hoeveel denk ik dan precies wat dit kwalitief oplevert en waarom klopt dat volgens jou niet?

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

https://imgbox.com/M5GzHUQz

Kijk wat ik met software kan doen vergeleken met wat Google standaard naar hun consumenten pusht. Maar ik heb het er meer over dat het formaat opzichzelf niet veel hoeft te betekenen. Die hardware matige ruis heb je in normaal licht geen last van, en in het donker leunen we zoveel opsoftware trucjes.

Staggered is leuk, maar in-sensor HDR is niks niews, en deze variant heeft issues zoals ghosting.
Ik wist niet dat je met software een nieuwe generatie optische sensor kan emuleren. En dat je met software bijvoorbeeld 35% meer licht kan opvangen, hardware staggered hdr of optische scherptediepte kan nabootsen. Ok.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Je kan wel met efficiënte software meer uit bestaande hardware halen dan met de standaard software, wanneer die standaard software niet geoptimaliseerd is voor die hardware.
Wat @DamirB lijkt te zeggen is dat hij er weinig vertrouwen in heeft dat de standaard camerasoftware die Google meelevert voldoende uit de nieuwe sensor kan halen om een duidelijk verschil te maken.
Dat snap ik. En is allemaal speculatie zonder feiten. Want, niemand heeft deze nog getest. Wat wel een feit is, is dat de verbeterde hardware van deze sensor een flinke stap vooruit is. En dat deze los staan van verdere algoritmes. Zoals grotere scherptediepte, flink verbeterde hdr hardware stacking, verbeterde TOF en 35% meer lichtopvang.

Vooral de laatste verbeteringen zie ik wegens astrofotografie en voorliefde voor nachtfotografie van industrie, naar uit.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Tot op zekere hoogte niet zo super veel speculatie aangezien de software tot op zekere hoogte al gelekt is. Daarom weten we dat er een "volledige resolutie" modus aankomt.

Punt is dat 35% extra licht niet eens een extra stop is. Die scherptediepte is weliswaar leuk.
Staggered HDR hangt ervan hoe goed de implementatie gaat zijn, feit is dat in-sensor HDR er al jaren is en zelfs de GN1 het heeft.
Opnieuw, alle voordelen van de nieuwe sensor tov de ouds zijn bekend. Vele eigenschappen hebben weinig met de onderliggende software te maken. Vandaar dat ik hoopvol ben naar een volgende stap in een betere beeldkwaliteit. Met name op het vlak van low light, waar deze sensor flinke stappen maakt.
Maar het is niet eens 1 stop extra, plus je ziet in m'n voorbeeld dat de extra voordelen (misschien op DoF na) Google toch sloopt in software
Precies dit, Google haalt nu al niet het maximale uit de sensor.
Heb je die link überhaupt geopend? Of mijn eerdere berichten gelezen?
Ja. Heb jij mijn opmerking over wat nieuwe generatie sensor biedt, gelezen?

Hoe wil je de hardware van de vernieuwde TOF sensor precies in software vangen?
Heb je het verschil in kwaliteit gezien tussen de twee? Eentje is stock Google, andere is als je daadwerkelijk wat moeite in de software steekt.

Waarvoor gaan ze volgens jou die ToF sensor gebruiken? Dat spectaculair de camera gaat verbeteren

[Reactie gewijzigd door DamirB op 24 juli 2024 12:26]

Opnieuw, die link heb ik bekeken. Niks dat ik daar kan vinden dat deze nieuwe sensor nauwelijks beter gaat presteren. Immers, de hardware maakt flinke stappen vooruit. De software profiteert daar zelfs in nauwelijks gewijzigde vorm, meteen van.

P7 kan in het donker soms lastig focussen, de nieuwe TOF in de beeldsensor zou dit fors moeten gaan verbeteren, lees ik .
Nee maar het gaat om het software verschil, misschien het je de verkeerde link maar het is dezelfde foto met twee verschillende software pakketten, standaard Google en een mod
Ik heb het niet over software, jij doet dat. Dit gaat over de sensor. Die op papier heel duidelijk beter is.

Opnieuw, met software kan je niet de TOF hardware verbeteren, minder ruis inlezen, meer licht opvangen, een stacked hdr hardware vervangen of grotere optische scherptediepte maken.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Volgens mij praten we langs elkaar heen, ik zeg alleen dat de impact veel kleiner is dan je denkt, die extra lichtopbrengst is minder dan 1 stop aan licht, en dat Google de software toch niet op orde heeft omdat ze uit de huidige sensor al niet het maximale halen. Die scherptediepte heb ik al toegeven dus snap niet waarom die erin staan. Staggered HDR is niks nieuws, huidige sensor heeft ook hardware based HDR maar gebruikt Google ook niet tot de maximale potentie.

Drie kwart van een smartphone camera is software
"bijna" 1 stop met daarbij flink verbeterde stagged hdr levert natuurlijk veel betere resultaten op. Of fors lagere sluitertijd, of veel meer licht bij dezelfde. Met een flink verbeterde TOF. Je kan blijven claimen dat dat in gewoon software kan, maar daar geloof ik niks van.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Ik claim ook niet dat dat in software kan, je leest niet goed
Je hebt het steeds weer over dat Google z'n algoritmes moet verbeteren.

Dit gaat over hardware, wat niet in software kan.
Het enige wat ik zeg is dat de stap in hardware niet zo groot is als jij denkt. Het brengt zeker voordelen en zal wel merkbaar zijn in sommige omstandigheden maar over het algemeen valt of staat een smartphone camera bij de software en die heeft Google niet op orde. Kortom, de volle potentie van deze sensor zal voor het gros van de consumenten (die niet hun telefoon modden) verborgen blijven
Het is heel duidelijk uit de specsheet dat er

- flink verbeterde TOF in zit
- 35% meer licht opvangt
- stacking hdr in hardware
- grotere sensor in zit.

Dat jij dat allemaal maar niks vindt, prima. En met allerlei "ja maar software is slecht"-excuses aankomt, ook prima. Dan hou je je huidige telefoon.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Je begrijpt me nog steeds niet, reageer eens los op onderstaande zinnen.

Wat is het voordeel van een (niet flink verbeterde maar een nieuwe) ToF sensor?

35% extra licht is niet eens 1 stop aan licht

HDR in sensor bestaat al jaren, staggered is leuk maar we moeten nog maar zien hoe de ghosting is.

Grotere sensor kan je linken aan de verbeterde sensitiviteit voor licht maar zonder dat je het diafragma weet zegt het niks over scherptediepte

Betere hardware is leuk maar er valt meer te winnen in software en Google gaat de sensor nooit tot z'n maximale capaciteit gebruiken (en dat weten we van de software is al publiek, daarom weten we dat er een 50MP modus aan komt).

Dus puur voor plaatjes, in de stock camera zal het verschil niet mega zijn. Gebruik je bijvoorbeeld Motioncam is het een ander verhaal.


Maar klik bijvoorbeeld eens op die link die ik heb gestuurd, wat valt je op tussen de twee?

[Reactie gewijzigd door DamirB op 24 juli 2024 12:26]

Erg vermoeiend is dit aan het worden.

- Staggered HDR in hardware bestond helemaal niet in vorige generatie Pixel. Je verzint gewoon maar wat. https://www.theverge.com/...umor-staggered-hdr-sensor

- 35% licht extra is fors meer en beter dan geen extra licht. Je claim dat dit niet uitmaakt is natuurlijk onzin. Met name in het donker maakt dit een flink verschil.
- Grotere sensor is meer scherptediepte. Wederom, je claimt maar wat dat het niet uitmaakt.
- TOF van deze sensor is met name in het donker verbeterd. P7 mistte nogal eens een shot dus een welkome verbetering. Wat volgens jou vreemdgenoeg helemaal niet zo is...

Opnieuw voor de 4de keer. Dit is niet door Google in software te maken.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

In sensor HDR is niks nieuws, voor de Pixel wel.

Ik zeg niet dat die 35% niks waard is, alleen dat het niet eens 1 extra stop aan licht is. Goed lezen

Grotere sensor op zichzelf ja, maar je weet pas hoe het de foto impact zodra je weet wat voor lens ze erop knallen

ToF kan zeker helpen qua focus, maar voor portrait mode moet ik het nog maar zien.


Je bent de lastigste vergeten:

Betere hardware is leuk maar er valt meer te winnen in software en Google gaat de sensor nooit tot z'n maximale capaciteit gebruiken (en dat weten we van de software is al publiek, daarom weten we dat er een 50MP modus aan komt).

En vooral: Maar klik bijvoorbeeld eens op die link die ik heb gestuurd, wat valt je op tussen de twee?
> In sensor HDR is niks nieuws, voor de Pixel wel.

Dus, dat deze de nieuwe techniek heeft, is een feit. Dus een verbetering, itt wat jij claimt.

> Ik zeg niet dat die 35% niks waard is, alleen dat het niet eens 1 extra stop aan licht is.

Dus een flinke vooruitgang in opgenomen licht en een voordeel.

> Grotere sensor op zichzelf ja, maar je weet pas hoe het de foto impact zodra je weet wat voor lens ze erop knallen

Dus, een grotere sensor heeft wel degelijk voordelen.

> ToF kan zeker helpen qua focus, maar voor portrait mode moet ik het nog maar zien.

Dus, wel degelijk voordelen.

> Betere hardware is leuk maar er valt meer te winnen in software

Inmiddels is dit door jou 100x herhaald. De hardware biedt duidelijke voordelen die niet in software te vangen zijn. Intussen gaat Google rustig door met updaten van de software.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Tuurlijk wel, wat heb je aan meer detail als Google het toch blurred? Die link laat alles zien, waar je volgens mij nog steeds niet op heb geklikt
Opnieuw, de nieuwe sensor heeft

- fors meer lichtsterk
- hardware staggered HDR
- flink verbeterde focusing met name in donker
- grotere scherptediepte

Graag hoor ik van je hoe Google dit in software kan vervangen.

Voor de 4de keer, ik heb op die link geklikt en daar staat niet hoe Google de hardwareverbeteringen van GN2 in software kan omzetten.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Ik voeg zo even de rest toe, maar die link is een demonstratie van de problemen van Google's software. Welke vind je opjectief beter? Het verschil lijkt me niet klein.
Opnieuw, met dezelfde software biedt deze sensor significante voordelen. 6de keer. Je kan het niet aannemelijk maken dat Google deze hardware in software kan ombouwen. Het is niet relevant dat je van mening bent dat Google betere software moet maken. Die gaan zich immers zeer waarschijnlijk niks van jou aantrekken. En zullen daar vast een andere mening over hebben die jij niet kent.

Opnieuw, deze sensor is een flinke stap vooruit in hardware.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

In hardware is het een ok stap, Sony sensor was een grotere stap geweest maar Samsung kon hoge eisen stellen bij Google. Maar het verbeterde ruis en detail niveau kan je (zoals die link je je blijft negeren laat zien) tot op zekere hoogte emuleren.

En we kunnen al zien dat het verschil niet mega is aangezien er andere telefoons zijn met deze sensor
Dus de G2 is qua hardware een flinke stap vooruit op de G1. En daarom mogen we weer een leuke stap vooruit verwachten. En daarom ben ik benieuwd naar de resultaten ervan in real life.

Eindelijk.
Dit is een SoC waar je het over hebt, niet de sensor.

Maar de ontwijkende vraag, vind je dan de foto die ik je stuurde niet een leuke stap vooruit?
Ik heb het 7x over de sensor van de P8. Niet over de SOC.

Ja dat is een stap vooruit en tegelijkertijd niet relevant hier.
Hoezo is dat niet relevant?
Voor de 8ste keer. Omdat de GN2 duidelijke hardwareverbeteringen heeft t.o.v. de GN1. Prima dat je dat ontkent, maar niet zo heel interessant.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Ik ontken dat nergens. Ik zeg alleen dat de uiteindelijke foto die die P8 gaat maken, geen mega verbetering gaat zijn, en dat een modded Pixel 7 of 6 veel betere foto's zal schieten (video of MotionCam bijv daargelaten)
En een modded P8 zal veel betere fotos schieten. Want, GN2 is een stuk beter qua hardware dan GN1.
Allicht. Al is software support een andere, mijn OP7 met IMX586 is soms beter en op z'n slechts niet ver achter de Pixel 7 Pro
Nee, GN2 heeft duidelijke voordelen tov GN1.

- meer lichtopvang
- meer scherptediepte
- staggered hdr
- flink verbeterde TOF.

Mijn P7P presteert nooit minder dan mijn imx586 met Gcam. Altijd beter, vooral in weinig licht .
Stock misschien, maar zeker met QHDR (staggered HDR op steroïden) module aan krijg je echt een bak meer, en veel natuurlijker bereik
Ok, raar dat een 6 jaar nieuwere sensor het bij jou nauwelijks beter doet dan de IMX586. Toen al een middenmoot sensor.

Opnieuw, het lijkt mij sterk dat deze zaken in software beter kunnen dan de GN2 dit doet. Je geeft ook geen argumenten verder waarom.

- meer lichtopvang
- meer scherptediepte
- staggered hdr
- flink verbeterde TOF.

Dat is een feit, niet "misschien".
De IMX586 was echt geen midrange sensor. Optimalisatie is koning, kijk bijvoorbeeld hoe lang Sony hun sensor in de A6000 series geeft gebruikt. In dit geval is er een mod die flink wat registers sloopt, en dus de in-sensor HDR activeert, tussen ratio 2 en zelfs 8.

Ik geef zat argumenten maar jij leest maar niet. Ik zeg dat Google met wat aanpassingen in software een beter resultaat zou krijgen vergeleken met wat ze nu doen (namelijk nieuwe sensor erin knallen, hun lib zo goed als onaangepast laten). Ik ontken nergens dat het een betere sensor is, alleen niet dramatisch. Staggered HDR bestaat al tijden en is niet revolutionair. Gewoon een andere vorm van in-sensor HDR (zoals dus QHDR in de IMX586)

Meer scherptediepte is alleen het geval mits een lens met dezelfde diafragma erin gaat. Als dat zo is dan klopt het, ontken ik nergens.

Meer lichtopbrengst is 35%, minder dan 1 stop, en die ruiswinst (door dus iets lagere ISO te gebruiken) ga je amper terug zien in de GCam app aangezien hun lib achterlijk aggresief elke vorm van ruis (en detail) weg haalt.

ToF is een module helemaal los van de sensor en semi irrelevant aangezien de sensor een heel geavanceerde phase af heeft. Denk dat dit eerder voor portrait mode en cinema video gebruikt gaat worden.

Ik zeg dat de sensor zeker beter is (maar niet dramatisch en er zijn hardware matig veel betere keuzes) maar dat de huidige Google lib er toch wel voor zorgt dat je die voordelen niet merkt. De algemene camera kwaliteit zou dus een stuk meer verbeteren van een vernieuwde lib dan een nieuwe sensor. Dit was iets dat Google vroeger begreep.
Laat ik eindigen dat ik niks ga aantrekken verder van jouw idee dat een 6 jaar oude midrange sensor, nauwelijks of niet beter is dan de toprange GN2.

En, ook niet dat software gewoon de hardwareverbeteringen in de GN2 kan overnemen.

En, ook niet dat Google zn software moet aanpassen en dat nieuwe sensoren dus weinig toevoegen.

En, ook niet jouw claim dat GN2 geen forse hardwareverbeteringen brengt.

[Reactie gewijzigd door kabelmannetje op 24 juli 2024 12:26]

Is niet mijn idee, gewoon objectief te bewijzen. Je hebt gezien wat ik eerder heb gedeeld. Kan ook een vergelijking sturen hoe ik aanzienlijk meer DR krijg uit de IMX586.

Je kan blijven ontkennen maar is gewoon objectief te bewijzen, hoe meer je snapt van hoe Gcam werkt als app zijnde (wil je best een lib doorsturen) en hoe je bepaalde hardware in een sensor kan activeren) hoe meer je inziet dat je in de marketing machine van Google en Samsung trapt. Ondanks dat het zeker wel een iets betere sensor is, nogmaals dat ontken ik niet maar dat maak jij ervan
Opnieuw, GN2 is beduidend beter dan GN1. Zie de specsheet. Deze is niet in software te bouwen. En 6 jaar ontwikkeling verder in ontwikkeling in sensoren is groot.. Ik kan een fors verschil -zeker bij schemering - zien tussen imx586 en mijn p7p.

Vandaar dat ik uitkijk naar de p8p.
Welk toestel met de 586 heb je? Plus als je voor de Pixel mijn mod wilt uitproberen moet je 't zeggen
Komt omdat er gewoonweg veel problemen zijn die ze niet willen oplossen. Neem de modems die voor sommige gebruikers vaak crashen (even los van absurde accudrain op 5G en memory leaks als je Voice over Wifi gebruikt), meeste telefoons hebben SSR waardoor het systeem alleen je modem opnieuw kan starten. Google doet dat niet waardoor je de hele telefoon moet herstarten.

En de software zit vol met dit soort rare dingen, HBM (high brightness mode wat je bij moderne telefoons ziet inschakelen in volle zon) doet het bij de Pixel maar heel kort omdat ze in software een issue hebben met temp meting, willen ze niet oplossen. Het Android team bij Google is een zooitje, developers hebben daar of een eigen aangepaste build op hun telefoon, of ze gebruiken een iPhone.

Tensor heeft zeker potentie, maar tot nu toe is het voornamelijk marketing en een partnership met Samsung (denk aan de Samsung camera sensors opeens, WearOS op Samsung watches etc.)
Ik gebruik dagelijks nog een toestel met een Snapdragon 835 en kan begrijpen dat je met bepaalde toepassingen een snellere CPU zou willen, maar de gemiddelde midrangre is nu al 3-4x sneller dan mijn "dinosaurus".

Zoals ik begreep was de Tensor niet echt uitblinkend beter dan andere SoCs, of zelfs niet eens bij de top? Ik vind hooguit in-depth tests van anandtech waarin je kon zien dat de TPU in één bepaalde taak (taal) veruit beter is, maar elders bij de middenmoot hangt.

Op welke verbeteringen hoop je? Waarom heb je de nood aan een snellere chip op een smartphone? Is er ergens enig bewijs dat de NLP van een niet-Tensor zodanig beperkend is dat je functioneel slechter af bent met een Snapdragon?

Serieuze vragen hoor. Wat mij betreft zijn smartphones op veel vlakken de laatste 10 jaar nauwelijks functioneel verbeterd of vervallen in heel kleine evolutionaire stapjes, waardoor je zelfs na 3 jaar niet écht een serieuze stap vooruit maakt.
Het hoeft niet eens perse sneller (al is een motioncam export wel bizar traag) want UI is over het algemeen gewoon soepel. Mijn probleem is de efficientie en warmte. Zodra je 'm iets meer aan het werk zet beginnen de problemen. En dat kan gewoon al muziek streamen + mobiel netwerk + wat foto's maken zijn.

Ik wil een modem die geen hacks nodig heeft om te functioneren, die niet dik het dubbele aan stroom gebruikt als je 5G gebruikt, of memory leaks by VoLTE en VoWiFi. Een HBM die niet maximaal een minuut werkt. Eigenlijk gewoon Google die zowel hun hardware als software eens serieus neemt, zoals ze vroeger ooit deden.

Wat betreft de neural en AI dingen van de Tensor, eigenlijk allemaal marketing, of iig tot nu toe amper aangesproken door het systeem.

En google heeft oplossingen, dat is het bizarre. Googlers hebben aangepaste builds die sommige issues verhelpen, en met een mod komt de camera ook een stuk verder.
Af en toe heb je van die chips die inderdaad een regressie lijken tegenover de vorige generatie. Klinkt een beetje alsof deze dat ook is. Ik geloof dat er indertijd een snapdragon 810 was die ook niet bepaald goed onthaald werd op dat vlak.

Dat van die modem begrijp ik. Ik zoek ook eerder achter verdere efficiëntie, vandaar kwam de vraag eigenlijk. Het lijkt me onwaarschijnlijk dat iemand een hele workflow gaat opzetten om batches van 61MP RAWs te verwerken op hun smartphone bvb.

Goed om te weten dat het AI-verhaal op mobile toch ook niet zo hard loopt. Google assistant draait immers ook op veel oudere apparaten.
Iets zoals motioncam is inderdaad beetje niche, maar punt is dat mijn OP7Pro het een stuk sneller en stabieler doet. Maar ik heb al gezegd dat snelheid niet eens een concern is, ze vragen ook geen flagship prijs maar er zijn gewoon problemen intern.
Hoe herken je zo'n modemcrash? Ik kan me niet herinneren daar ooit past van te hebben gehad, eerlijk gezegd.

Het is best jammer te zien hoe Google faalt op plekken waar zelfs hobbyprojecten als LineageOS slagen. Aan de ene kant heeft Google wel zo ongeveer de meeste veiligheidsfeatures in gebruik om bijvoorbeeld aanvallen van gehackte modems tegen te houden, maar aan de andere kant lijken ze permanent te mislukken als het aankomt op het uitbrengen van fixes.

Ik hoop dat Tensor een beetje slaagt en Apple er concurrentie bij krijgt, dat is goed voor iedereen. De huidige driedeling tussen Apple, Qualcom, en MediaTek, die alle drie zo hun problemen hebben, mag wel opengebroken worden van mij. Misschien dat Microsoft ook nog mee wil doen?
Niet iedereen heeft er last van en in Europa sowieso wat minder schijnt. Grootse probleem is voornamelijk de bak stroom die 'ie gebruikt.

Maar als je het helpt heb je geen bereik totdat je het toestel herstart, makkelijkste om te herkennen.

LineageOS is draait natuurlijk op AOSP, en kwaliteit verschilt per apparaat gezien je andere maintainers hebt. Voor de OnePlus 7 series bijvoorbeeld is het absoluut niet de beste keuze. Maar jij bij het Pixel team gaat er zat mis. Stukje bedrijfscultuur en management dat faalt.
meeste telefoons hebben SSR waardoor het systeem alleen je modem opnieuw kan starten. Google doet dat niet waardoor je de hele telefoon moet herstarten.
Klopt, erg jammer inderdaad. Maar meestal helpt het ook om even vliegtuigstand in en uit te schakelen. Scheelt weer opnieuw opstarten.
Je kunt via settings > netwerk > internet rechtsboven gewoon op de reset knop drukken. Dan worden alle verbindingen verbroken en zoekt de telefoon opnieuw naar bijv het 4G/5G netwerk.
Dat reset alleen de instellingen, modem zelf blijft aan en krijgt geen herstart, kan ook niet want de Pixel heeft geen SSR.
Wat bedoel je met reset de instellingen? Hier worden de verbindingen allemaal verbroken en daarna zoekt de telefoon opnieuw naar wifi en mobiel netwerk. Daarna is alles weer zoals het was.
Maar de modem zelf restart niet, kan ook niet want SSR is niet aanwezig. Dit is meer een fix voor als je telefoon de toren niet pakt oid, niet een echte modem crash
Beter iets dan niets. Op m'n nieuwe Galaxy S23 heb ik helemaal niet zo'n functie.
Ben je dan niet ook je wifi settings kwijt?

Maar dan nog vind ik vliegtuigstand even in en uitschakelen makkelijker. Dat doe je zo vanuit de quick toggles.
Nee. De telefoon zoekt dan opnieuw naar alle netwerken en daarna is het weer zoals het was.
Het vervangen met eigen onderdelen is niet altijd een verbetering, zo zou de Tensor G2 in de Pixel 7a warmer worden dan de Tensor G2 in de Pixel 7 en 7 Pro omdat ze volgens het gerucht bij de 7a een eigen IPOP implementatie gebruiken.

Bron: https://www.xda-developers.com/pixel-7a-tensor-g2-chip/
daar spreekt Apple heel anders over namelijk.
daar spreekt Apple heel anders over namelijk.
Nee hoor die begrijpen best dat eigen hardware maken niet gegarandeerd beter is dan iets afnemen wat er al is.

Eigen hardware/ontwerp kan wel beter zijn, maar kan ook niet beter zijn, zo simpel is het en dat is wat @RepareerDroid ook gewoon zegt.

[Reactie gewijzigd door watercoolertje op 24 juli 2024 12:26]

Eigen hardware is vooral goedkoper. De kosten van het ontwerp moeten natuurlijk wel terug verdient worden maar je moet niet vergeten dat een product van een derde partij extra kosten per product zijn. Dus als je afzet markt groot genoeg is bespaar je best wel wat geld.

Daarnaast is beter natuurlijk een relatief product en soms niet meer te vergelijken.
Maar ook om Android efficienter te maken want ten opzichte van ios nemen zij een stuk meer resources op
Sinds die eerste Tensor-soc vervangt Google steeds vaker Samsung-onderdelen door eigen Google-onderdelen
Dit blijf ik vreemd vinden omdat de onderdelen dus bij Samsung geproduceerd worden en naar ik aanneem ook dan de z.n. 'eigen' Google onderdelen. Mij lijkt het enigste verschil dat er dan qua merknaam Google op staat en door Google alleen is ontwikkelt.

Verder denk ik dat het vooral met concurrentie met Apple te maken heeft dat Google nu met een eigen Tensor soc wil komen. Alleen heeft Google dan toch nog wel een behoorlijke inhaalslag te maken ten opzichte van Apple's eigen M1 en M2 soc's.

Ik kan dan niet uit eigen ervaring spreken qua Google Pixel apparaten maar voor wat ik zo lees valt het Tensor soc wat tegen. Althans volgens vele reviews blijft het Tensor soc achter bij zowel Qualcomm als ook Apple.

Op dit item kan niet meer gereageerd worden.