Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Apple brengt iOS 13.2-bèta met Deep Fusion-camerafunctie uit

Apple heeft de eerste bèta van iOS 13.2 uitgebracht, met daarin de camerafunctie Deep Fusion. De modus, waarover het bedrijf al sprak bij de aankondiging van de iPhone 11, wijzigt de manier waarop de iPhone 11-telefoons foto's maken bij matige lichtomstandigheden.

De bèta is woensdagavond Nederlandse tijd online gekomen, meldt 9to5 Mac. Het is de eerste testversie voor ontwikkelaars van iOS 13.2, de tweede grote update voor iOS 13 dat enkele weken geleden uitkwam. Vermoedelijk moet de nieuwe versie van Apples mobiele besturingssysteem voor het einde van het jaar uitkomen.

Deep Fusion is geen nachtmodus, die al op de iPhone 11-serie zit en die alleen aan gaat bij donkere omstandigheden, maar om een techniek die foto's bij iets meer licht juist moet verbeteren, schrijft The Verge. De telefoon laat niet weten dat het Deep Fusion gebruikt en er is ook niets te zien in de exif-data.

Als gebruikers op de sluiterknop drukken, heeft de app al acht frames vastgelegd: vier met lage sluitertijd om beweging vast te leggen en vier met normale sluitertijd. Het indrukken van de sluiterknop is het teken om een frame te maken met langere sluitertijd. De software voegt de frames met gewone sluitertijd en lange sluitertijd samen, waarna het de beste kiest uit de frames met korte sluitertijd. Vervolgens voegt het die samen tot een foto, waarna de software met beeldherkenning kijkt waar het details moet toevoegen. Dat gebeurt meer in gezichten, haren en kleding en minder in bijvoorbeeld luchten. Daarna produceert de software de uiteindelijke foto. Deep Fusion werkt alleen op iPhone 11-telefoons.

Deep Fusion is een aanvulling op Smart HDR, de hdr-techniek die Apple vorig jaar presenteerde. Daarbij voegt de software informatie van meerdere frames samen om bij foto's elementen in schaduwen goed zichtbaar te maken. Tweakers publiceerde afgelopen weekend zijn iPhone 11-review.

iPhone 11-camera's Ultragroothoeklens Groothoeklens/primaire camera Telelens
Veel licht Smart HDR Smart HDR Smart HDR
Redelijk wat licht Smart HDR Smart HDR Deep Fusion
Niet zoveel licht Smart HDR Deep Fusion Deep Fusion
Weinig tot geen licht Smart HDR Nachtmodus Nachtmodus

Terugkijken: iPhone 11-review

Door Arnoud Wokke

Redacteur mobile

02-10-2019 • 19:12

57 Linkedin Google+

Reacties (57)

Wijzig sortering
Ik vind het wel eigenaardig dat je hier blijkbaar geen invloed op hebt (zo begrijp ik het uit het artikel). Je bent dan dus overgeleverd aan de software die "details gaat toevoegen."

Maar goed, ben wel benieuwd hoe goed dit gaat werken.
Dat is wel heel kort door de bocht. Elke telefoon én camera heeft tegenwoordig ofwel softwarematig ofwel hardwarematig in de vorm van een speciale chip een vorm van image processing zoals dat heet. Ook daar heb je geen invloed op, is dat erg? Nee, want het werkt. Tuurlijk bij de ene wat beter dan bij de andere, maar in alle gevallen voegt het iets toe wat een leek niet kan toevoegen, denk aan noise reduction, edge enhancement, dat soort zaken.

Als ik de vergelijking wat extremer trek, kan je het vergelijken met een ECU in een auto, ook dat is een stukje software wat door de fabrikant is geschreven en toeschrijft hoe de motor zich in bepaalde condities moet gedragen en ook iets roept over brandstoftoevoer bijvoorbeeld. Ook daar heb je geen invloed op (is overigens wel aan te passen, maar dat is after market en doe je ook maar eenmalig).

Kortom: hoewel ik je terughoudendheid begrijp, zijn er zoveel zaken in onze dagelijkse gebruiksvoorwerpen vandaag de dag die al voor ons/het apparaat bepaald worden zonder dat we daar invloed op hebben. De camera is daar juist al jaren een voorbeeld van en ja sommige functies worden wel aan de gebruiker overgelaten om al dan niet in te schakelen zoals de nachtmodus en HDR.

Om als laatste nog even een correctie te maken op wat je zegt: "software die "details gaat toevoegen"". Dat is niet helemaal waar, de software voegt geen details toe, de software voegt bestaande details uit meerdere foto's samen waardoor er een scherpere hoofdfoto uitkomt. Het is dus zeker geen interpolatie.
Wat er feitelijk gebeurt is doordat wij mensen geen muurvaste hand hebben, zal elke foto die voor ons oog op exact hetzelfde punt genomen is, hoe snel achter elkaar ook, op sensorniveau licht afwijken. Deep Fusion maakt hier gebruik van door zelf te kijken hoe de foto's op elkaar gelegd moeten worden en daarmee alle sensordata om te zetten in één enkele, scherpere foto.
Met betrekking tot het "details toevoegen": dat is uit het artikel geciteerd. Als dit niet correct is, klopt het artikel dus niet.

Het artikel laat het klinken als het bedenken en toevoegen van details om ontbrekende details op te vullen. Dat zou ik dus een stapje te ver vinden als functie die je niet zelf kan in- of uitschakelen. Als het puur op basis van andere foto's is van hetzelfde moment, zie ik het probleem inderdaad niet zo.
Ik ook. En dat het mis gaat kun je zien aan de HDR foto’s, ik bewaar ook het origineel.
Ik weet niet of t een maatstaf is, maar als je ziet dat haren en vacht of glazen en brillen bij de portrait vaak problemen oplevert én dat Apple soms dingen fout herkent op foto’s, kan dit dan wel goed gaan?
Hoe dan ook, een fascinerend proces.
Inderdaad een fascinerend proces, echter vraag ik mij af of het wel ergens een toegevoegde waarde heeft.

Tijdens de keynote zoomden ze nogal in om het verschil te laten zien.

Denk dat we maar moeten afwachten op de eerste voor en na foto’s van een Tweaker :P
Oordeel zelf

Very first tests of #DeepFusion on the #iPhone11 https://twitter.com/stalm...79476407035944960/photo/1
Eerste wat me opvalt.. wauw.. wat een verschil.
Maar in de portrait foto, op de XR zie je niet die grijze achtergrond balken, met de 11 wel, is dat een rendering van de 11 of is dat iets wat de XR gemist heeft?
Of is dat een verschil in belichting doordat de foto’s niet op exact hetzelfde moment gemaakt zijn?
Geen idee, maar foto’s zijn duidelijk gefocust op weergave van verschil in details tussen conventioneel en DF.

Hier lijkt het echt een andere camera

By popular demand, here is Smart HDR vs #DeepFusion. Both shot on the #iPhone11Pro https://twitter.com/stalm...79501913630363649/photo/1

[Reactie gewijzigd door GioGat op 2 oktober 2019 23:17]

Dit is doordat de iphone niet op een statief stond en de foto van HDR niet vanop exact hetzeflde punt getrokken is.
Dit kan je ook zien aan de betonnen balk midden achter de persoon. Deze staat op een andere plaats
Als je die trapleuning bedoelt: dan moet je gewoon even op de portrait foto klikken zodat je de hele foto ziet en niet de 3/4 rendering van de foto-collage
Ik heb hier zelf gemengde gevoelens over.
Eigenlijk denk ik dat het enerzijds op een gegeven moment het geld niet meer waard is voor de mensen die mooie foto's willen maken. Maw die gaan er dan voor kiezen een aparte camera aan te schaffen naast de smartphone (of hebben dat allang gedaan...).
Anderzijds denk ik dat de rest eigenlijk niet zo veel heeft aan fancy features want de belangrijkste benodigdheid voor het maken van fraaie foto's is een goed oog. En dat kan je niet kopen.

Maar misschien gaat het voor de meesten alleen maar om "papieren" features en is er maar een heel kleine minderheid die ze ook werkelijk gebruikt.
Ik denk dat de meerwaarde zit in het gebruiksgemak. Ik hecht veel waarde aan goede kwaliteit beeld en geluid en dus ook foto's. Hoe ik ze moet schieten met een echte camera, geen idee!

Ik had een mooie camera gekocht (Sony A6000) om betere foto's te kunnen maken, het resultaat was averechts. De foto's die ik met mijn telefoon schoot waren mooier. Niet omdat de camera slechter was, juist niet. De reden was dat ik niet weet hoe ik de boel moet afstellen en het juiste scherp krijg.

Tegenwoordig hechten veel mensen toch wel waarde aan goede kwaliteit foto's maar willen ze niet een camera meeslepen of leren hoe je moet fotograferen. Want dat is alles behalve het knopje indrukken kwam ik achter. Het mooie is dat dat bij telefoons juist wel het geval is, de software doet het zware werk voor je en maakt de foto prachtig. Natuurlijk niet zo mooi als een camera maar vaak toch mooier dan als je een leek een camera in de hand duwt.
Precies hetzelfd: ben rond de tijd van de 5s spiegelloze camera’s gaan verkennen. Paar duizend euro aan gespendeerd de jaren erna maar uiteindelijk na een jaar de iPhone 7 te hebben gehad, alles verkocht. Gemak en foto’s goed genoeg. Vooral video is gewoon veel beter voor het geld en gemak, eigenlijk gewoon bizar goed zelfs. Nu met de nieuwe toestellen helemaal.
Zelfde hier, dure DSLR camera’s gehad, vreselijk mooie foto’s...
Tot de iPhone 8 Plus, kwaliteit was hetzelfde, soms zelfs beter, dus DSLR belandde in kast en omdat je de iPhone toch altijd bij je hebt bleef de DSLR in de kast.
Na 7 maanden de camera verkocht, nu eigenaar van een 11 Pro Max en de foto’s zijn vele malen beter dan de DSLR en zelfs goedkoper.
Ik kan ook niet wachten op de resultaten van Deep Fusion, en nee, ik wil geen beta op mijn production iPhone.
Mwa, kwaliteit en karakter van een goede lens en camera kan ik waarderen en kan een smartphone niet aan tippen. Maar slechts een handje vol mensen boeit dit of ziet het überhaupt en dus verkoos ook ik gemak boven kwaliteit in deze.
Dan heb je of een slechte DSLR/lens gehad of het probleem zit hem meer in de gebruiker. Een DSLR is geen point en click machine. Daarnaast is de DSLR nog heer en meester in laag-licht situaties en is het zoombereik vele malen beter indien je over de juiste objectieven beschikt.

In goed licht, wide angle shots, ja dan komt de telefoon goed mee. Menigeen zal dan niet tot nauwelijks het verschil zien. Totdat je het wat groter gaat printen of de omstandigheden minder optimaal worden.

Een telefooncamera is inderdaad erg makkelijk. Ook ik maak daarmee nog steeds genoeg foto's, omdat ik de DSLR niet altijd bij me heb of mee wil slepen. Echter voor bepaalde doelen gaat juist de DSLR mee omdat de telefoon nog niet in de schaduw kan staan qua kwaliteit.
Ik heb de Panasonic Lumix DC-FZ82 sinds een week, daarop heb je een modus, ai , en maak je fotos zoals op telefoon. Dat de camera zelf bepaald wat de mooiste foto's zijn. Maar om toch van dat automatische af te gaan heb ik even uurtje tutorials zitten kijken en kan nu handmatig veel beter fotograferen.

De meerwaarde zit dan wel in het gebruiksgemak, want tel heb je altijd bij en camera niet. Maarja ik bewaar zelf de camera nu in de auto en heb hem dus altijd bij:)

Voordeel voor mij is dus dat ik niet meer hoef te kijken naar een tel met goede camera specs.

[Reactie gewijzigd door Emin3m op 3 oktober 2019 07:26]

Niet alleen dat, maar de beste foto's schiet je met de camera die je bij je hebt.

Als ik 's ochtends naar het kantoor vertrek, dan heb ik wel mijn mobieltje bij me, maar geen haar op mijn hoofd dat er aan denkt om ook nog eens een DSLR of zelfs compactcamera mee te sleuren. Als ik dan 's avonds ergens kom dat foto waardig is....
Volgens meerdere sites zoals https://techcrunch.com/20...one-11-and-iphone-11-pro/ toch geen Deep Fusion?

[Reactie gewijzigd door Damir op 2 oktober 2019 19:24]

Wel Deep Fusion, geen bèta gisteren (kijk maar naar de datum) ;)
Ah, ik zie het nu ja. Was even in de war door het ‘update’ stukje en het tijdstip 8)7
Is dit echt iets compleet nieuws, of is dit een (variatie op een) bekende techniek in fotografieland? Ik ben iig benieuwd naar de samples. Hopelijk wordt het geen hype om niks. Is het in theorie mogelijk om zoiets naar oudere modellen te brengen, of heeft de 11 een speciale chip oid?
Als je ziet wat voor stappen de camera app neemt voor een ‘ Deep Fusion ‘ foto, 4 foto’s vooraf, 3 tijdens het indrukken van de foto knop en een overbelichte na van maximaal 0,5 seconden. En dan ook nog het analyseren van alle pixels (24 miljoen als ik de bronnen mag geloven) vraag ik me af of de oudere SoC’s hier snel genoeg voor zijn..
vraag ik me af of de oudere SoC’s hier snel genoeg voor zijn..
" ... Deep Fusion werkt alleen op iPhone 11-telefoons...."
@Ruw ER vraagt daarom ook of het mogelijk zou zijn in theorie..
Ik denk dat oudere apple socs (A10 -A13) snel genoeg zijn hiervoor, maarja de nieuwe iPhones moeten wel verkopen he... dan maar unique feature maken.

Ik zie dit steeds meer bij Apple. Vind dit zelf een slechte ontwikkeling. Bij Android zie je dat ze dingen wel beschikbaar maken voor oudere smartphones. Bijvoorbeeld ‘night mode’ in de camera app ook beschikbaar maken voor oudere smartphones (samsung)
De ene camera is de andere niet.

Waarom zou Apple voor oudere modellen talloze uren spenderen aan het aanpassen van het algoritme / kalibreren voor oudere iPhones? Het is een functionaliteit die geadverteerd wordt met het nieuwe vlaggenschip, niet het OS.

Ze zouden dief van hun eigen portemonnee zijn om dit ook te ontwikkelen voor oudere apparaten. Het is niet puur software (one size fits all) maar een combinatie van nauwe samenwerking tussen software en hardware.

Vraag mij af waar Apple dit nog meer doet volgens jou? Kan mij eigenlijk niets bedenken dat puur software matig is en bewust niet op oudere iOS / Macs meegenomen wordt. Ik vind juist Apple heel degelijk is in software updates en nieuwe functionaliteiten. Dat mis ik toch echt wel sinds ik ben overgestapt naar een OnePlus 6.

[Reactie gewijzigd door Tim.k op 2 oktober 2019 20:15]

Om maar even een voorbeeld te noemen. De iphone x/8plus generatie vs de iphone xr/xs generatie. De iphone 8 plus had bokeh met diverse effecten. Toen de xs op de markt kwam het jaar erna was er ineens een ‘unique’ feature waardoor je de mate van bokeh blur kon wijzigen realtime. Dit kon vervolgens niet op de ‘oude’ iphone x/8plus wat ik echt ronduit belachelijk vond.

Momenteel heb je een focos app waarmee je dat OOK kunt bereiken op een oudere iphone x/8plus, en hierbij zie ik geen enkele performance issues. Oftewel, dit had ook gewoon gewerkt op de oudere x/8plus, maar Apple deed dit puur voor de greed in mijn ogen.

Dit is nog maar een enkele voorbeeld van de velen die ik nog heb waarbij mijn waardering voor Apple zeer snel daalt.
Dit hadden ze inderdaad ook kunnen ontwikkelen voor de X / 8 Plus, het is softwarematig. Echter, hoe ze dit voor elkaar krijgen op de XS / XR is een vernieuwde diepte sensor die vele malen beter diepte inzichtelijk kan krijgen in het beeld.

Dit is maar een aanname / hypothese maar waar focos waarschijnlijk net wat vertraging heeft en bij bewegen van de telefoon de blur wat fout heeft zal de XS / XR hier geen last van hebben.

Dit is een gevalletje kwaliteit dat Apple wil uitstralen, alles moet naadloos werken (al lukt ze dat de afgelopen tijd niet meer zo geweldig). Natuurlijk is het ook gewoon marketing maar waar ik op doel is dat dergelijke exclusieve functionaliteiten toch wel vaak samen gaan met een uniek / verbeterd stukje hardware om kwaliteit te garanderen.

[Reactie gewijzigd door Tim.k op 2 oktober 2019 20:42]

Bij Android zie je dat ze dingen wel beschikbaar maken voor oudere smartphones.
Behalve Android zelf dan, daar kun je naar fluiten op veel modellen die niet zo high-end zijn. En op high-end modellen eigenlijk ook, binnen een paar jaar.
Valt wel mee hoor, als je ziet hoe goed de Google camera app op oudere en lower end toestellen draait dan is er ruimte zat. Die doet ook hdr met meerdere frames. Tot meer dan 30 als ie de kans krijgt.

Dit deep fusion gedoe is typisch weer een Apple marketingnaampje voor iets dat al jaren bestaat, alleen neemt het toestel nu continu foto's en bewaart deze als je je knoppie indrukt. Werkt waarschijnlijk het best met dedicated ram voor de camera zoals ook veel hoge resolutie sensors dat hebben die bij Android gebruikt worden. Zou je hier ook gemakkelijk voor in kunnen zetten. De camera's en socs ondersteunen het al.

Het enige 'nieuwe' is dus dat de foto's al van te voren continu genomen worden en daarna samengevoegd. Niet spannend of bijzonder. Wel een snellere uitwerking van de hdr mode die Huawei, Google en anderen al jaren gebruiken.

Verder weet apple er weer een heel fancy draai aan te geven met wat dure marketingbullshit, waardoor het bijzonder lijkt. Daar trappen jammergenoeg net iets teveel mensen in.

[Reactie gewijzigd door fapkonijntje op 2 oktober 2019 20:21]

Het gaan om de berekening die erachter zit denk ik, dat red je niet met wat simpel dedicated ram, wat trouwens ontbreekt op de 11 (pro).

Het bijzondere is dat het binnen één seconde gebeurt, zijn vrij heftige berekeningen als je, wat ik heb gelezen, 24 miljoen pixels moet analyseren en ze moet samenvoegen.

Het grote voordeel is voor vele mensen ook nog dat je er niet over na hoeft te denken als het aan staat, je iPhone zal het zelf berekenen en uitvoeren. Waarschijnlijk krijg je net zoals met smart-HDR ook de keuze om de originele foto te bewaren.

Maar we kunnen allemaal vrij goed discussiëren en vooraf bepalen wat de waarheid is maar laten we de release afwachten voordat we alles marketing bullshit noemen waar iedereen intrapt, het is namelijk nog niet eens uitgebracht.
Ik vindt OpenCamera altijd fijne camera app op android. Je heb veel instellingen ook ook HDR foto modus. Die je ook nog extra in kan stellen dat ie 3 fotos maakt en allemaal samen smelt voor zoveel mogelijk detail. Er zit steeds seconde tussen fotos dus je moet camera heel stil houden, beste is mobiel op een object laten leunen. Daarna duurt nog is 20 sec voordat foto daadwerkelijk in je gallery verschijnt. Het verwerken duurt effe op mijn mobiel is ook niet de snelste. Als je beetje beweeg tijdens die 3 fotos krijg je ghosting. Maar resultaat is zeer goed zolang je maar niet beweegt. Dat met een 12 megapixel met slechte mid range camera. Maar is het zelfde als smart-hdr waar je over spreekt volgens mij.
Je onderschat de geavanceerde techniek, algoritmes en berekeningen die in een fractie van een seconde moeten plaatsvinden bij deze techniek. Daar heb je gewoon een heel snelle soc voor nodig. Simpel zat. De dingen die jij beschrijft qua technologie op Android is van een heel andere orde dan wat Apple doet hier.
Dat iets voor jou nieuw is, betekent niet dat het ook echt nieuw is. Dat Apple het een mooi naampje geeft en een spannende omschrijving, maakt de techniek niet ineens revolutionair.

Tot dusver komt de omschrijving volledig overeen met hoe Google camera en de socs samenwerken. Waarbij al jaren dedicated delen van socs gebruikt worden die hier helemaal voor gemaakt zijn. Alle moderne grote high end sensoren voor smartphones hebben al ingebouwd ram als onderdeel van de sensor voor het bewaren van afbeeldingen en aanverwante data en Qualcomm is al heel lang bezig met hun hexagon dsp. Die dsp is helemaal ontworpen voor de complexe berekeningen die ik beschrijft. Die hexagon dsp gebruikt Google ook actief voor hun camera app. Huawei met hun kirin chip doet hetzelfde, wat ze AI noemen en gewoon een eigen soort dsp is. Zie de reviews van de p20 en p30 series.

Apple had zoiets nog niet en daardoor konden ze niet meekomen met Samsung, Huawei en Google. Nu hopelijk wel iets meer.

Die hele onzin over complexe berekeningen is niet nieuw en is de reden dat de Google camera zo goed scoort in tests, ondanks de gemiddelde hardware. Op dat vlak had Apple wat in te halen en dat proberen ze hiermee te doen. Dat jij er vanuit gaat dat het nu ineens iets magisch is, is wel een beetje raar.

[Reactie gewijzigd door fapkonijntje op 2 oktober 2019 23:03]

Valt allemaal wel mee denk ik. Je laat gewoon één van de genomen foto's zien. De definitieve versie reken je op de achtergrond uit.
Ik vraag het me af, het is niet je standaard night-mode maar een vrij complexe berekening als ik het mag geloven.

Zoals iemand eerder aangaf verwacht ik dat dit een meer jaren project is, waarbij jaar 1 vooral een proef jaar is waarbij veel data verzameld zal worden om de functie te kunnen optimaliseren en de daarop volgende jaren zal de functie gefinetuned worden. Net zoals je met portrait zag.
Wat is je standaard nightmode dan volgens jou? Want dit lijkt 1op1 op die van google, alleen worden de plaatjes nu van te voren al geschoten.
Standaard night mode is gewoon een lange sluitertijd zonder berekeningen erachter, voor echte computational photography heb je echt wel wat reken kracht nodig wat de lower end toestellen vaak ontbreekt.
Dan heb jij een beetje gemist hoe de 'standaard' nightmode is ontwikkeld, al sinds de Lumia series met dedicated chips op socs voor het verwerken ervan, zoals de Qualcomm hexagon dsp die Nokia ooit met d'r Lumia serie gebruikte en Google nu gebruikt in z'n camera.

[Reactie gewijzigd door fapkonijntje op 2 oktober 2019 23:03]

Apple doet dit soort dingen vaak real-time in de zoeker, bijvoorbeeld HDR.
Zou je denken, De A13 iig wel, maar zit dan ook in de nieuwe iPhones en iPads. Denk dat de A13 rondjes rond om de A12 op ML-vlak en dat het daardoor minder fijn zou werken op een lagere SoC. Daarbij is er misschien ook iets aan de camera waar ze gebruik van maken en wat enkel in de nieuwe toestellen zit.
Is 13.2 alleen uit voor iPhone 11? Ik heb een iPhone 7 en enrolled beta profile en draai 13.1.2 maar krijg die 13.2 niet binnen.

[Reactie gewijzigd door Kapitein187 op 2 oktober 2019 19:33]

het is de developers beta, jij hebt waarschijnlijk public die later uitkomt
Ah had even gemist dat het alleen dev was. Idd ik zit in public.
Is 13.2 alleen uit voor iPhone 11? Ik heb een iPhone 7 en enrolled beta profile en draai 13.1.2 maar krijg die 13.2 niet binnen.
iOS 13.2 developer beta 1
PB zal waarschijnlijk volgende week uitkomen
De PB is ook uit.
zag net net voorbijkomen ja. maar om 19:30u nog niet toen de post was geplaatst
Heb de Beta geïnstalleerd op m’n iPad Pro 11” en iPhone 11 Pro en beide lopen echt merkbaar snappier.
Morgen bij daglicht maar eens Deep Fusion “testen”.
Ik vind het knap dat deze beta van iOS op een 111 Pro nog snappier zou draaien. Ik vermoed een flinke placebo...
Jajaja, daar komt de logica vs scheikundige capaciteiten weer om de hoek kijken van het boerenverstand. Extreem dure camera’s houden het nog geen middagje foto’s schieten vol op 3 batterijlading. Een iPhone 11 haalt makkelijk een hele dag.
Ook smartphones die sub 300 euro kosten doen het geen week zonder lader.....


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True