Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties

Apple gebruikt machine learning voor het verlengen van de accuduur 'op alle apparaten'. Dat claimt de fabrikant. Hoe de Amerikaanse maker van onder meer iPhones en Macbooks dat doet, blijft vooralsnog onduidelijk.

Dat Apple machine learning inzet om de accuduur van apparaten te verlengen, blijkt uit een achtergrondverhaal van Backchannel-journalist Steven Levy die op het hoofdkantoor een briefing kreeg over de machine learning-inspanningen van de fabrikant. In het verhaal staat verder dat Apple-apparaten tot 200MB aan data opslaan om te gebruiken voor optimalisaties. Wellicht beperken Apples besturingssystemen het stroomverbruik van apparaten door bijvoorbeeld te voorkomen dat weinig gebruikte apps op de achtergrond zaken gaan uitvoeren die stroom vragen of door het uitzetten van bepaalde functies als het scherm uitstaat, iets dat Google in Android doet met Doze.

Apples boodschap met het verhaal is volgens de auteur dat het bedrijf voorop loopt op het gebied van kunstmatige intelligentie. Naast het verlengen van de accuduur gebruikt het bedrijf machine learning voor de spraakherkenning van digitale assistent Siri, het herkennen van gezichten op foto's in iOS 10, het bepalen of gebruikers moeten switchen van een zwak wifi-signaal naar een mobiel netwerk en het negeren van ongewenste schermaanrakingen bij het gebruik van de Apple Pencil op de iPad Pro-tablets.

De Amerikaanse fabrikant heeft geen 'machine learning'-team, maar heeft specialisten op diverse afdelingen lopen. Bovendien claimt Apple dat het intern mensen opleidt om specialist te worden op dit gebied, door trainingen in relevante werkvelden als wiskunde, statistiek en cryptografie.

Het is voor het eerst dat Apple zich zo ferm uitspreekt over machine learning, kunstmatige intelligentie en neurale netwerken. Het Amerikaanse bedrijf heeft in het verleden wel bedrijven in deze werkvelden overgenomen, maar in tegenstelling tot concurrenten als Google en Microsoft is het niet open geweest over de eigen inspanningen op dit gebied.

Coverfoto van het achtergrondverhaal van Steven Levy op Backchannel

Moderatie-faq Wijzig weergave

Reacties (66)

Ik begin de indruk te krijgen dat machine learning steeds meer wordt gebruikt als magische zwarte doos...
Dat is het ook een beetje. Machine Learning is een verzamelterm voor een groep technieken die allemaal iets te maken hebben met het herkennen van patronen. Het gaat dan met name om onbekende of wisselende patronen of patronen die zo ingewikkeld zijn dat ze met klassieke methodes niet aan te tonen zijn.

Het lijkt inderdaad wat op een magische doos. Je gooit er heel veel data in die je zelf niet begrijpt, de computer ratelt wat, en er komt een mooi antwoord uit. Het lijkt dus een geweldige techniek waarmee je ieder probleem kan oplossen, maar dat is een beetje misleidend.
ML is over het algemeen namelijk erg inefficient, langzaam en moeilijk, meestal is er een andere techniek die veel beter is. Als er een probleem moet worden opgelost dan begint niemand met ML; je eindigt er mee nadat al het andere gefaald is.
Als er dan echt niks is dat werkt dan is het de moeite waard om ML te proberen. Verzamel al je data, prop het zo goed mogelijk in de computer en bid tot de goden dat de computer een patroon kan vinden. Als er iets uit komt is het al snel groot nieuws, want het probleem was dusver onoplosbaar.
Wat er uit komt is vaak langzaam, complex en onhandig maar iets is beter dan niets.


PS. Ik heb niks tegen ML of AI hoor, ik vind het een prachtig onderwerp, maar het is geen toverstok die al onze problemen gaat oplossen.
ML is over het algemeen namelijk erg inefficient, langzaam en moeilijk, meestal is er een andere techniek die veel beter is.
De efficiëntie, snelheid of complexiteit heeft helemaal niks van doen met Machine Learning an sich. ML is een verzamelnaam voor een heleboel algoritmes die elk hun eigen voor- en nadelen hebben. De drie termen die je noemt zijn juist sterk afhankelijk van de (soort) data zelf, ipv het gebruikte algoritme. Voor iedere soort is er weer een ander algoritme 'beter' geschikt, mbt snelheid, nauwkeurigheid en uitvoerbaarheid.

Weka is een (oude) bekende en zeer uitgebreide toolset van ML technieken.
http://www.cs.waikato.ac.nz/ml/weka/
Je kunt enorm veel leren van bepaalde pre-processing stappen, settings en leermethoden die uiteindelijk invloed op je resultaat hebben.

[Reactie gewijzigd door geekeep op 24 augustus 2016 22:09]

De efficiëntie, snelheid of complexiteit heeft helemaal niks van doen met Machine Learning an sich.

ML is een verzamelnaam voor een heleboel algoritmes die elk hun eigen voor- en nadelen hebben. De drie termen die je noemt zijn juist sterk afhankelijk van de (soort) data zelf, ipv het gebruikte algoritme. Voor iedere soort is er weer een ander algoritme 'beter' geschikt, mbt snelheid, nauwkeurigheid en uitvoerbaarheid.
De kunst van ML is weten welke algoritme je moet gebruiken .;)

Het vakgebied is niet fundamenteel langzaam, maar in praktijk komt het daar wel op neer. De meeste technieken die gebruikt worden leren door grote hoeveelheden data door te ploegen en daar met behulp van statistiek van te leren. Daar komt een hoop rekenwerk bij kijken. Populaire technieken als neurale netwerken, bayesiaanse netwerken en genetische algoritmes zijn daar voorbeelden van. De uitkomst is eigenlijk nooit de perfecte oplossing (als die al bestaat) maar een redelijke benadering.
PS. Ik heb niks tegen ML of AI hoor, ik vind het een prachtig onderwerp, maar het is geen toverstok die al onze problemen gaat oplossen.
Het nadeel van ML vind ik persoonlijk dat het een grote black box is. In de dagelijkse praktijk gebruik ik ML voor het oplossen van complexe zaken, maar niets is heerlijkers dan zelf de materie in te duiken, een eureka-moment te hebben en met de nieuw opgedane kennis problemen blijvend op te lossen.
Tijdens mijn werktuigbouwkunde-opleiding hebben we kennis gemaakt met optimalisatieroutines. Sommigen zijn heel eenvoudige zoektochten (iteratief) naar het optimum, gebaseerd op zelf ingegeven vergelijkingen met meerdere parameters, maar anderen waren hele softwarepaketten waar je input gaf en er kwam "iets" uit. Gevoelsmatig was het resultaat vaak wel goed, maar ik snap helemaal wat je bedoelt met die black box. Dat voelt niet goed en als er een keer een probleem is, is het heel eenvoudig om aan die black box te gaan twijfelen.
Die twijfel is gezond. Want als men te veel vertrouwt op de pc, dan is het einde zoek. Mensen gaan denken over machines als mensen. Daar schuilt een enorm gevaar in.

Patroonherkenning klinkt leuk maar het leidt tot privacy verlies. Hoe ziet de wereld er uit als er op grote schaal machine learning technieken en algoritmes aanwezig zijn? Blijkbaar krijgen Apple apparaten dergelijke zaken mee. Maar dat betekent wel zoals men voorstelt, gezichtsherkenning. En dat allemaal om je phone te beveiligen etc. En hoe kun je denken dat de wereld veiliger wordt als je gebruik maakt van dezelfde technieken die net zo makkelijk je encryptie kunnen doorbreken?

Als alle IOT apparaten ook machine learning krijgen, kan je koffiezet apparaat dan inzicht krijgen in je routines en smaken? En het aard van het beestje is dat de koffiezetter verbonden is met al je andere devices. Kunnen je apparaten straks dagelijks een vergadering beleggen om hun opgedane kennis te vergelijken en met elkaar te integreren? Met een hack, exploit, zero day of zoiets naar de NSA natuurlijk... that goes without saying...letterlijk!

Je bent dus niets opgeschoten. Als een technologie zaken niet verbeterd, moet je het niet gebruiken, want wat is anders het punt van de hele exercitie?

Als je als werktuigbouwkundige een dergelijke toolbox inzet voor berekeningen van materiaalsterkte en krachtverdelingen en weet ik veel wat allemaal, dan is dat nog voordelig neem ik aan. Maar dezelfde soort toolbox inzetten op allerhande devices die mensen op zak hebben is een slecht idee en een schijn veiligheid.

Las ik net niet dat 3DES en Blowfish niet meer veilig zijn?

Er zou een maximum moeten zijn aan wat je met technologie mag doen, in dit geval patroonherkenning. Want mensen zijn complexe patronen. En met genoeg rekenkracht kun je individuen en groepen mensen 'patronaliseren.' In kaart brengen. Hun dagelijkse routines, dezelfde algoritmen die je gebruikt voor materiaal testen of andere probleem oplossingen kun je inzetten om routines van mensen in kaart te brengen.

En effe associatief doen, als je een mens patronaliseert en je brengt hun routines in kaart met hoge mate van voorspelbaarheid, dan maak je van mensen routines. En een routine is code.

Het is een hel op Aarde als men m.b.v dergelijke machine learning toolboxen de levens van alle mensen in kaart kan brengen en dus volgbaar kunt maken.

Ik begin zo langzamerhand te neigen richting een verbod op dit soort tech. Machine learning, AI. Dit zijn routes naar de digitale hel.

[Reactie gewijzigd door Vendar op 25 augustus 2016 09:17]

Het nadeel van ML vind ik persoonlijk dat het een grote black box is. In de dagelijkse praktijk gebruik ik ML voor het oplossen van complexe zaken, maar niets is heerlijkers dan zelf de materie in te duiken, een eureka-moment te hebben en met de nieuw opgedane kennis problemen blijvend op te lossen.
Ik snap niet wat men tegen ML heeft. ML is er juíst voor de gevallen waarin je niet makkelijk 1-2-3 de juiste statements kunt neerplempen. Als alles te herleiden viel tot wat if-statements had ML geen bestaansrecht.

Machine Learning wordt al jaren gebruikt in zoekmachines, spamfilters, creditcard fraude en online fraude detectie, beveiliging van netwerken, spraakverwerking en herkenning, ocr (inscannen documenten), weersvoorspellingen en monitoren van allerhande zaken (zoals bijvoorbeeld de Hollandse Brug http://www.mlplatform.nl/Applications/application-twee/).

Ieder gereedschap kan zowel goedschiks als kwaadschiks worden ingezet, zo ook machine learning. Het is slechts een tool om tot iets te komen, met name bij grote of complexe data waarbij er dus géén mogelijkheid is deze te omvatten in wat code-statements.
Ik heb er ook niets op tegen hè. Ik zie het als hulpmiddel, maar dat neemt niet weg dat ik wel nog steeds graag de ins- and outs wil weten.
ML presteert beter dan andere technieken op bepaalde vlakken waar heel veel inputdata beschikbaar is om het neurale netwerk te trainen. Dat is meteen ook een nadeel, net als de volgende punten :
- Kost heel veel parallelle rekenkracht (gpu), en daarom traag.
- Is vergelijkbaar met brute force en veel minder met hoe echte neurale netwerken werken: echte neurale netwerken kunnen binnen enkele seconden en met slechts 1 of 2 voorbeelden al generaliseren terwijl biologische processen veel trager zijn dan elektronisch mogelijk.
- Grootste nadeel is niet alleen gebrek aan inzicht waardoor efficiency slecht beoordeeld en geoptimaliseerd kan worden en bij toepassing ervan (zoals in defensie) wordt het lastig om de verantwoordelijkheid te nemen voor het gedrag van neurale netwerken.

Het wordt gewoon een statistisch gebeuren dus net als het traibjngstraject zal het gedrag ook over langere tijd moeten worden bewaakt om voldoende betrouwbaarheid te kunnen garanderen. Vergelijk het met een hond die getraind is om met kleine kinderen om te gaan. Af en toe vreet zo'n hond plots toch zo'n kind op en zeggen de ouders "Hmm dat doet 'ie anders nooit". Die risico's worden mogelijk geïntroduceerd bij pure neurale netwerken terwijl klassieke software veel voorspelbaarheid is en dus is de kans groot dat voor de meeste functies er een hybride oplossing blijft zoals nu met heel veel handmatige optimalisaties. Daardoor krijg je nooit intelligentie zoals levende wezens maar dat zal voor de meeste toepassingen ook onwenselijk zijn. Alleen voor sociale robots is het wenselijk om onvoorspelbaarheid (wel statistisch, niet exact) te hebben want dat geeft het biologische trekjes en dus meer menselijk.
Ja precies, zoals mijn iPhone mij de voorbije 2 weken telkens vertelde hoe lang de "autorit naar het werk" zou duren... Terwijl er in mijn agenda "Vakantie" staat. ;)
Veel leren of intelligentie zou ik het niet noemen.
Precies, en juist daar ga je met Machine learning de verschillen merken als het goed wordt uitgevoerd tenminste: in je agenda staat een vlucht en de avon er voor komt het toestel met een advies hoe vroeg je weg moet gezien verkeersdrukte en weer. Daarna vraagt je toestel of je ook even je wekker nog wilt zetten en of 6:00 dan een goede wektijd is. Als je het nog verder door zou trekken zou het "systeem" ook al moeten hebben geinventariseerd hoeveel andere gebruikers op datzelfde moment "Schiphol" in hun agenda hebben staan en daarmee de file moeten voorspellen. Heel big brother als het verkeerd uitpakt, maar van grote praktische waarde als het lukt.

Wat zou je er bijvoorbeeld van vinden als je een vlucht gaat boeken en je de opmerking krijgt: de vlucht die u nu kiest is in de winterperiode in 90% van de vertrekken vertraagd. De vlucht een uur eerder is slechts in 2% van de dagen vertraagd, maar alleen in de zomer. Betaal je dan toch 50 euro bij of neem je een ongunstigere vliegtijd voor lief?

Je kan dat goed of slecht inzetten. Bij Easyjet moest ik laatst 130,- afrekenen voor een ticket. Toen ik op betalen klikte kwam een popup dat de vlucht erg populair was en tijdens het proces 30,- euro duurder was geworden. Of ik de portemonnee nog even wilde trekken. Nee dus, dus de boeking afgebroken. Even wat anders gedaan en toen nog een keer gekeken. Welkom terug bij ons. En vervolgens kreeg ik de vlucht voor 86,- euro. Blijkbaar bang dat ze de boeking kwijt waren. Ik hoop nu wel dat "the machine" geleerd heeft dat ze als ze mij een prijsverhoging door de strot proberen te drukken, het ze geld kost om mij terug te winnen.

De voor ons eenvoudige dingen die je hierboven leest nemen bij Machine learning veel tijd in beslag om een beetje kloppend te gaan werken. Maar als ze gaan werken, dan is het griezelig secuur.

Als je beseft dat bijvoorbeeld Apple nu zover is dat je toestel niet meer de hele nacht email staat te pollen als je niet actief bent, maar als een gek je mail begint op te halen zodra je 's-ochtends je toestel oppakt, dan weet je wat voor een weg er nog te gaan is.

Wat er de komende tijd mogelijk is zal je echter verbazen. Je ziet ING nu al vragen of ze inzicht in je betaalgedrag mogen hebben en vastleggen om te kunnen voorspellen welke uitgaven er aan gaan komen. Dat mochten ze niet voor alle klanten invoeren, dus nu alleen een opt in door een vraag in de app.
Geen idee waarom je -1 krijgt, je hebt gewoon gelijk. In dit bericht staat nul inhoud. Machine learning is zó breed dat de uitspraak "we gebruiken machine learning voor deze toepassing" zonder verdere technische informatie echt volledig nietszeggend is. Het is gewoon pure marketingpraat en gebruik van buzz-words zonder echte inhoud.
Dat is het tweakers artikel, alsmede ook de super slechte titel. Het originele artikel is een heel stuk specifeker en uitgebreider.
Ik irriteer me met name aan het gebruik van machine learning en kunstmatige intelligentie in één adem, alsof het synoniem voor elkaar is. ML wordt gebruikt voor KI, en valt dus onder een van de technieken binnen het KI vakgebied. Een functie die bijhoudt welke apps weinig worden gebruikt en dus geweerd uit het geheugen (scheelt batterij) noem ik weinig intelligent. Siri daarentegen is wél een vorm van KI.
Het is wellicht ook een stuk marketing om een mooi woord te gebruiken wat je kamerthermostaat ook al kan: patronen herkennen.

Het artikel is echter niet duidelijk of machine learning op het apparaat zelf gebeurd (wat me weer rekenkracht kost en juist de batterijduur verkort) of dat er ergens big data verzameld wordt en offline wat gedaan wordt met de informatie en die als 'regels' op (toekomstige) telefoontoestellen verwerkt.

Gelukkig is een mens meer dan een set patroonherkenningsregels, zodat je de (deels grootspraak) van KI niet ooit een substituut slimmer mens opleveren zal :).
Het is wellicht ook een stuk marketing om een mooi woord te gebruiken wat je kamerthermostaat ook al kan: patronen herkennen.
Ik denk het ook. Vooral omdat het zo lekker vaag gehouden wordt wat ze doen. Ik denk dat het eigenlijk niks voorstelt, maar dat het net aan de criteria voldoet om het ML te noemen :)
Het artikel is echter niet duidelijk of machine learning op het apparaat zelf gebeurd (wat me weer rekenkracht kost en juist de batterijduur verkort) of dat er ergens big data verzameld wordt en offline wat gedaan wordt met de informatie en die als 'regels' op (toekomstige) telefoontoestellen verwerkt.
Ik neem aan dat de grootste besparing te halen is met rekening houden met individuele patronen van gebruikers, dus tenzij je een heel complexe set regels wil invoeren met je nieuwe OS-update, zou ik het lokaal analyseren en dus afstemmen op de gebruiker zelf. "Iedere ochtend om X uur wil de gebruiker het weer zien, dus laten we dat, terwijl het toestel nog aan de lader ligt, om X uur - 15 minuten alvast synchroniseren en de app pre-loaden" (ofzo).

[Reactie gewijzigd door Grrrrrene op 25 augustus 2016 08:06]

Ben toch wel met Cilph eens. De term Machine Learning heeft niet een heel duidelijke defenitie. Het zijn wel termen die (in dit geval) Apple gebruikt om aandacht te trekken en bijna niemand die weet precies wat dit is. Het klinkt wel veel sexier dan, "apple optimaliseert accu verbruik verder". Je kunt dan beter suggereren dat je smartphone echt smarter aan het worden is. its alive ...


ik geloof trouwens dat ik het artikel niet goed gelezen heb! het gaat niet perse over accuduur maar over de claim dat apple hierin voorop loopt. Een oncontroleerbare claim, tenzij ze een aantal baanbrekende wetenschappelijke artikelen gepubliceerd hebben over dit onderwerp.

[Reactie gewijzigd door tw_gotcha op 24 augustus 2016 19:43]

Google roept hetzelfde over hun zelfrijdende voitures, en bij Microsoft kun je ook 'machine-learning' inzetten voor eigen applicaties (naast dat ze ML gebruiken voor o.a. Office 365 functionaliteiten als Delve, Inbox Focus ed). Verder riekt alles van leunt op 'machine-learning' als functionaliteit die 'naar huis belt'; niet zo heel veel jaren geleden reden genoeg voor privacyorganisaties om aan de bel te trekken; dat lijkt nu wat minder.
Naja, als je kijkt naar neurale netwerken en supervised learning...
Machine learning voor Siri lijkt me logisch maar voor de accu minder. Want dat kan je meer volgens een vaste set regels doen zoals doze. Maar misschien kijken ze welke apps je belangrijk vind en deze minder beperkt worden in accugebruik oid?

Edit : het is zeker geschikt om patronen te herkennen. Maar vaak moet je je netwerk oid wel trainen. De vraag is wat voor patronen ze daar voor gebruiken.

[Reactie gewijzigd door Mr_gadget op 24 augustus 2016 19:17]

De vraag is wat voor patronen ze daar voor gebruiken.
Daarvoor dient net machine learning: het zit hem in de naam, de machine leert zichzelf wat de optimale tactiek is ;) Wat je ervoor nodig hebt, is een grote set trainingsdata. En die heb je: al die iPhones waarbij de gebruikers 'allow this device to collect anonymous data' gewoon aanstaat, die sturen gebruikspatronen naar Apple, en daaruit kan dus afgeleid worden wat voor gebruikspatronen er bestaan.
Het is tegenwoordig ook erg 'hip' om met de kreet 'machine-learning' te pas en onpas te gebruiken; het impliceert dat gebruikers en ontwikkelaars weinig meer hoeven te doen. Dit zal dus wel uit de koker van marketing komen.
Machine learning is uitermate handig om bepaalde patronen te herkennen en configuraties te testen. Een fixed lijst, is vrij statisch ;) Continue de configuratie aanpassen, wellicht per gebruiker of gebruikersgroep, lijkt mij veel beter.
Google DeepMind gebruikt het om energie te sparen in datacenters:
http://www.wired.co.uk/ar...d-data-centres-efficiency

" it was possible to reduce the energy used for cooling the centres by a staggering 40 per cent."

[Reactie gewijzigd door venkinto op 24 augustus 2016 20:01]

Machine learning voor Siri lijkt me logisch maar voor de accu minder.

Edit : het is zeker geschikt om patronen te herkennen. Maar vaak moet je je netwerk oid wel trainen. De vraag is wat voor patronen ze daar voor gebruiken.
Ik denk dat het patroon bepaald wordt door het leven van de eigenaar. Hoe laat gaat deze persoon naar bed en wanneer staat hij weer op? Wanneer wordt de accu typisch geladen? Welke apps worden vaak gebruikt en welke niet? Om welke tijd?

Met die informatie kan je beslissen of de gebruiker snel even z'n accu wil bijladen of dat je 8 uur de tijd hebt omdat hij ligt te slapen. Ook kun je voorspellen hoe lang je nog hebt tot de volgende laadbeurt en daar rekening mee houden.
Je accu is niet alleen kijken naar spanning en stroom. Maar je hebt veel meer data nodig om het juist mooi te maken. Data vanuit het OS over welke applicaties, geheugen management en veel meer. Hieruit kan het OS door machine learning zien wat nou de grote gebruikers zijn en kijken naar optimalisaties.
dat levert niet perse een lange accuduur op? als je apparaat zich instelt op jouw hoge verbruik als je dat hebt, is er wellicht geen winst? Ik weet niets van machine learning.
Waarschijnlijk helpt het meer als je siri en alle gadgets (gezichtsherkenning op foto's) niet gebruikt. Dan leest het artikel anders: we hebben heel veel processen in de achtergrond draaien die we cool vinden maar die stroom vreten, dus nu optimaliseren we je telefoon zodat dat weer een beetje meevalt... }>
Hoeveel je ook gebruikt, je zult nooit alles wat draait echt tegerlijkertijd gebruiken. Heel simpel: stel je hebt Facebook altijd aan staan. Dan kan dat continu updates binnen halen, maar je kunt het ook zo maken dat als je het niet zichtbaar op het scherm hebt je geen updates ophaalt (of met een lagere frequentie). En dat kan je voor alle applicaties doen.
Met patroonherkenning kan je veel meer.. Zoals je slimme thermostaat doet. Oh, je wordt kennelijk wakker om 6 uur, en wilt 10 minuten later updates zien op FB, 5 minuten later je browser activeren?
Dan kan het gros van de netwerk activiteit uit tot 6 uur, de browser in slaap gebracht worden etc. En dat soort dingen meermalen per dag.
Als die machine learning logic maar niet teveel stroom verbruikt ;-)
Kan is dat veel daarvan niet op het toestel plaatsvind maar in de cloud. Net als Siri.
Ik denk dat je dat fout ziet. Juist heel veel onderdelen in iOS worden lokaal uitgevoerd, juist om de privacy van de burger te waarborgen. Apple heeft dit al meerdere keren duidelijk gemeld en is niet geïnteresseerd in onze data. In iOS 10 kunnen we eindelijk gezichtherkening gebruiken in foto's. Dit is eindelijk mogelijk door dat de chips in een IPhone een stuk krachtiger zijn dan een aantal jaar geleden. Apple ontwerp deze chips zelfs en met ook op de toekomst kunnen ze precies inschatten wat de chips allemaal aankunnen. Hierdoor hoeft Apple geen serverpark te bouwen om bijvoorbeeld gezichtherkening te doen. De chips van een IPhone dan prima zelf berekenen. De privacy blijft hierdoor gewaarborgd, door dat alles op de telefoon zelf wordt gedaan ipv op een server.

[Reactie gewijzigd door Xieoxer op 25 augustus 2016 08:07]

Apple probeert juist veel op het apparaat zelf te doen. Zo is onderwerp / gezichtherkenning van foto's ook iets wat op het apparaat zelf gedaan wordt.
"Apple heeft dit al meerdere keren duidelijk gemeld en is niet geïnteresseerd in onze data."

Are you sure about that?
Ja.

Kijk anders even de black hat presentatie, ze gaan er bijzonder ver in.
Is niet nodig. Machine learning is niet zo rekenintensief.
Haha. Dat is een grap toch? Kijk eens naar neural networks, RFT ...
Uit het bronartikel:
If you’re an iPhone user, you’ve come across Apple’s AI, and not just in Siri’s improved acumen in figuring out what you ask of her. You see it when the phone identifies a caller who isn’t in your contact list (but did email you recently).
Tsja, dat kan je AI noemen ja. Ik ben er niet van onder de indruk - heeft niets met intelligentie te maken. Als je dat machine learning noemt, dan is de voorraadbeheersoftware van de Jumbo (waar telkens nieuwe produkten aan toegevoegd worden op basis van een database!) ook machine learning en kunstmatige intelligentie.

wat spraakherkenning betreft wil ik ze echter wel geloven. Judgement day komt er voorlopig heus niet, maar spraak- en beeldherkenning: dat zijn de paradepaardjes van AI op dit moment ja, en niet voorbehouden aan Apple.

[Reactie gewijzigd door Znorkus op 24 augustus 2016 20:23]

E-mail footers zijn niet super gestandardiseerd en soms staat er dus helemaal geen telefoonnummer in dus het is wel even wat andere koek dan een relationele database waar alles in stricte formaten wordt aangeleverd. Bij de Jumbo moet een of andere sloof een productformulier invullen of een shipping label inscannen wat dus eerder op die manier is aangemaakt. Automatisch recente belletjes crossreferencen met een berg uiteenlopende mailtjes, waar dus of een telefoonnummer in staat maar misschien ook alleen maar "ik zal je zo wel bellen" is wat andere koek. Het verwerken van natuurlijke taal wordt traditioneel gezien als machine learning taak, wat dus vaak op een hoop wordt gegooid met AI.

Wat wel kan in zo'n bevoorradingssysteem is bepalen bij welk aantal van een bepaald product er bij besteld gaat worden (gegeven het seizoen oid), dat word ook bij grote bedrijven steeds vaker automatisch gemodelleerd met zelf lerende algoritmen. Zo heeft Amazon ook min of meer een patent op je pakketje klaarleggen in een warenhuis in jou buurt voordat je op bestellen klikt door te kijken naar je zoekgedrag.
Dit doet MS ook met de data die wordt verzameld. Als je daar de reacties ziet over privacy.. Leuk dat apple zegt dat het lokaal gedaan wordt maar wanneer een bepaalde features wil verbeteren zal machine learning niet de data van 1 telefoon gebruiken.
"Het is voor het eerst dat Apple zich zo ferm uitspreekt over machine learning, (..) is het niet open geweest over de eigen inspanningen op dit gebied."
False. In Juni gaf Apple nog aan dat in de nieuwe Photos tagging en classificatie gebeurt met deep learning. Ook hebben ze laatst nog een AI bedrijf overgenomen. En wat dacht je van Siri?

[Reactie gewijzigd door tzaman op 25 augustus 2016 09:00]

Prima, maar ik heb toch echt liever dat men er een batterij in propt die langer mee gaat. Niemand zit te wachten op procentjes, we willen allemaal dat de batterij gewoon dagen meegaat, zoals dat met die goede oude 3210 was.
Daar hebben ze toch al de magical quasimodo case voor uitgebracht voor 119 euro :+ ?

[Reactie gewijzigd door BarôZZa op 25 augustus 2016 17:07]

Dat ding is inderdaad echt belachelijk, 120 euro voor een powerbankje t.w.v. hooguit een paar euro.

Zuinig en duurzaam is de toekomst, maar ik vind de volgorde hoe daar naar toe gewerkt wordt niet de juiste. Eerst batterijen die accuduur vertienvoudigen, en pas dan je apparaten er op aanpassen, zodat de batterij kleiner kan. Apple draait het om, waardoor we verlopig nog vast zitten aan dagelijks laden.

Over 10 jaar lachen we om deze discussie, en is je batterij niet groter dan een micro sd kaartje, die vervolgens wel veel langer meegaan dan de huidige lithium-Ion batterijen. Grafeen is de toekomst.
Apart bericht. Apple stelt volgens dit artikel dat ze zelf zeggen dat ze voorop lopen met AI. Ten eerste, als je dit zelf gaat roepen in de pers dan gaan bij mij al vraagtekens onstaan. En ten tweede hoor je eigenlijk niets van Apple en AI, dit is dan weleens waar ML, maar AI is toch weer wat anders dacht ik? En al zou het hetzelfde zijn lees ik niets wat Google of IBM bijvoorbeeld vorig jaar al niet deden en konden. Plus dat zij nog veel meer mijlpalen hebben behaald inmiddels.
Nou ik weet niet wie hier de moeite heeft genomen om het origineel artikel te lezen, en dan zal je zien dat Apple niet met dergelijke bewoording gebruikt dat ze, zoals jij het leest, voorop lopen.
Ze zeggen ook niet de eerste te zijn, maar het is sommige gevallen anders te gebruiken en er veel mee doen, niet alleen voor de gebruiker maar ook voor ontwikkeling van producten zoals de Apple pencil. Daarnaast weegt bij Apple privacy zeer zwaar en dit vraagt in AI soms een andere aanpak.

De vraag van de schrijver is " Apple bewijs eens wat je nou werkelijk aan AI doet" en in het artikel wordt aangegeven hoe ze het zoal toepassen binnen het Apple ECO systeem.
Je hoort inderdaad niets over Apple en AI in tegenstelling tot anderen, maar dat heeft te maken hoe de verschillende fabrikanten het toepassen. Binnen Apple is het meer een zelfsprekendheid binnen het Apple eco systeem waar je als gebruiker niet meteen bij stil staat, bij een ander kan het veel zichtbaarder zijn.
Het hele artikel gaat niet over wie eerder en of wie de beste is of wat dan ook.
Waarom zou Apple naar het publiek communiceren over AI? Welk nut heeft dat? De consument heeft daar totaal geen boodschap aan. Apple heeft een heel specifieke manier van communiceren en die verschilt heel hard van de andere geek firms. Google, IBM, Microsoft, .. die communiceren vooral met geeks. Apple communiceert met jan in de straat. Om een voorbeeld te geven Apple legt de opslagruimte van toestellen uit met hoeveel songs of hoeveel foto's je kan opslaan. Ook geen geneuzel met Mhz en Ghz, gewoon "2 times faster". Dat zijn begrippen die consumenten kunnen verstaan. Als Apple over AI praat dan zal het dat demonstreren naar de consument zoals met Siri, ze communiceren dan niet over AI maar over een personal assistant.

Je gaat dus nooit projecten van Apple zien die de winkels niet halen. Of ze zo hard voor op lopen zal je pas merken als ze met een product komen waar je in eerste instantie twijfelt of het wel deftig kan werken omdat andere bedrijven er niet in geslaagd zijn bijvoorbeeld.
nieuws: IBM ontwikkelt software voor voorspelling rekenkracht

Tweakers zelf heeft er ook over bericht dus het mag niet onbekend zijn. Trackrecord gaat zelfs nog verder terug met Watson.
Voorop lopen != uitvinden.
Maar misschien kun je ook ergens een linkje vandaan toveren waar Apple deze zaken beweert ? ... Crickets

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True