Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Apple ontwikkelt chip toegewijd aan ai-taken

Apple werkt mogelijk aan een chip die alleen verantwoordelijk zal zijn voor taken die met kunstmatige intelligentie te maken hebben. Het inzetten van zo'n chip zou leiden tot betere prestaties en langere accuduur bij bijvoorbeeld de iPhone en iPad.

Het bericht komt van een anonieme bron van persbureau Bloomberg. De man of vrouw zou goed bekend zijn met de ontwikkelingen. De chip, die Apple in dit stadium de Apple Neural Engine zou noemen, krijgt taken op zich als gezichts- en spraakherkenning en toetsenbordvoorspellingen. Doordat deze specifiek toegespitst is op dit soort taken, hoeft de cpu, die deze minder efficiënt afhandelt, hier niet voor ingezet te worden, wat energie bespaart en zich vertaalt naar betere algemene prestaties en accuduur. Eenzelfde splitsing is er al op het gebied van de cpu en de gpu.

Apple zou met de zet de concurrentie volgen. Grote namen als Intel, IBM, Qualcomm en Google zijn allemaal in verschillende fasen van het ontwikkelen en implementeren van chips die speciaal bedoeld zijn voor het uitvoeren van ai-taken. Ook Nvidia zou stappen zetten om specifiek op ai toegespitste hardware te ontwikkelen. Kunstmatige intelligentie speelt niet alleen nu een rol in toepassingen als de slimme assistent Siri, maar in de toekomst zullen ze ook cruciaal zijn voor de werking van zelfrijdende auto's.

Het is nog niet duidelijk of Apple de chip zal introduceren in modellen die dit jaar nog uitgebracht worden. Wel zouden te zijner tijd ontwikkelaars toegang krijgen tot de chip zodat ze er zelf taken voor zouden kunnen schrijven. Apple weigert commentaar tegenover Bloomberg. In juni is er weer de jaarlijkse Developer's Conference van Apple. Mogelijk onthult het bedrijf daar het project officieel.

Door Mark Hendrikman

Nieuwsposter

27-05-2017 • 09:59

127 Linkedin Google+

Reacties (127)

Wijzig sortering
Heeft het verwerken van AI opdrachten gefocust op visualisatie, geluid, aanraking, reuk specifieke Processing Unit opdrachten nodig die nog niet voorzien zijn in de gangbare CPU's / TPU's? of is dit voornamelijk software die nodig is?
CPU's zijn voorbamelijk geschikt voor zogenaamde 'single instruction, single data'-operaties. Bij GPU's zijn dit 'single instruction, multiple data'-operaties. Dus hele arrays gelijk verwerken. Voor de meeste AI-toepassingen is dit al een voordeel, aangezien hier vaak met grote baches wordt gewerkt.
Echter is er vrij veel intercommunicatie nodig tussen verschillende datapunten (denk aan een node in een neuraal netwerk, waar een som wordt genomen van alle datapunten met een gewicht). Indien het gebruik hiervan groot genoeg is kan het een snelheidswinst opleveren om hiervoor ook een dedicated PU te voorzien. Wat google heeft gedaan met de TPU.
Lijkt me onwaarschijnlijk. Het moet dan ook nog iets zijn waarvoor GPU-processing en multi-core/multi-theaded rekenen afvallen. En een afzonderlijke chip? Volgens mij loont dat sinds +/- '95 niet meer de moeite, simpelweg omdat de bedrading dan te lang wordt voor een beetje prestatie.

Maar in ieder geval heb je een onbeperkt inzetbaar argument voor als je schone rekenkracht op papier onder de maat is: "Ja maar met die neurale unit ernaast kun je dat niet zo zeggen" :+
Of gewoon marketing: In de jaren 80 produceerde een fabrikant (Miele?) wasmachines met microprocessors. Die werkte erg goed, de wasmachine bleef werken nadat je de processor had verwijderd!
Het is zeker geen marketing. De AI-processor is net als de GPU ooit een opkomend fenomeen. Zie https://venturebeat.com/2...ocessing-chip-tesla-v100/. Bij nvidia heeft de CUDA-core (GPGPU) voor een kleine revolutie in de AI-wereld gezorgd, omdat het kunnen programmeren van de GPU-cores het trainen van neurale netwerken sterk versnelde. Samen met OpenCL natuurlijk, maar is minder populair. De GPU zelf is echter op veel fronten ingezet voor graphics en heeft dus instructies die graphics-specifiek zijn. Je kunt een veel efficientere chip maken waarbij de focus ligt op parallelle verwerking, maar op laag verbruik en gericht op multidimensionale differentiaalrekeningen Dat is absoluut geen marketing, maar bittere noodzaak om te voorkomen dat AI straks in de cloud leeft en niet lokaal op je eigen device.
Je hebt gelijk wat betreft de multidimensionale differentiaalberekeningen, maar dat is waar je een Tesla V100 voor hebt - in je servers, voor het trainen van je netwerken. In de iPhone en de iPad doe je alleen inference en daar is geen differentiaalberekening voor nodig.
Niet teveel hokjesdenken: Voor een telefoon die in staat is om te leren zijn een hoop leuke toepassingen te bedenken. Dat de Tesla in de server zit is meer vanwege noodzaak, dan dat 'ie daar ook gewenst is.
Meer een praktijkprobleem. De andere populaire term "Big Data" is gewoon relevant; neurale netwerken excelleren als ze veel trainingsdata hebben. Dat is in een telefoon simpelweg niet beschikbaar.
Ik denk dat veel toepassingen (zoals de Faces-feature in de iPhone) transfer learning doen, maar ook inference (helemaal met real time recurrent netwerken) kan natuurlijk een stuk efficienter op zo'n chip.
Disclaimer: Mijn kennis van AI gaat niet veel verder dan de definitie van microLenat. Maar ik ben wel bekend met marketing. En ik kan je vertellen, een schakeling die bijvoorbeeld een batterij heel snel oplaadt zonder dat deze te warm wordt heet in marketing al snel een "intelligente chip". En de overtreffende trap van intelligent is tegenwoordig AI, dus...
AI is specifieke toepassing waar er nog geen speciale PU beschikbaar voor zijn.
Het een redelijk tot goed parralleliseer baar dus gpgpu > CPU.
Maar GPU core en architectuur zijn niet ontwikkeld om optimaal AI te versnellen.

Specifieke hardware doet dat veel beter. Zoals execution unit en register layout waar je complete neurocell data en instructie in kwijt kan en procesing in zo min mogelijk PU cycles verwerkt kan worden.

De CPU is extreem general purpouse. GPU extreem paralleliseerbaar ten koste van full features en gericht op rendertaken. Zoals out of order zware branch predictor en extra registers mis je dan. Want 4 fat cores of 1000 core op DIE realestate dan zie je dat gpu cores micro dingen zijn.
AI core is hardware specialisatie die snel en efficient specifieke vaak bij AI computaties kan verwerken.

Cpu doet er bijvoorbeeld 100 cycles over.
Gpu core 20
AI 7

AIpu hoeft bijvoorbeeld niet extra gpu logic te hebben zoals TMU Rops en DVIHDMI logic. Ook geometrie en ander GFX specialisaties zoal testalatie engine kan je schrappen. Meer realestate beschikbaar voor nog meer AI cores.
Het is dus wel degelijk marketing..
Dat is absoluut geen marketing, maar bittere noodzaak om te voorkomen dat AI straks in de cloud leeft en niet lokaal op je eigen device.
En wat gebeurt er dan?

Wat AI als tech-term naar mijn idee een hype maakt is het feit dat we, terug naar de basis altijd weer bij AND en OR uitkomen. Zo lang dat het geval is is een eventuele prestatiewinst door wijzigingen in de archictectuur altijd aantoonbaar of weerlegbaar middels simulatie. En het ontstaan van een "bewustzijn" dat zich manifesteert in software is volgens mij nog steeds science-fiction.

Zinvoller lijkt het mij om AI/deep-learning -achtige technieken in te zetten bij het ontwikkelen van hardware en daar een efficientie-slag mee te maken. Geen idee eigenlijk, maar Intel en AMD zullen er vast al lang mee bezig zijn.
In principe is elke computer Turingcompleet (ook eentje die geen AND en OR gates heeft trouwens), maar je kunt hem wel voor toepassingen optimaliseren. AI-algoritmes kunnen stroom vreten als je ze op een algemene processor uitvoert, dus dan loont het om daar een aparte voor in te zetten.

Om AI te gebruiken voor het ontwikkelen van die processor is niet evident. Je kunt wel een "lege" processor van AI voorzien om zelf algoritmes te implementeren, maar in een telefoon gaat dat niet lonen.
En wat gebeurt er dan?
Het gaat om wiens data het is. Apple maakt er een effort van om AI te implementeren zonder al je activiteiten naar de cloud te uploaden.
Toen men besloot dat voor 3D toepassingen een GPU beter werkte dan een CPU, was dat ook zeker marketing?

Nee, dit is geen marketing. Net zoals bijvoorbeeld dat er asics (speciale hardware) ontwikkeld is voor bitcoinminig. Hardware specifiek op iets gericht is altijd efficiënter.
Compleet off-topic, maar heb je een link oid? Ben hier benieuwd naar, maar kan het zelf nergens vinden.
Gehoord tijdens college Besturingssystemen van dhr. De Kruijff (of afwijkende spelling), TU Delft, Technische Informatica, rond 87-88. Ik kan me voorstellen dat het lastig zoeken is. Succes!

Correctie: nu ik er over nadenk: het college heette Kleine Operating Systemen, verzorgd door De Kruijff van de vakgroep van Prof. Herschberg. Vakcode kan ik helaas niet meer vinden. Misschien was het een jaar later, collegejaar 88-89.

[Reactie gewijzigd door Free rider op 27 mei 2017 18:57]

Heb ik ook nog college van gehad, maar nooit van gehoord. Lijkt me een fabeltje. Ik heb wel Miele modules gezien waar een PIC inzat, een van de oudere types van nog voordat hij bekend was in de hobbywereld. Ik geloof dat het toen in de motorsturing was, maar dat weet ik niet meer zeker.

Nou zou het natuurlijk best kunnen dat er in het aangehaalde voorbeeld sprake was van een hybride timer, dat lijkt me wel erg waarschijnlijk. De mechanische klok loopt het programma af en de microcontroller regelt bepaalde details. Dan kan het natuurlijk best lijken of alles nog werkt, maar geheid dat er dan ergens in het programma iets niet gebeurt.
Mja,
Bij het gebruiken van neurale netwerken zijn er 2 stappen:

1) Training: hier moet je complexe berekeningen voor doen met vrij hoge precisie om je netwerken te laten 'leren'. Dat gebeurt op krachtige GPU's, maar er komen ook meer en meer specifieke chips hiervoor (bv Google's Tensor Processing Unit).
2) Gebruik: 'inference' in vaktermen. Je netwerk is bv getraind om honden van katten te onderscheiden. Je geeft het een input beeld en het doet wat berekeningen om te voorspellen of die input een hond of kat is. Dit is veel minder rekenintensief dan helemaal opnieuw trainen, en je kan ook heel wat optimalisaties doen om dit verder te vereenvoudigen (lagere precisie getallen gebruiken bv).

Dit is waar Apple nu een chip voor maakt en wat je in je smartphones terug zal vinden. De training blijft op grote server farms.
Slim natuurlijk om hier een coprocessor voor de ontwikkelen. AI is nogal hot de laatste tijd, maar in hoeverre is hier sprake van kunstmatige intelligentie? Of verwar ik het met kunstmatig bewustzijn?
Kunstmatig bewustzijn zijn we absoluut nog niet, maar we zijn wel dichtbi Artificial General Intelligence (https://en.wikipedia.org/...cial_general_intelligence). Dus een AI die generieke problemen kan oplossen. Ofwel, een AI die je leert om zowel geluiden te herkennen als beelden, beelden kan genereren en acties kan uitvoeren en meer van dat. AI tegenwoordig moet per probleem opnieuw ontworpen worden. Er zijn wel design patterns die je kunt toepassen, maar het model moet bij ieder probleem eigenlijk opnieuw bezien worden.

Machine learning (feed-forward, backprop) doen we al heel erg lang, maar dankzij snellere hardware en beschikbaarheid van data hebben we nu deep learning met recurrency, autoencoding en ga maar door. Het gevolg is dat we veel intelligentere neurale netwerken kunnen maken, maar om die efficient te trainen en te bevragen is het handig om specifieke hardware te hebben.

Bewustzijn is een heel ander onderwerp. Voordat dat gebeurt zal er hoogstwaarschijnlijk eerst een technologische singulariteit moeten zijn (https://nl.wikipedia.org/wiki/Technologische_singulariteit): AI is dan in staat zichzelf te evolueren tot iets beters. Waarschijnlijk veel sneller dan mensen dat kunnen. Singulariteit hoeft niet te betekenen dat de AI ook bewust is. Maar again: enorme toekomstmuziek.
We zijn wel dichtbi Artificial General Intelligence (https://en.wikipedia.org/...cial_general_intelligence). [...] Ofwel, een AI die je leert om zowel geluiden te herkennen als beelden
Eh, nou heb je't over mijn vak. Wij maken AI geluidsherkenning, bijvoorbeeld voor de nachtzorg in zorgdorpen. Bij de ontwikkeling kijken we breder dan alleen geluid (we hebben de niet-onredelijke mening dat wij voorop lopen met de toepassing van AI in geluid, dus van onze concurrenten gaan we weinig leren).

Concreet zien we dat in beeldherkenning de State of the Art de zogenaamde CNN's zijn, convolutionele neurale netwerken. Die netwerken zijn expliciet 2D in hun layout, net zoals de beelden. Geluid is fundamenteel 1D. (Video is dan weer 3D)

Een gerelateerd probleem is dat geluid de nare eigenschap heeft om te overlappen. Met beelden heb je dus ook twee scheidingsdimensies - twee objecten kunnen naast elkaar of boven elkaar staan; het gaat pas fout als er 1 achter de ander staat. Geluid daarentegen heeft alleen tijd als scheiding, en het is als gevolg daarvan volkomen normaal dat twee geluiden overlappen.

Kortom, als we iets zien, is het juist dat beeld en geluids AI's steeds minder op elkaar gaan lijken.
Wij maken AI geluidsherkenning, bijvoorbeeld voor de nachtzorg in zorgdorpen
Gaaf! :)
Kortom, als we iets zien, is het juist dat beeld en geluids AI's steeds minder op elkaar gaan lijken.
Ja, voor specifieke toepassingen zal dat ook zeker gelden hoor. Dat geloof ik zo. Neemt niet weg dat er momenteel veel research en effort is om general intelligence te maken en dat het beschikbaar zijn van hardware en data dat proces versnelt.
Zou je me ook kunnen vertellen hoe zich dat naar hardware vertaalt?
Vrij simpel. We gebruiken standaard x86 hardware. Als je AVX gebruikt voor je matrix operaties, en je zorgt dat je data layout in geheugen correct is, dan kan je op een Sandy Bridge core meer dan 100 audio streams tegelijk analyseren; met een quad core ga je richting de 500 streams.
Die netwerken zijn expliciet 2D in hun layout, net zoals de beelden. Geluid is fundamenteel 1D. (Video is dan weer 3D)
Waarom is geluid 1D en video 3D?
Geluid is een verandering van de luchtdruk. Op elk moment heb je 1 luchtdrukwaarde, en die meet je met een microfoon. De ene dimensie is dus tijd.

Video heeft tijdook als dimensie, maar daarnaast ook nog hoogte en breedte (X en Y)
Geluid is 2 dimensionaal want combinatie van frequentie en amplitude

Tijd is geen dimensie.
Je zegt dat we dichtbij een AGI zijn.

Wat is volgens jou dan een pad dat hiertoe zal leiden?

Waarom denk je dat jouw mening ertoe doet? (Heb je bijv. zelf aan een dergelijke AGI gewerkt of roep je maar wat?)

Hoeveel jaar gaat dit duren?

Binnen hoeveel tijd kan zo'n AGI dan daadwerkelijk iets doen wat vergelijkbaar is met wat een wetenschapper doet (Ik denk dan aan wetenschappers die LIGO hebben ontworpen, bijvoorbeeld)?

Hoeveel stroom gebruikt zo'n AGI dan?

Ik geloof overigens best dat er theoretische universums zijn waarin een AGI kan werken; in ons universum is het op dit moment nog meer een kwestie van "eerst zien, dan geloven".
Jeetje, wat een hoop vragen. Maar ik zal ze antwoorden. :)
Wat is volgens jou dan een pad dat hiertoe zal leiden?
Research. De algoritmen worden beter, de trainingsmethoden worden beter (one- en zero-shot learning, unsupervised learning, neuro-evolution) en de hardware om op te trainen wordt krachtiger.
Waarom denk je dat jouw mening ertoe doet? (Heb je bijv. zelf aan een dergelijke AGI gewerkt of roep je maar wat?)
Het is niet zozeer mijn mening, maar het is wat mensen als Ian Goodfellow, Yann LeCun en Elon Musk denken. Bekende namen in de AI-community. Even los van de hype is er momenteel heel veel research, wat de voortgang in het veld versnelt. Ikzelf ben 18 jaar actief in de software, waaronder machine- en deep learning, maar heb nooit aan AGI gewerkt.
Hoeveel jaar gaat dit duren?
Schattingen varieren tussen de 10 en de 100 jaar. Maar het blijft een schatting natuurlijk.
Binnen hoeveel tijd kan zo'n AGI dan daadwerkelijk iets doen wat vergelijkbaar is met wat een wetenschapper doet (Ik denk dan aan wetenschappers die LIGO hebben ontworpen, bijvoorbeeld)?
De definitie van AGI is dat het de intelligentie van de mens evenaart, dus in theorie zou je die AGI kunnen leren onderzoek te doen in verschillende werkvelden.
Hoeveel stroom gebruikt zo'n AGI dan?
Geen idee. Doet dat ertoe? ANI's zijn al enorm veel efficienter dan mensen.
Ik geloof overigens best dat er theoretische universums zijn waarin een AGI kan werken; in ons universum is het op dit moment nog meer een kwestie van "eerst zien, dan geloven".
eeh, ja.
Als je in plaats van "AI" "hardwarematig neuraal netwerk" leest klopt het beter. AI is software die een bepaalde mate van intelligentie ten toon kan spreiden, eventueel met gebruik van het neuraal netwerk. maarja het buzzword is ai, apple noemt het ai, dus tweakers bericht ai

[Reactie gewijzigd door Origin64 op 27 mei 2017 12:07]

Apple noemt het niets, het is niet officieel bevestigd, er is geen pr bericht, geen marketing materiaal etc. de 'analisten' vinden dat AI waarschijnlijk de meeste clicks oplevert.

[Reactie gewijzigd door Kura op 27 mei 2017 16:48]

Nog een chip? Ik ben geen techneut en ik zie hier zeker voordelen van in.

Maar je hebt de A series voor de iPhone en de iPad
Je hebt de S series voor de Apple Watch
Je hebt de Wserie voor de Airpods
Je hebt de T chip voor de Touch Bar

Wordt het uiteindelijk geen warboel voor coders om er applicaties voor te schrijven?

Zolang het allemaal ten goede komt van het product ben ik voor uiteraard.
Het is niet zo heel vreemd. We zijn heel langzaam van de AIO processors aan het overstappen naar processors voor specifieke taken. Vroegah werden de grafische berekeningen ook door de CPU afgehandeld. Processors toegesplitst op hun taken kunnen hun berekeningen een stuk optimaler en zuiniger uitvoeren dan een manusje van alles processor.

In de cloud zijn ze ook al programeerbare processors aan het uitrollen om die naast de CPU's en GPU's aan het werk te zetten.

Ik kan het uit dit artikel niet opmaken en ik zit niet zo heel diep in de Apple wereld, maar dit lijkt me ook een soort van FPGA te worden.
In de SmartPhone markt is SoC het zoveel mogelijk integreren van meeste taken in één chip belangrijk. Als één chip is goedkoper.
En het neemt één keer maar volume in. Dus kwa formfactor heb je meer middelen voor compact eind produckt of ruimte voor meer accu.
Ik gok meer als onderdeel van de SoC
Een SoC is niet 1 enkele processor, dat zijn meerdere processoren op een chip. Daar zie deze opdeling van taken over gerichte processoren juist het snelst gaan.
Applicaties programmeren we al heel lang niet meer tegen een chipset aan.
Mij niet duidelijk ook op andere sites of dit nou een co-pro in de SoC is of dat Apple net als Google bezig is om dedicated hardware in hun data centers te stoppen. Qualcomm zou ook een AI accelerator in hun Snapdragons aan het stoppen zijn. Allemaal leuk, maar valt of staat met software.

Overigens, op de GPU kan het ook, zie Nvidia, kwestie van juiste instructies en datapath.

Neural engine is trouwens een enorme marketing BS aan het worden. In branch prediction van een moderne CPU zit ook een "neural engine" tegenwoordig. Zie Samsung en AMD.
Als je deze alinea leest van het originele Bloomberg artikel wordt duidelijk dat het gaat om een co-processor op de SoC.

"Apple devices currently handle complex artificial intelligence processes with two different chips: the main processor and the graphics chip. The new chip would let Apple offload those tasks onto a dedicated module designed specifically for demanding artificial intelligence processing, allowing Apple to improve battery performance."

Men spreekt hier duidelijk over Apple devices, daarenboven moest dit server side zijn dan zou men niet spreken over batterij verbuik enzo. Wat Apple hier probeert te doen is zowat hetzelfde als Qualcomm doet met Hexagon digital signal processors.
Thx

Ik krijg alleen altijd jeuk van mensen die het onderscheid tussen een chip of die, en een module of core niet snappen,
Neural Cell kan meerdere ingangen maar ook uitgangen hebben .
Als ze Biologische Neuro cellen gaan simuleren.

Een Neuronet op Die in branch predictor unit is soort uiteraard marginaal klein en extreem snel en dus ook zeer beperkt. uitvoering voor voorspellen van compute flow sprongen. Een zeer specifieke taak.
Zoals onder de verschillende specimen wat er op aarde rondloopt heb je dus hele simpele Neural netwerken maar ook hele complexe. En ook wat voor soort. Een logische vereenvoudigde digitaal exemplaar voor in race game. Of zo volledig mogelijk een Biologische simuleren. Dan van luis tot wat nog lang niet kan , een dolfijn.
Apple past AI unit toe zoals AMD en nV GPU codecs met specialistische hardware doen omdat dat heel veel efficienter gaat. Als zijnde sneller klaar met minder power consumptie.
Voor een gpgpu die kan ook aardig wat AI werk verzetten maar minder efficient dan dedicated AI hardware. Als je in server hal voor 100KW aan Tesla hebt ronken of 100KW aan AI_PU kan dat veelvoud schelen aan AI compute power.
Dus ongeveer zoals de eerste Moto X een dedicated chip had voor voice control.
Nee, die chip heeft Apple ook: de M9 coprocessor zorgt hier voor.
Die zit tegenwoordig gewoon op de CPU erbij gebakken als een afzonderlijk gedeelte, maar is geen dedicated chip meer. Scheelt weer wat ruimte, en je kan hem dan meebakken op een moderner proces.
Ik zou het als iPhone gebruiker prettiger vinden, wanneer ze contactloos betalen mogelijk gaan maken in Nederland. Ik bespeur bij mezelf dat dit steeds meer een dealbreaker gaat vormen.
Ik denk dat je daarvoor niet bij Apple moet zijn maar bij de banken. Veel NL banken hanteren liever hun eigen systeem dan dat ze meeliften op een bestaand en bewezen systeem...
Dat is niet waar, Apple is gewoon traag:
Al jaren wachten we op de komst van Apple Pay Nederland, maar tot op heden laat de dienst op zich wachten. Al meerdere malen hebben we contact gezocht met Nederlandse banken. Uit deze rondvraag blijkt dat ook ING Apple Pay graag wil ondersteunen, maar op groen licht van Apple wacht om de dienst te activeren. Hetzelfde geldt voor banken als ABN AMRO en Rabobank, die wachten op het moment dat Apple de betaaldienst ook naar Nederland brengt.
Omdat de banken het enkel voor Visa & Mastercard credit willen openstellen ipv. de frequenter gebruikte debit cards.
Dat is helemaal niet waar. Alle banken (en ook Apple Pay) maken gebruik van EMV. Het enige probleem is dat we in Nederland Maestro gebruiken en voor zover ik deze nog nergens beschikbaar is voor Apple Pay. Waarom dat zo is weet ik niet.
Saywhut, contactloos betalen is al lang en breed mogelijk overal. Sinds een tijd is het ook steeds vaker mogelijk dit met je mobiel te doen maar dan moet je wel een Android telefoon hebben omdat Apple hun API voor de NFC chip niet vrijgeeft.
Dat heeft niks met Apple en een API te maken, maar het feit dat de NFC chip in Apple's toestellen niet dezelfde is als de simulatie chips in veel Android toestellen. Daarnaast kan Apple's Apple Pay prima werken met de Nederlandse banken als zij hun API zelf eens open stelden, maar dat doen ze niet, want dat vinden ze eng (en dan kunnen ze niks verdienen).
Als je de APIs van de bank nodig hebt, kunnen ze geld verdienen als ze willen. Lijk me eerder dat Apple weer traag of eigenwijs is. Nederland ook maar een kleine markt natuurlijk. Niet zoveel te verdienen.
Nee, Apple is niet 'weer traag of eigenwijs'. Leuk bedacht voor fanboys&haters, maar Apple loopt in Nederland tegen precies dezelfde problemen aan als alle andere aanbieders van technologie. Google Wallet werkt hier ook voor geen meter, PayPal in fysieke winkels ook niet, en zelfs ouderwetse creditcards vaak niet.

De banken hier zijn nogal bang voor 'andere bedrijven' die betalingsverkeer met 'hun rekeningen' gaan doen. Het is eigenlijk idioot dat zij mogen bepalen hoe je je geld gaat uitgeven/binnen krijgen.
De ING app voor contactloos betalen werkt perfect op een Galaxy S6! Waarom zou je er een extra partij tussen willen hebben die een extra marge vraagt over de betalingen? Apple vraagt bijvoorbeeld 0,15% marge over wat je besteed. Dat is kijkende naar de totale potentiële gebruikersgroep best hoog.
Hier in de UK werd Apple Pay eerder geintroduceert dan Android Pay. Sterker nog, de apps van banken waren pas later beschikbaar dan Apple/Android Pay....
Dit gaat niet alleen om Apple Pay maar ook andere draadloze applicaties zoals de OV chipkaart ;) Betalen kan inderdaad via Apple Pay maar het feit blijft dat veel NFC applicaties achter blijven omdat Apple moeilijk doet en hun API niet gewoon vrijgeeft zoals op Android.
Dit is volledig offtopic?
Waarschijnlijk geeft Apple de telefoon dan een kleinere accu waardoor deze nóg platter kan worden. :) netto resultaat: ......

[Reactie gewijzigd door 8bitfanaat op 27 mei 2017 10:04]

Een prettiger in de hand liggende telefoon die er sexiër uitziet. Blijkbaar is dat in de winkel toch doorslaggevend voor aankoop.
Ook al denk ik dat je gelijk hebt, die conclusie kun je niet trekken. Er is immers geen iPhone met de keuze in dikte.
De dikte is een keuze van apple, niet per se gebaseerd op wensen van het publiek.
De stelling dat bij de best verkopende telefoon ter wereld niet de design keuzes zijn gemaakt die precies inspelen op de wensen van het publiek, is natuurlijk ook nogal ongeloofwaardig!
Waarom doen dan zoveel mensen (ik ook trouwens) een hoesje rond hun toestel? Velen kopen een toestel voor het gemak waarmee je er mee werkt of de snelheid of andere redenen maar bij hoevelen komt het uiterlijk van een gsm op de eerste plaats?
Wat wil je daar mee zeggen? Ik doe ook een hoesje om mijn telefoon, net daarom kan een telefoon best goed dun zijn vind ik: inclusief hoesje nog geen cm dik is ideaal.
Wat ik bedoel is, als het toestel anders gemaakt zou zijn had je het niet gekocht? Ik heb ook al 6 jaar ios devices maar zou liever een toestel hebben dat vanuit de fabriek wat steviger is dan dat je er een hoesje moet rond doen en van het design wat volgens jou eerdere posting afgestemd is op wat het publiek wil is er met dat hoesje zowiezo niets meer te zien, je ziet een hoesje en een scherm dus wat maakt het allemaal uit? Dat we nog altijd moeite moeten doen om het einde van de dag te halen is een beetje belachelijk als dat eenvoudig kan opgelost worden door een toestel 2mm dikker te maken.
Ik haal nog steeds gemakkelijk het einde van de dag met m'n iPhone 6. Geen interesse in bijna 30% dikker... Ik denk dat Apple hier best wel over heeft nagedacht.
Best verkopende toestel en beste ontwerp is geen 1-op-1 relatie ;) Met name bij producten waar voornamelijk merk een van de doorslaggevende factoren is, spelen meer zaken mee zoals sociale invloed en status.

Een goed ontwerp is zowel qua uiterlijk als functionaliteit het beste van beide werelden. Een glazen telefoon is dat niet.
Tja toch heb ik mn glazen xperia z aantal keren zonder problemen flink laten vallen.
Vind het ook het mooiste ontwerp tot nu toe. Qua hardware was het ook zeker geen verkeerde O-)

[Reactie gewijzigd door Mutatie op 27 mei 2017 13:41]

Ik heb vanaf Sony Ericson P800 tot iPhone 7 nooit mijn smartphone laten vallen. Kan liggen aan dat ik als buidel dier rond loop.
Heavy duty zooi ziet er vaak minder mooi uit met stootbumpers etc.

Mijn smartphone zien ook zelden binnenkant van broekzak.
Best verkopend betekent best inspelend op de wensen van het publiek. Of je daarmee de objectief beste telefoon hebt is een andere vraag, maar dat is een andere discussie.

[Reactie gewijzigd door quantumleapje op 27 mei 2017 14:10]

Als je dat publiek met veel marketing wijs maakt wat hun wensen zijn, zodat ze zelf niet gaan nadenken.
Gezien dat Samsung factoren meer uitgeeft aan marketing dan Apple, neem ik aan dat je daar Samsung mee bedoelt?
Nee geen van beiden, ik bedoel de telefoontjes aan de man brengende industrie, die om nieuwe producten aan de man te brengen telkens weer met vrij nutteloze "vernieuwingen" komt om daarna grootscheepse marketingcampagnes op te zetten om het publiek ervan te overtuigen dat ze dat nodig hebben en/of dat ze daar altijd al op gewacht hebben.
Als je dat publiek met veel marketing wijs maakt wat hun wensen zijn, zodat ze zelf niet gaan nadenken.
Dat is een mening die getuigt van heel veel arrogantie en neerbuigendheid.

[Reactie gewijzigd door quantumleapje op 27 mei 2017 13:40]

Volgens mij is Apple's marketing budget relatief beperkt, tov zijn voornaamste concurrent, en zeker per verkochte telefoon.

Om even heel erg on-topic te blijven: iemand die denkt dat hij met zijn telefoon met een 3000mAh batterij een betere batterijduur zal hebben dan met een iPhone heeft misschien minder nagedacht dan degene die een iPhone kocht omdat die begrijpt dat batterijcapaciteit niet de enige variabele is die batterijduur bepaalt...

Goede marketing heeft nog nooit een slecht product kunnen redden! Slechte marketing kan wel een goed product ruïneren overigens...

[Reactie gewijzigd door quantumleapje op 27 mei 2017 23:01]

Hoe dunner hoe minder fijn hij in de hand ligt, vind ik althans.
Van mij mogen die telefoons best 1cm dik zijn als ik er zo 2 dagen mee door kan.
Dikke telefoons met grote accu's zijn ook meteen een stuk zwaarder en breekbaarder bij een val door de grotere kracht die op het scherm werkt.
de dikkere telefoon heeft wel een kwalitatief betere omhuizing mag ik hopen doordat er meer ruimte is. Ooit een 3310 kapot laten vallen? Is mij niet gelukt :+
Een 3310 had geen glazen scherm ;)
ik vind het altijd zo vreemd dat mensen bij voorbaat er al vanuit gaan dat ze hun telefoon gaan laten vallen en dan toch voor een smartphone met breekbaar scherm gaan. in dat geval kun je het beste een nokia 3310 kopen.

[Reactie gewijzigd door Origin64 op 27 mei 2017 12:08]

Of gewoon zo'n siliconen bumpertje kopen bij Ali voor 50 cent. Mijn telefoon al tig keer tegen de grond laten gaan, nooit wat aan de hand. Verder geen case of Screenprotector.
Gezien de vorm van de menselijke hand (en broekzak), is een prettiger in de hand liggende telefoon wat smaller en dikker dan nu de trend is.
iPhone SE heeft niet voor niks hoogste score denk ik dan.
Inderdaad. Die breedte is ideaal. Stel je voor; het SE model waarbij de voorkant volledig uit scherm bestaat.
Beter: het SE model met een fysiek toetsenbord. Knopjes FTW, mis ze nog elke dag op mijn iPhone.
Keep your hopes up;) Gaat alleen nooit gebeuren.
Gewoon scary man, straks gaat 1 seconde voor je de telefoon gaat pakken het scherm al aan en de CPU in volle versnelling. Omdat die AI chip weet dat je hem gaat pakken voordat jij het weet ;)
zonder software geen AI-processor - zo simpel is't - eens dat gekraakt is vormt die AI een ernstige bedreiging voor de IA (de koper dus).
Als de gebruiker niet de intelligentie heeft zal het uit het product moeten komen zullen ze wel bij Apple gedacht moeten hebben. :+

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True