Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 161, views: 46.917 •

De A7-processor die de volgende iPhone volgens geruchten krijgt, presteert gemiddeld 31 procent sneller dan de A6-chip van de iPhone 5. Dat claimt een nieuwslezer van Fox News, die zegt dat uit verschillende bronnen te hebben vernomen. Mogelijk wordt de A7-chip 64bits.

Apple logoDe nieuwslezer van Fox News, Clayton Morris, deed het gerucht uit de doeken via zijn Twitter-account. "Ik heb gehoord dat hij erg snel is", schrijft Morris over de nog niet aangekondigde A7-chip. Volgens geruchten zal de A7 samen met de iPhone 5S op 10 september uit de doeken worden gedaan op een evenement van Apple, evenals een goedkopere iPhone met een plastic behuizing.

Apple-nieuwssite 9to5Mac schrijft daarnaast dat de A7-chip mogelijk 64bits-processors aan boord zal krijgen. Volgens de site is het nog niet volledig zeker dat dat daadwerkelijk zal gebeuren, maar zijn er test-exemplaren van de nieuwe iPhone met een 64bits-chip in omloop. Eerder ging het gerucht al dat de nieuwe iPhone de eerste zou zijn met een processor op basis van de ARMv8-architectuur, wat 64bits-ondersteuning mogelijk zou maken.

Fox-nieuwslezer Morris twittert verder dat de nieuwe iPhone een speciale chip krijgt voor 'motion tracking', die zou worden gebruikt door de camerasoftware. Eerder schreef 9to5Mac al dat de nieuwe iPhone verbeterde camerasoftware krijgt, die onder meer over een slow-motion-modus zou beschikken. Daarnaast gaat het gerucht dat de nieuwe iPhone een vingerafdrukscanner zal krijgen, waarmee de gebruiker zich kan authenticeren.

Update, dinsdag, 09.50: Anand Lal Shimpi ziet weinig reden voor Apple om al op 64bit over te stappen op mobiel gebied. Volgens hem is het daar nog veel te vroeg voor 'tenzij de chips ook voor notebooks gebruikt gaan worden.'

Reacties (161)

Reactiefilter:-11610134+177+24+30
Ik ben benieuwd of men bij Apple softwarematig nog meer uit die nieuwe CPU weet te behalen. Als 31% extra snelheid met de hardware te halen valt zou er wellicht met software tweaks iets van 50% te halen vallen. Ik denk ook dat Apple nu overschakelt naar 64-bit vanwege het feit dat Safari etc nu onbeperkte tabs open mogen hebben waarbij wat extra bandwijdte voor het geheugen geen kwaad kan. Of wellicht zelfs wat extra ram geheugen. Dit nieuws zie ik ieder geval als positief, nu maar hopen dat het waar is want je weet het nooit met Fox.

[Reactie gewijzigd door BombaAriba op 26 augustus 2013 07:48]

Ik vermoed eerder het omgekeerde. Die 31% zal wel in bepaalde (test) gevallen zijn, misschien het maximum wat kan. Terwijl het gemiddelde eerder iets van een 20-25% zal zijn, misschien zelfs nog lager. Verder komt nu de A7 ter vervanging van de A6, in eerste instantie zal de software minder goed geoptimaliseerd zijn voor de A7, maar na verloop van tijd gaat via updates de performance wat omhoog.

Dat zie je bij de meeste devices zo. Fabrikanten claimen voor de release (door middel van hun eigen testbenches) een winst van X, in de meeste reviews rond de release zie je een stuk lagere winst. Maar uiteindelijk gaat de snelheid omhoog door optimalisaties in driver updates.

Er vanuit gaande dat die 31% meer dan een gerucht is natuurlijk.

@defixje:
Is dat tussen major releases? iOS5 naar 6 bv. Bij iOS denk ik dan eerder aan kleinere (minor) updates binnen dezelfde iOS versie.

[Reactie gewijzigd door kluyze op 26 augustus 2013 08:48]

....maar na verloop van tijd gaat via updates de performance wat omhoog...
Nou mijn iPhone doet precies het tegenovergestelde. Ik heb een 4s en een 3Gs, en allebei worden ze update na update, trager en trager. Mijn 4s is al vele malen trager na de laatste update als toen ik hem had aangeschaft, om dan maar over mijn 3Gs te zwijgen.

Ik hou mijn hart vast bij de update naar iOS7, het OS ziet er goed uit, nu maar hopen dat ze het voor de 4s ook werkbaar houden.
Ik draai beta 5 van iOS 7 op mijn 4s. Je hoeft je weinig zorgen te maken.
Ik kan dit bevestigen. Ik zelf draai ook de beta ( versie 6) en vind hem ook erg snel aanvoelen. Vloeiende animaties en snelle reacties van het OS. Ik heb echter ook dit probleem gehad met mijn 3gs. Ik had die geupgrade van 3 naar 4 naar 5 en naar 6. Soms is het goed om die eens helemaal te restoren. Dit hielp in mijn geval aanzienlijk. Neemt niet weg dat dit tijd gaat kosten.
Mijn 4s met ios 7 is een stuk sneller dan met ios 6.x ook mijn batterij gaat bij normaal gebruik nu ruim 2 dagen mee in plaats van 1 dag met ios 6.
Sterker nog.. ik ga vandaag de 3e dag in met nog 48% op de klok.. :9
Precies mijn ervaring, echt geweldig!

Alleen nu nog even wat bugs eruit, zoals het homescreen wat de weg kwijt is tussen je aanvullende schermen. Lege schermen... dat soort dingen.
Bedankt voor de feedback, ik begin er weer wat hoop in te krijgen. Vooral de accuduur zou ik erg blij mee zijn. Doe nu ongeveer 1,5 dag met mijn iPhone als dit naar 2,5 zou kunnen ben ik al blij.

Mijn angsten zijn door bovenstaande comments iig wat afgenomen. Mijn dank daarvoor.
Ik draai Beta 1 t/m 5 op mijn 4GS en ik moet zeggen dat ik verast ben ten aanzien van snelheid en batterij duur. Beide zijn zeer goed. Je merkte wel dat in Beta 1 t/m 3 de batterij duur slechter was maar dit is ook een gevolg van een Beta. Ik heb dit elke keer gemerkt met de Beta's van iOS 5 en 6.
dat je 4s en 3gs trager worden is bewust zo gedaan, in de hoop dat jij overgaat op de nieuwe iPhone! van he mijn 'oude iPhone is wel traag, laat ik voor die nieuwe iPhone gaan' niks meer en minder. }>
Ja zo'n gevoel kreeg ik er wel altijd bij ja. Maar na bovenstaande reacties ben ik wat hoopvoller geworden.
DFU reset uitvoeren.
Als alle voormalige bronnen van deze tekst het goed overgenomen hebben dan is die 31% al gemiddeld zoals in de tekst te lezen is.

"De A7-processor die de volgende iPhone volgens geruchten krijgt, presteert gemiddeld 31 procent sneller dan de A6-chip van de iPhone 5."

Dus in sommige aplicaties is die misschien wel 40% sneller terwijl andere 25% sneller.
64-bit heeft vooral niks te maken met de bandbreedte, maar met de address-space. Het maakt het mogelijk om instructies te verwerken die 64 bit lang zijn en geheugen adressen te gebruiken die 64 bit lang zijn. Daardoor vergroot je de effectieve hoeveelheid geheugen die een cpu kan gebruiken.
DDR3, DDR2 en zelfs het oude DDR geheugen maakte al gebruikt van een 64-bit bus. De bandbreedte gaat hierdoor dus bepaald niet veranderen.
https://en.wikipedia.org/wiki/DDR_SDRAM
Deze melding gaat over 64bit in deze context: https://en.wikipedia.org/wiki/64bit
Oftwel het maakt het mogelijk om 16 exbibytes geheugen te gebruiken. In tegenstelling tot 32bit dat gelimiteerd is bij 4 gigabytes (iets waar we nog niet echt tegen aanlopen. Al helemaal niet met iPhones)
Het heeft wel eenn beetje met bandbreedte te maken. De ARM architectuur is een RISC variant (de 'R, in ARM staat voor RISC ;)) dat wil zeggen, 1 instructie per clock tick. De 32 variant kan dus maar 32 bit per cycle verwerken, terwijl de 64 bit dit 2x zo snel kan. De adressereing van meer geheugen is in een telefoon niet heel erg interessant.
Nou ja, met de introductie van Thumb en Thumb2 kan je de ARM ISA eigenlijk geen pure RISC meer noemen. Maar idd, net als met x86 heeft 64-bit zeker voordelen, ook voor code die niet tegen 4 GB limieten aanloopt.

Dit is overigens heel aardig in lijn met Intel, die ook nu met 64-bit telefoon/tablet chips komt, en natuurlijk AMD die (hopelijk) dit jaar hun 64-bit Jaguar arch in iPad-achtige tablets weet te krijgen.

Ook Imagination komt dit jaar met hun nieuwe MIPS64 ("Warrior") architectuur, dus tegen min-2014 zullen de meeste high-end mobile devices wel 64-bit chips hebben.

(modded "ongewenst" :? )

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 10:06]

Ik denk niet dat Apple nu al de 64-bit mogelijkheden van de proc gaat benutten, wordt immers pas interessant bij >4GB werkgeheugen. Aangezien de software ook omgebouwt moet worden naar 64-bit lijkt me dat een typische aanpassing voor een volgende grote aanpassing van iOS en niet eerder. Voordat telefoons >4GB krijgen zou dat een desinvestering zijn, twee codebases moeten onderhouden.
Grootste voordeel van 64-bit telefoonchips is dat ze alle 32-bit legacy code uit de iOS/OS X codebase kunnen gooien, en dat crossplatform applicaties in XCode alleen voor 64-bit archs hoeven te worden compiled.
Hoezo? Er zijn ook nog honderdmiljoenen iPad en iPhones die 32 bit zijn. Als die per direct niet meer ondersteund worden dan zit Apple met een hele hoop boze klanten en waarschijnlijk een paar rechtzaken.

Vooordat de overstap die jij noemt gemaakt kan worden zit je zo 4/5 jaar verder.


Overigens vraag ik me af in hoeverre de A7 echt 64 bit/ARM v8 zal zijn. ARM heeft zelf zijn Cortex A53/A57 ontwerpen nog niet eens af en de eerste producten op basis van A53/A57 zullen waarschijnlijk niet voor 2015 verschijnen.
Hoe realistisch is het dat Apple hier dadelijk 1½ jaar voorsprong heeft op ARM en alle Cortex licentie nemers (ik heb geen idee wanneer Qualcomm hun 64 bit variant geplanned heeft staan)?

[Reactie gewijzigd door knirfie244 op 26 augustus 2013 12:35]

Het ideaal beeld dat je nu schetst zou een primeur zijn. Het omgekeerde zal eerder waar zijn. Die 31% komt van een benchmark (als het gerucht uberhaupt al waar is, wat ik ten zeerste in twijfel trek gezien ze niet eens weten of die nu wel of niet 64bit is). De echte prestatie boost zal een stuk lager liggen, en de vernieuwende software zal helaas alleen maar tragen worden.

De kwaliteit van code gaat nu eenmaal achteruit. Get used to it boys. De nieuwe iphone + nieuwe OS zal trager worden dan de vorige, en die trend zal zich voort gaan zetten totdat ze met iets totaal nieuws komen. En de consument zal het allemaal slikken en doen alsof het niet zo is.
wat is dat nu weer voor onzin? Mijn iPhone 5 met iOS 6 was vanaf de release al duidelijk stukken sneller dan m'n iPhone 4 op iOS 4. Bij Apple zie ik het juist alleen maar sneller worden.
Ik snap je verbinden van 64-bit met geheugen bandbreedte niet. Is dit iets specifieks voor de V7->V8 overgang? Zo ja, geldt dit wel voor custom chips van Apple/Qualcom etc, itt ARM reference designs?
Ik ben benieuwd of men bij Apple softwarematig nog meer uit die nieuwe CPU weet te behalen. Als 31% extra snelheid met de hardware te halen valt zou er wellicht met software tweaks iets van 50% te halen vallen. Ik denk ook dat Apple nu overschakelt naar 64-bit vanwege het feit dat Safari etc nu onbeperkte tabs open mogen hebben waarbij wat extra bandwijdte voor het geheugen geen kwaad kan. Of wellicht zelfs wat extra ram geheugen. Dit nieuws zie ik ieder geval als positief, nu maar hopen dat het waar is want je weet het nooit met Fox.
Ik ken geen enkel praktijk voorbeeld waarbij een 64-bitsOS sneller/beter 32-bits apps(want het gros van de apps zal enige tijd duren voor ze omgezet zijn)draait op een 64-bits CPU.
Het enige vorodeel dat 64-bits heeft t.o.v. 32-bits is dat je meer geheugen kan adresseren, maar de downside is dat je grotere hoeveelheden data moet rondpompen en daarnaast ook nog eens
een deel van je apps in een soort van 32-bits emulator moet draaien -> per definitie langzamer.

Zo ging het oo kbij de introductie van 64-bits cpu's op de PC markt, er was totaal geen voordeel te behalve behalve dat je meer dan 4 gig geheugen beschikbaar had en een paar extra nice to have features waar (zeker de eerste 2 jaar) bijna geen enkel programma echt gebruik van maakte...
Ook nu is het aantal programma's dat zwaar hangt op x64 calls klein en zijn ze vaak gespecialiseerd.

64 bits op je telefoon/tablet, biedt vooralsnog geen enkele meerwaarde...
Mijn oom hoorde van zijn buurman dat die zijn vrouw van een man op straat had gehoord dat Apple....

Gewoon tot 10 september en je weet het zeker. :+
Ik weet niet hoe vaak jij dit soort geruchten leest maar het klopt vaak wel, regelmatig ook niet.

Maar als het niet echt onvoorstelbare dingen zijn dan is de kans groot dat het gewoon klopt.

Vooral nu dat 10 September nadert krijgen veel mensen buiten Apple om de iPhone natuurlijk in handen en kunnen informatie naar buiten brengen.
Het klopt vaak wel, regelmatig ook niet? Dat betekent dus: ja nee, of nee ja, altijd maar soms.

Waarom dit gerucht/reclame stuntje niet gewoon achterwegen laten tot dat het toestel over een enkele week uit is?
Dadelijk zijn er tweakers wat dit gerucht geloven, het toestel kopen en dan blijkt het helemaal niet zo te zijn.
Dit had ik met de geruchten over de htc one op tweakers, de camera zou goed zijn, en al helemaal in het donker. Dan was dit niet de main reden waarom ik het toestel gekocht heb, maar het leek wel een leuke extra. In de praktijk vind ik de camera zeer slecht (zowel in het donker als bij daglicht, slechter dan de htc 8x, sgs2, sgs3 die ik ervoor gehad heb).

Ik zou dit ''apple'' gerucht dus ook als een korreltje zout nemen

[Reactie gewijzigd door JeroenC op 26 augustus 2013 10:08]

Ja wat wil je dan?

Je kan toch geen garantie hebben van de waarheid als het om geruchten gaat?

Het is gewoon zo dat mensen nieuwsgierig zijn naar een aankomend product en die nieuwsgierigheid wordt gevoed door websites als Tweakers.

En het is toch allang al duidelijk dat er soms mensen dichtbij de fabrikant foto's en informatie naar buiten brengen en dat een gedeelte van die geruchten sowieso wel waar moeten zijn?

En ik begrijp de scepsis niet, waarom zou een nieuw Soc niet 31% sneller kunnen zijn?

Het valt mij juist tegen dat het "maar" 31% is.

En Apple is een van de weinige bedrijven die zelf zijn Soc ontwikkelt, en met de middelen die Apple tot zijn beschikking heeft zou ik nergens van opkijken.

[Reactie gewijzigd door Dark_man op 26 augustus 2013 10:58]

Wekelijks net als jij denk ik.
Het gaat hier nog steeds wel om ARM, maar om een 64-bits instructieset voor een ARM processor. ;)

[Reactie gewijzigd door jorikc op 26 augustus 2013 07:57]

Misschien eens verder kijken dan je neus lang is.
64bits en x86_64 hebben alleen met elkaar gemeen dat het 64 bits is (duh!).
Lees dit als een koe is een dier maar een dier niet perse een koe; x86_64 is 64bits maar 64bits is niet per definitie x86_64.

64bits had je al ver voordat intel/amd zich ermee gingen bemoeien.
Bijvoorbeeld de DEC Alpha: http://en.wikipedia.org/wiki/DEC_Alpha (dat is dus 1992).

Prima als je iemand op zijn plek wil zetten, maar doe het dan wel goed!

[Reactie gewijzigd door nhimf op 26 augustus 2013 08:07]

als je bedenkt dat ARM veel zuiniger en geschikter voor mobiele platformen is dan x64
Dat is alleen niet zo. Er is niets in de ARM instructieset dat een chip magisch zuiniger maakt dan x86, dat hangt 100% af van de ontwerpkeuzes die de chipdesigner maakt.
De ARM instructie set is opgezet om eenvoudig te zijn.

Je kan een instructieset implementeren hoe je wilt, maar een eenvoudige ISA kan je zuiniger implementeren dan een complexe.

Om een vergelijking te maken, x86 is een complexe architecture. dat betekend gewoon dat je wat uigebreidere functies hebt. ipv 10 te moeten optellen, kun je gewoon een vermenigvuldiging doen.

Intel zal dus veel meer transitors nodig hebben, om alle functies te kunnen decoderen. en zelfs als je geen vermenigvuldiging doet, laten ze wel stroom vloeien bij iedere klokslag. en nemen ze plaats in op je chip, die je niet kan gebruiken voor andere zaken.

Intel kan dan wel heel kleine transistors maken, die ook heel weinig gebruiken, de chips zijn ook gewoon beperkt door de grootte van de telefoon. (intel kan grotere chips maken, maar die passen niet meer in een telefoon.) Bovendien heeft intel een zeer uitgebreide manier om de stroom te regelen in een chip, en kunnen ze niet gebruikte delen tijdelijk uitschakelen.

Dus
Het komt er op neer, dat je een ARM-gebaseerde cpu zuiniger kunt ontwerpen , dan een x86-gebaseerde cpu, maar natuurlijk moet je ook in je programma's de nodige inspanningen doen gedaan om zo efficient mogelijk om te gaan.

Android loopt bijvoobeeld stukken minder rap dan IOS.

maar er zijn voorbeelden van nog zuinigere ossen
Windows phone
BBOS
Symbian
S40
tomtom
een eenvoudige ISA kan je zuiniger implementeren dan een complexe.
Zo eenvoudig is het niet, in de praktijk werkt dit niet zo.

RISC execution units zijn inderdaad erg efficient. Maar door de eenvoudige RISC instructiesets heb je meer instructies nodig om hetzelfde werk te doen, waardoor een pure RISC architectuur veel cache nodig heeft en sneller stalls heeft. De brute oplossing hiervoor is meer cache en hogere kloks, wat allebei funest is voor het verbruik. Dit is waar de meeste RISC archs vroeg of laat tegenaan liepen, en waarom bv de POWER chips in de Macs (G4/G5) tegen verbruiksproblemen aan lopen. RISC op zichzelf maakt geen zuinige processoren, je zal iets slims moeten verzinnen om de instructie dichtheid te verhogen.

ARM heeft dit opgelost door een aantal jaren terug de Thumb2 (variable-length CISC) instructieset te introduceren, die inmiddels universeel gebruikt wordt. Hierdoor is ARM net als x86 in de praktijk een hybride ISA geworden: CISC at the front, RISC in the back.

Intel en AMD gebruiken micro-ops (RISC) in de execute units om de voordelen van RISC te benutten, en houden vast aan een efficiente CISC front end. Hierdoor heb je inderdaad een instructie decode unit in het midden nodig die je bij pure RISC niet hebt, maar die paar mm2 aan silicon verbruikt een stuk minder dan de extra cache en hogere klok die je nodig hebt om een RISC front-end gelijke performance te laten krijgen.

Een aardig voorbeeld is de AMD K5-arch, wat een bestaand 29k RISC design was waar AMD een x86 decode unit op schroefde. Door de enorm toegenomen efficiency van de (CISC) front end was het in 1 klap een van de snelste architecturen van zijn tijd.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 11:02]

Door de eenvoudige RISC instructiesets heb je meer instructies nodig om hetzelfde werk te doen
Dan heb je het niet begrepen.
Ten eerste is het aantal instructies niet gelijk aan het aantal cycles.
Ten tweede zijn de mensen die RISC-CPUs hebben ontwikkeld geen koekenbakkers, en is het ontwerpen van een RISC instructieset juist de kunst van het weglaten: welke instructies kunnen we weglaten, omdat ze toch niet sneller zijn?
De instructies die er nog wel in zitten, zijn vaak heel generiek en krachtig gemaakt. Neem bv het feit dat iedere instructie bij ARM een condition-field heeft, waardoor branches vaak niet eens nodig zijn. Of de barrel shifter, waardoor je iedere operand kunt rotaten of shiften als onderdeel van een andere instructie.
Intel en AMD gebruiken micro-ops (RISC) in de execute units om de voordelen van RISC te benutten, en CISC in de cache en execution pipeline om zo hoog mogelijke instructie dichtheid te verkrijgen.
Dit is ook de reden dat modern x86-CPUs zich vrijwel hetzelfde gedragen als RISC-CPUs: er is een subset van x86-instructies die snel zijn, en een set 'complexe' instructies die geimplementeerd zijn met een stukje microcode dat een set micro-ops genereert, wat veel trager is.
Je kunt met die complexe instructies dan wel code in minder instructies schrijven, maar het kost je wel veel meer cycles.
Daarnaast maken compilers ook geen gebruik van dat soort legacy-instructies. Hierdoor is x86-code in de praktijk heel RISC-achtig.
Hierdoor zijn zowel ARM als x86 in de praktijk een hybride ISA: CISC at the front, RISC in the back.
Beetje erg kort door de bocht.
Je hebt CISC, en je hebt CISC. Een 68000 is ook CISC, maar totaal niet vergelijkbaar met x86 van opzet.
Daarnaast ben jij de eerste die ik Thumb2 CISC hoor noemen. Het zou eerder nog MEER RISC zijn, omdat het een subset is van de normale ARM-instructieset, en net als normale RISC-instructiesets is deze instructieset heel orthogonal van opzet, en daardoor efficient te decoderen, in tegenstelling tot de complexe variabele-lengte instructies van x86 (dat is het ECHTE probleem van x86, niet zozeer CISC an sich).

Ik zou zeggen: bestudeer de materie nog eens.
Thumb2 *is* een variable length instructieset. Of je het CISC noemt hangt af waar je de grens tussen CISC en RISC wilt trekken. Thumb2 heeft zijn eigen decode units in de moderne ARM archs, ARM is allang geen pure RISC meer te noemen. Het verlaten van de hele beperkte instructieset en het omarmen van extensies om de front end efficienter te maken is juist wat ARM succesvol gemaakt heeft in mobile.
Hierdoor is x86-code in de praktijk heel RISC-achtig.
Dat bedoel ik dus. Het hele CISC versus RISC verhaal is allang niet meer relevant, want zowel ARM als x86 zitten allang ergens in het midden. De instructie decode units van de huidige ARM archs zijn idd simpeler dan die van x86, maar de trend is convergentie.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 11:51]

Thumb2 *is* een variable length instructieset.
Nee, het zijn 16-bit en 32-bit instructies. Dat is nog iets heel anders dan totaal variabel, zoals bij x86, waar instructies van 1 tot zo'n 15 bytes lang kunnen zijn.
Thumb2 heeft zijn eigen decode units in de moderne ARM archs, ARM is allang geen pure RISC meer te noemen..
Heb ik nooit beweerd, ik zeg alleen dat je het niet begrepen hebt als je zegt "Het is ook CISC, dus hetzelfde als x86". Er zitten nog steeds hele significante verschillen tussen de twee.
Het grootste verschil is dat Thumb2 een moderne instructieset is, specifiek ontworpen voor hoge code-density en goede performance.
De x86-instructieset is een overblijfsel uit de jaren 70, en heeft eigenlijk nauwelijks voordelen voor een moderne CPU.
Zoals al gezegd, een groot deel van de instructies bij x86 gebruik je niet eens, die zijn er puur voor backward-compatibility.
Het hele CISC versus RISC verhaal is allang niet meer relevant
Dat blogde ik een aantal jaren geleden al:
http://scalibq.wordpress....-vs-cisc-round-213898234/
Ik ben het dus ook niet oneens met je stelling:
"Er is niets in de ARM instructieset dat een chip magisch zuiniger maakt dan x86, dat hangt 100% af van de ontwerpkeuzes die de chipdesigner maakt."
Ik vond alleen je uitleg niet zo goed.

[Reactie gewijzigd door Scalibq op 26 augustus 2013 11:53]

De x86-instructieset is een overblijfsel uit de jaren 70, en heeft eigenlijk nauwelijks voordelen voor een moderne CPU.
Niemand gebruikt 8-bit (16, indeed) x86 uit 1978, net zo min als niemand de originele ARMv1 instructieset uit 1983 gebruikt. Je gebruikt anno 2013 Thumb2 op ARM, en x86-64 (incl gloednieuwe extensies als AVX(2), etc) op x86, allebei moderne instructiesets.

De backwards-compatibility is ook niet zo'n last. Obsolete x86 of ARM instructies hoef je ook niet te implementeren in silicon, die emuleer je wel een laag hoger. Performance is dan niet optimaal, maar ze zijn obsolete anyway. Instructies die niemand meer gebruikt hoeven ook niet snel te zijn, elke chipdesigner focust op het zo snel mogelijk uitvoeren van moderne instructies.

Tot nu toe heeft de 'bagage' van een instruction decode unit (<1 mm2 silicon op een ~100 mm2 die) in de praktijk geen enkel obstakel geweest voor AMD en Intel om efficiente architecturen te ontwikkelen. Zelfs de hoogbejaarde Bonnell/Saltwell arch blijkt nog makkelijk binnen thermal envelopes te passen waar hij nooit voor ontworpen is.

Tis net als met de Porsche 911, iedereen zegt dat een platgeslagen Kever met de motor achterin nooit efficient kan zijn. Vooralsnog houdt die het met stug doorontwikkelen al tachtig jaar verbazend goed vol.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 13:40]

Niemand gebruikt 16-bit x86 uit de jaren 70
Dat bedoelde ik niet.
Je hebt het trouwens fout verbeterd: x86 is altijd 16-bit geweest.
Je gebruikt anno 2013 Thumb2 op ARM, en x86-64 op x86, allebei moderne instructiesets.
Wow, zo'n opmerking had ik van jou toch ook weer niet verwacht...
Natuurlijk is x86-64 geen moderne instructieset!
Heb je er uberhaupt wel eens naar gekeken? Lijkt mij van niet.
x86-64 verschilt nog minder van de i386-instructieset dan i386 van z'n 16-bit voorgangers.

En voor alledrie is de instructie-encoding grotendeels hetzelfde. We zitten dus nog steeds met die hele complexe variabele lengtes zoals we die ook al in de jaren 70 hadden. Dat is dus zeker NIET modern.
Daarnaast zitten we ook nog steeds vast aan het twee-operand model, wat dus OOK niet modern is.
De instructies an sich zijn ook niet echt veranderd. Zo is een add nog steeds alleen maar een add. Vergelijk dat met het voorbeeld wat ik eerder noemde van ARM, waar iedere add dus conditioneel uitgevoerd kan worden, en een shift of rotate op een operand kan uitvoeren.
Moderne/RISC-achtige instructies zijn dus VEEL krachtiger dan de jaren-70 instructies van x86.

Zelfs dingen als SSE en AVX zijn nog steeds vrij primitief vergeleken met iets als AltiVec (nog steeds 2 operands, en vrij zwakke instructies, hoop gedoe om er code mee te schrijven).

Dus nee, x86-64 is zeker niet zo modern als ARM.
Het klinkt alsof je de spec sheets wel hebt gelezen, maar nooit daadwerkelijk zelf code hebt geschreven voor CPUs.

[Reactie gewijzigd door Scalibq op 26 augustus 2013 12:09]

Tsja, de allermodernste en elegantste ISA is IA64, en we weten allemaal hoe geweldig dat in de praktijk performde. Het CISC-model van 35 jaar oud "ouderwets" noemen en een RISC ISA van 30 jaar oud "modern" noemen is IMO ook niet erg zinnig - beide ISA's zijn ouderwets, en hebben zware modificaties ondergaan om relevant te blijven.

En natuurlijk is x86 niet zo clean en simpel als een willekeurige RISC ISA (het heet niet voor niets "complex" vs "reduced"), maar kijk naar de daadwerkelijke chips (en compilers, want je kan de performance van een chip niet los zien van zijn compiler) en er is weinig reden om 1 van de 2 als "inherent beter" te zien. Met de steeds kleiner wordende instructie decode units tov de totale chip size wordt de ISA steeds minder relevant - zolang de instructiesets maar redelijk up-to-date worden gehouden.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 12:41]

Het CISC-model van 35 jaar oud "ouderwets" noemen en een RISC ISA van 30 jaar oud "modern" noemen is IMO ook niet erg zinnig - beide concepten zijn ouderwets, en hebben zware modificaties ondergaan om relevant te blijven.
Ik heb dan ook nergens de leeftijd als argument aangevoerd.
Ik heb alleen punten genoemd waarop x86 nog duidelijk de 'oude wereld' is, en ARM de 'nieuwe wereld'.
Beetje zwak.
maar kijk naar de daadwerkelijke chips (en compilers, want je kan de performance van een chip niet los zien van zijn compiler) en er is weinig reden om 1 van de 2 als "inherent beter" te zien.
Wederom, op dit punt was ik het niet oneens met je. Zoals je ook in mijn blog van een paar jaar terug al kon lezen.
Het is eigenlijk vooral dat je jezelf tegenspreekt. Jij lijkt juist WEL de verschillen tussen de chips te ontkennen, terwijl die verschillen er duidelijk aantoonbaar WEL zijn.
De verschillen zijn alleen niet inherent beter/slechter, dus waarom zou je ze willen ontkennen?

[Reactie gewijzigd door Scalibq op 26 augustus 2013 13:01]

Ik heb alleen punten genoemd waarop x86 nog duidelijk de 'oude wereld' is, en ARM de 'nieuwe wereld'.
Als de "oude wereld" in de praktijk net zo goede chips oplevert als die "nieuwe wereld" kan je het imo beter hebben over "verschillende werelden".

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 12:58]

Als de "oude wereld" in de praktijk net zo goede chips oplevert als die "nieuwe wereld" kan je het imo beter hebben over "verschillende werelden".
Ik zou niet weten waarom.
x86 is nou eenmaal ouder dan ARM, en waar ARM een compleet nieuw ontwerp was, is x86 deels gebaseerd op eerdere Intel-ontwerpen.
We hebben dus te maken met een van de laatste CISC-ontwerpen, tegenover een relatief vroeg RISC-ontwerp.
Maar het zijn duidelijk ideeen uit de 'oude wereld' tegenover de 'nieuwe wereld'. Ik zou niet weten waarom je dat verschil niet zo zou mogen noemen, want RISC is duidelijk het resultaat van compleet nieuwe inzichten op het gebied van CPU/instructieset-ontwerp.

Net zo'n verschil als de tijd dat mensen nog dachten dat de aarde plat was, tegenover de tijd dat men ontdekte dat de aarde rond was.

[Reactie gewijzigd door Scalibq op 26 augustus 2013 13:06]

Ja en nee - het concept van "RISC" aan de execution unit kant is zonder twijfel beter, en dat is met de micro-ops archs ook vrij snel aan de x86 kant verbeterd. De voordelen van een beperkte set aan fixed-length instructies aan de voorkant zijn in de praktijk toch niet zo heel significant gebleken.

Je kan het zo bekijken: Intel heeft dertig jaar de kans gehad om die richting op te gaan (ze hadden bv een Thumb-achtige extensie kunnen maken met een fixed-length subset van x86), maar hebben hier om wat voor reden ook niet voor gekozen. De keuze om vast te houden aan variabele length CISC front-end heeft ze tot nu toe geen grote problemen bezorgd.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 13:41]

en dat is met de micro-ops archs ook vrij snel aan de x86 kant toegevoegd.
Vrij snel? Pas in 1995 hoor, met de Pentium Pro. Dat is zelfs nog een jaar later dan Motorola met de 68060.
RISC was al halverwege de jaren 80 heel gangbaar.
De voordelen van een beperkte set aan fixed-length instructies aan de voorkant zijn in de praktijk toch niet zo heel significant gebleken.
Nu niet meer nee, maar jarenlang heeft de x86 daar WEL veel problemen mee gehad. De meeste RISC-CPUs liepen rondjes om x86s heen, vooral met floating-point code. x86 is jarenlang het lachertje geweest van de CPU-industrie. Maarja, wie het laatst lacht, lacht het best, zullen we maar denken.
De keuze om vast te houden aan variabele length CISC front-end heeft ze tot nu toe geen grote problemen bezorgd.
Wederom: NU niet meer, maar pas sinds de Pentium III en Xeon-afgeleiden kon Intel een beetje serieus gaan meespelen op de markt van servers en workstations. Vroeger had x86 daar absoluut niets te zoeken.
En pas sinds de Core/Core2 was het ook eindelijk een gangbaar alternatief voor Apple, die tot dan toe PowerPC gebruikte. Maar dat is ook deels omdat PowerPC niet meer doorontwikkeld werd.

In de jaren 80 en 90 was x86 echt niet de oppermachtige architectuur die het nu is, zelfs niet eens een hele goede. Hij werd wel het meest verkocht, omdat PC-compatibles nu eenmaal x86 gebruikten (als enige overigens, alle concurrenten gebruikten iets anders, veelal 68k), en PC-compatibles heel succesvol waren voor office-gebruik, en later ook de thuisgebruiker.

Daarom heeft Intel dus ook verschillende pogingen gewaagd om met andere processors te komen, zoals de iAPX 432, de i860, i960 en de Itanium. Om in die markten te komen waar x86 nooit een kans maakte, zowel embedded als high-end servers/workstations. Ironisch genoeg is het Intel ook nooit gelukt met die architecturen, en nu uiteindelijk hebben ze daar met x86 succes.
Nog ironischer, Intel maakte *zelf* jarenlang ARM chips. En heeft uiteindelijk de boel toch verkocht, omdat ze (blijkbaar) meer toekomst zagen in x86. Of IA64. :P
En pas sinds de Core/Core2 was het ook eindelijk een gangbaar alternatief voor Apple, die tot dan toe PowerPC gebruikte. Maar dat is ook deels omdat PowerPC niet meer doorontwikkeld werd.
Er werd wel doorontwikkeld, maar G5 was net als Netburst een doodlopende weg. Ook hier bleek weer dat de ISA niet het probleem was, maar de micro architectuur zelf. Met Netburst was x86 niet best, met Core ineens wel. Ligt dat aan de ISA? Nee - wel aan Intel's beroerde ontwerpkeuzes in de micro-architectuur. Is Power zo'n beroerde ISA? Vraag het aan Sony, Microsoft en Nintendo, die zijn al acht jaar prima tevreden over hun console chips.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 14:22]

Er werd wel doorontwikkeld
Niet dus, tenminste, niet in de richting die Apple nodig had. De enige reden waarom Apple de G5 van IBM gebruikte was omdat Motorola al was afgehaakt. De G5 was al niet zo heel erg geschikt voor Apple (was nogal een high-end ding, leuk voor servers en workstations, en dus ook Mac Pro systemen, maar in een Mac Mini, iMac of MacBook heb je er weinig aan), en IBM had weinig zin om speciaal voor Apple wat meer geschikte CPUs te ontwikkelen.

Gelukkig voor Apple maakte Intel net een enorme stap voorwaarts qua stroomverbruik, en werden Core/Core2 goede alternatieven voor de G4-systemen, die hun beste tijd wel gehad hadden.
Ook hier bleek weer dat de ISA niet het probleem was, maar de micro architectuur zelf. Met Netburst was x86 niet best, met Core ineens wel.
Wederom toon je een enorm gebrek aan historisch besef.
Het oorspronkelijke succes van de PowerPC-Macs was wel degelijk een direct gevolg van de ISA.
De Pentium Pro was dan wel de eerste x86 met een RISC-backend, maar het was nog steeds niet echt een competitieve chip. De extra vertaalslag hakte er behoorlijk in, en de Pentium Pro had een enorm stroomverbruik, en was in eerste instantie niet eens bijster veel sneller dan een gewone Pentium op gelijke klok. Sterker nog, in bepaalde gevallen was ie zelfs een stuk langzamer (vooral 16-bit code was erg traag).

Zoals ik al zei, pas in de tijd van de Pentium III/4 (we hebben het dan over ~2000) begon x86 goed op gang te komen, en was de extra CISC->RISC overhead niet meer zo'n enorm probleem over het geheel genomen. De kloksnelheden konden nu flink omhoog gegooid worden, wat ook een hoop compenseerde. Alleen stroomverbruik bleef een issue, tot de Core2 (zo enorm veel trager was Netburst niet, welbeschouwd).

Wat jij fout doet, is dat jij het succes van x86 nu probeert terug te projecteren op 15-20 jaar geleden. Zo werkt het dus niet. NU is de CISC->RISC stap bijna verwaarloosbaar geworden, maar we hebben dan ook CPUs met 4 of meer cores, gigantische caches, en allerlei nieuwe extensies. Voor een Pentium Pro ligt dat heel anders natuurlijk. Die moest net zo veel werk verzetten om de x86-instructies te vertalen naar micro-ops, maar kon daar veel minder rekenkracht tegenover stellen.
Toch was de Pentium Pro een bijzonder succesvolle chip, en bv Microsoft heeft in die jaren nooit een reden gezien om serieus werk te maken van de (toen bestaande) RISC versies van Windows. Als ze serieuze twijfels hadden over te toekomst van x86, dan hadden ze redelijk makkelijk van ISA kunnen switchen.

Wat m.i. een grote reden is van het commerciele succes van x86, vroeger Power en nu ARM, is niet eens de technische superioriteit van de ISA of zelfs de micro-arch, maar het feit dat er voldoende concurrentie binnen het platform was om de prijs laag te houden.

MIPS, SPARC, Alpha en PA-RISC hadden in de jaren 90 allemaal 1 eigenaar die zich voornamelijk bezighield met het uitmelken van high-end enterprise klanten met state-of-the-art chips tegen extreem hoge prijzen en marges. Dat werkte prima voor ze, maar om voor Microsoft, Apple en device OEMs interessant te zijn op massa-markt devices is het een must dat de chips niet alleen (redelijk) snel, maar vooral goedkoop zijn. De keiharde concurrentie met AMD zorgde ervoor dat x86 chips technisch redelijk bij bleven, maar vooral ook goedkoop bleven. Idem met ARM, waar diverse ISA licensienemers elkaar proberen te verslaan met steeds betere archs tegen lage prijzen.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 15:53]

Toch was de Pentium Pro een bijzonder succesvolle chip
Helemaal niet. Is juist een van de minst succesvolle chips ooit.
Pas toen de PII kwam, die de 16-bit problemen oploste, de kloksnelheid flink omhoog gooide, en het stroomverbruik redelijk handhaafde, was de architectuur klaar voor de mainstream, en begon de P6 aan het echte succes.
Als ze serieuze twijfels hadden over te toekomst van x86, dan hadden ze redelijk makkelijk van ISA kunnen switchen.
Je moet de zaken niet door elkaar halen. De x86 was in technisch opzicht niet spectaculair, maar qua verkoopaantallen heeft Intel nooit te klagen gehad, en de toekomst van x86 is nooit ook maar in het minst in gevaar geweest. Hooguit door Intel zelf, die eigenlijk na de Pentium 4 had willen overstappen op Itanium.
maar het feit dat er voldoende concurrentie binnen het platform was om de prijs laag te houden.
Het heeft meer te maken met de IBM PC-standaard dan met de x86 an sich. Met iedere andere architectuur had er net zo veel concurrentie geweest tussen de IBM-compatibles.
Dan nog waren ze relatief duur... In de jaren 80 kon je voor veel minder geld bv een Amiga of Atari ST krijgen, met een toch wel redelijk krachtige 68000 CPU, en betere hardware daaromheen.
is niet eens de technische superioriteit van de ISA of zelfs de micro-arch
Inderdaad, want zoals ik al zei, x86 was allerminst superieur in de jaren 80 en 90.
Het PC-platform bood een brede keus aan hardware en software tegen betere prijzen dan andere 'professionele' platforms zoals de Mac en de verschillende UNIX-workstations.
Computers als de Amiga en Atari ST werden helaas niet zo serieus genomen, en daardoor is er nooit veel business software voor ontwikkeld.
Is er op de huidige iPhone voor 99,9% van de gebruikers iets te klagen over 'traagheid' van de CPU dan? Adverteert wel lekker, 31 procent sneller: maar uiteindelijk heeft bijna niemand er wat aan.
Tijdens spellen kunnen wat extra resources toch geen kwaad? Liever teveel dan te weinig. Te snel is in dit geval beter dan te traag ;-)
Wie zegt dan 64-bits onzuinig zou zijn? Alle hedendaagse processoren zijn 64bits en toch zuiniger dan de oude 32bits. Productie / procedee verbeteringen zorgen er uiteindelijk toch voor dat ze zuiniger worden.
Alle hedendaagse processoren zijn 64bits
Niet echt, er zijn nog massa's niet 64-bit processors in gebruik, zoals de niet kleine hoeveelheid Arm processors, en vooral die blinken uit in zuinigheid.
Maar het is niet zo moeilijk om zuinig te zijn als je ook heel traag bent.
Ik denk dat hij eerder bedoelt dat je meer moeite zult moeten doen om een 32-bit processor te vinden in apparaten zoals laptops en computers.
De huidige Atom SoC's (Clover Trail) zijn 32-bit, dus alle Atom tablets die nu in de winkel liggen hebben 32-bit Windows 8 aan boord.

[Reactie gewijzigd door Dreamvoid op 26 augustus 2013 14:20]

bij defenitie: meer transistoren, meer stroom die vloeit => meer verbruik.

je kan er gewoon niet omheen.
Inderdaad, productie methoden verbeteren
Wie zegt dan 64-bits onzuinig zou zijn? Alle hedendaagse processoren zijn 64bits en toch zuiniger dan de oude 32bits. Productie / procedee verbeteringen zorgen er uiteindelijk toch voor dat ze zuiniger worden.
Ja nu ja, maar de eerste Athlon X64's van AMD waren bakbeesten van dies die toch een flinke bump in wattage rating gaven ( van +/- 60W voor de tbred,barton en torton Athlon XP's naar 100W voor de eerste Athlon 64's)
Is er op de huidige iPhone voor 99,9% van de gebruikers iets te klagen over 'traagheid' van de CPU dan? Adverteert wel lekker, 31 procent sneller: maar uiteindelijk heeft bijna niemand er wat aan.
Apple loopt sowieso niet echt te adverteren met snelheden en dergelijke. Vrijwel niemand weet hoeveel Mhz of Ghz de processor van de iPhone 4, 5 of 5S is en dat zijn ook geen gegevens die Apple verspreid. Wel geeft Apple in advertenties e.d. inderdaad aan dat hardware soms x% sneller is als de vorige generatie. Maar Apple wil vooral dat mensen de producten kopen niet vanwege de specificaties, maar vanwege slecht-meetbare zaken als design en gebruiksgemak. Heb zelf met deze aanpak overigens geen problemen, juist design en gebruiksgemak zijn voor mij de hoofdredenen om producten van Apple te kopen.

[Reactie gewijzigd door MacWolf op 26 augustus 2013 08:01]

Waarom je comment negatief behoordeeld wordt snap ik niet want je hebt een terecht punt. Uiteindelijk gaat het om de user-experience. Extra snelheid is natuurlijk wel welkom om in de toekomst zwaardere spellen / applicaties te kunnen draaien.
Apple loopt sowieso niet echt te adverteren met snelheden en dergelijke
Nou dat is niet helemaal waar. Je kunt nu de zachte stem van Jonathan Ive al weer horen: "the fastest iPhone yet" met daarbij een staafdiagram waarin de iPhone5 wordt afgedaan als een suffertje.
Ik heb de zachte/ zalvende stem van Johanthan Ive nog nooit in een commercieel reclamefilmoje gezien. Dat hij het product bespreekt na een aankondiging op de eigen site is wat anders dan een reclamefilmpje.

[Reactie gewijzigd door benito100 op 26 augustus 2013 13:05]

Een 30 procent groter scherm hebben mensen meer aan.
Da's puur een persoonlijke voorkeur. Ik ben prima tevreden met mijn 4s; en die is nog kleiner dan het scherm van de iPhone 5.
Een 30 procent groter scherm hebben mensen meer aan.
Er zijn anders genoeg mensen die het huidige formaat van de iPhone prima vinden hoor.
En anders is die 31% snellere cpu hard nodig om dat grotere scherm aan te sturen. ;)
Ik denk niet dat ik op een iPhone met het formaat van een Samsung Note zit te wachten.
Het zou me alleen maar meer in de weg zitten en het apparaat onhanteerbaar maken.
Toen de iPhone 4 uitkwam had er ook niemand wat te klagen over de snelheid. Drie jaar later (hoewel hij nog steeds prima prestaties levert) is dat wel anders. Regeren is vooruitzien.
Beetje een dood-doener, alle apparatuur is uiteindelijk trager in vergelijking tot nieuwere apparatuur. Want met zo'n uitspraak verwacht ik dat alle toestellen die uitkomen standaard meteen 64 Gb intern geheugen hebben met een 256Gb opslag ruimte en minimaal 4Ghz. Maarja, dan is over drie jaar dat weer traag want als we dit konden realiseren dan kunnen we over drie jaar mischien wel 6Ghz realiseren en dan is dat oude toch weer 'traag'.
Het is wel duidelijk dat er een hoop apple fanboys aanwezig zijn gezien het aantal "-" tjes ... Feit is wel dat Apple de strijd steeds meer aan het verliezen is als gaat om innovativiteit. Ze worden nu aan alle kanten op dat gebied voorbij gestreefd door Android. Ik heb ooit eens een iPhone 3 en een 3GS gehad maar sinds die tijd staan ze m.i. nagenoeg stil. Hoewel ik vind dat ze zo nu en dan mooie producten maken, is het nu echt een keer tijd voor een nieuwe beweging binnen het Apple concern, alleen dat zal ze nog kunnen redden in de toekomst.
Een beetje een holle frase, aangezien je je beperkt tot algemeenheden. Ik vraag me af wat je verder bedoelt met "de strijd aan het verliezen is". iPhones en iPads gaan nog steeds als warme broodjes over de toonbank, en de verkopen zijn nog steeds stijgende.
Da's dan gek, volgens vele berichten die je kunt terug vinden op internet is dat toch niet het geval. Don't get me wrong, ik heb nog steeds een Apple producten te weten een iPad mini. Voor mij is dit nog steeds een no nonsense tablet, zeker niet innovatief ...
De ipad mini is ook niet op de markt gezet op innovatief te zijn. Maar om op formaat te concurreren met andere merken.

Sowieso, en dat geld voor alle merken, een tablet kan niet meer echt innovatief zijn. we gaan nu gewoon richting sneller, platter, scherper, zuiniger.

De nog te releasen mac pro is zeker wel innovatief en zeer knap ontworpen.

Ik heb alle Iphones gehad, iOS staat zeker niet stil.
Het is qua uiterlijk gewoon weinig veranderd. Maar pak maar een een iPhone 5 en een 3S en leg ze maar eens naast elkaar. Het is gewoon allemaal subtiel anders.
Ik vraag me dan alleen af wat je nog meer zou willen zien? Alsof Android de laatste 2-3 jaar innovatief is geweest.

[Reactie gewijzigd door nexhil op 26 augustus 2013 09:07]

Aaah door komen de minnetjes, vond het nog lang duren :)

Maar mijn reactie ging initieel ook niet over aantallen, platter, zuiniger, whatever ... maar op gebied van innovativiteit. Apple heeft altijd geclaimed uniek en innovatief te zijn maar nogmaals daar is naar mijn mening nagenoeg niks meer van over.
Ze zijn toch ook innovatief (geweest)? want volgens jou redenering kan een bedrijf alleen innovatief zijn wanneer het altijd innovatief is. Dus bedrijven als Xerox zijn volgens jou niet innovatief omdat ze dat nu mischien niet meer zijn?

Bedrijven zijn innovatief zodra ze met enige regelmaat iets innovatiefs doen, je kan gewoonweg niet 100% van de tijd altijd maar innovatief zijn. Dus zowel Microsoft als Google als Apple zijn innovatief. Want zonder die drie waren we niet zover gekomen als dat we nu zijn, want zij zagen potentie waar andere dit niet zagen (Xerox, ja ze waren innovatief maar wisten niet wat ze ermee konden, Microsoft en Apple wisten dit wel).
Dus zowel Microsoft als Google als Apple zijn innovatief. Want zonder die drie waren we niet zover gekomen als dat we nu zijn, want zij zagen potentie waar andere dit niet zagen (Xerox, ja ze waren innovatief maar wisten niet wat ze ermee konden, Microsoft en Apple wisten dit wel).
Ik denk dat we zonder die bedrijven velen malen verder waren geweest, 100 kleine bedrijven kunnen meer innovaties bedenken dan 3 grote...

Het lijkt of die grote bedrijven veel innoveren omdat ze innovaties overnemen van de kleintjes. Innovaties worden gedaan door een persoon, niet een bedrijf!
Dat is imo nou precies wat er nodig is. Kleine bedrijven die goede ideeŽn uitwerken die leiden tot nieuwe innovaties en grote multinationals die hun expertise en ervaring kunnen inzetten om deze innovaties te polijsten en beschikbaar te maken voor de massa.
Zo innoveer je.
Dat is niet altijd waar.

Zeker op het gebied van de huidige electronica.

Er zijn bepaalde sectoren in de electronica waar je gewoon groot voor moet zijn, kijk alleen al naar wat Intel doet.

Dat kan een klein bedrijf niet.

Het ontwerpen van een 3d chip, besturingssysteem, OLED enz dat zijn allemaal technieken die weliswaar ook vindingen van kleine bedrijven in verwerkt zitten maar wanneer je niet een groot bedrijf hebt die miljarden in de massaproductie kan stoppen dan kom je nooit uit de laboratorium fase.

En dat is vaak wel wat nodig is, het is dus het een die het ander nodig heeft en niet zozeer dat de een beter is dan de ander.
Het ontwerpen van een 3d chip, besturingssysteem, OLED enz dat zijn allemaal technieken die weliswaar ook vindingen van kleine bedrijven in verwerkt zitten maar wanneer je niet een groot bedrijf hebt die miljarden in de massaproductie kan stoppen dan kom je nooit uit de laboratorium fase.
Daarom is in mijn ogen Apple (en de andere grote zoals Google/MS) niet echt innovatief ik zie de persoon (of dat kleine bedrijfje wat ze opkopen) die de 'innovatie' heeft bedacht als innovator, en jij het bedrijf wat het verkoopt aan de consument...

Ik zou niet weten waarom ik innovatief bezig ben als ik het idee van een ander goed weet te verkopen...
Ik dacht dat ik duidelijk was maar je begrijpt het gewoon niet.

Een voorbeeld, een bedrijf als Intel pompt miljarden in de ontwikkeling van Itanium.

Even los van of het een succesvol product is of niet kan je zo een product gewoon niet als klein bedrijf ontwikkelen.

Of Kinect bijvoorbeeld, de technologie voor Kinect bestond heel†lang maar door de schaalgrootte waaroo Microsoft het heeft toegepasr is het betaalbaar geworden.

Zelfde met IPS schermen, bestond heel lang maar Apple begon het op grote schaal toe te passen en daarna is het nornaal geworden.

Dit soort toepassingen met massaproductie en grote schaal zorgen voor een bepaalde versnelde ontwikkeling, wat kleine bedrijven doen is ook vaak baanbrekend en zijn vaak revolutionaire ontwikkelingen.

Maar het is niet zo dat het een "beter" is dan het ander.

Heel veel technieken zitten nu in laboratoria maar kunnen of worden niet in massaproductie genomen om financiele of schaalgrootte redenen dus je hebt grote bedrijven gewoon nodig om dit mogelijk te maken.
Innovatief zijn lukt ook niet elke keer. Apple is zeker wel innovatief.
  • Alle smartphones en tablets van nu zijn een kopie van Apple's ideeŽn. Niemand had swipen bedacht.
  • Om alles met touch te doen is ook iets waar niemand aan gedacht had.
  • Aluminium voor je case? Had niemand, moet je nu kijken.
  • Ultrabooks met 7-9 uur accuduur had niemand, alle fabrikanten maakten desktop vervangers omdat ze dachten dat performance key was.
  • Slank design voor de laptop ontbrak ook vrijwel helemaal, het idee dat je een aantal aansluitingen op moest geven om je laptop dun te maken werd nergens doorgevoerd.
  • Alle laptops gebruikten rubbertjes tussen het scherm en toetsenbord. Nu gebruiken ze allemaal magneetjes.
  • Chiclet keys iemand?
  • Apple mini vormfactor. Geen vergelijkbaar alternatief.
Ik zeg niet dat deze ideeŽn allemaal nieuw zijn, verre van dat zelfs. Maar Apple heeft het wel allemaal bij elkaar gebracht en ook nog eens goed geÔmplementeerd.
En ook nu blijven ze nog steeds leider in de markt. Op vrijwel alle specs (accuduur, kwaliteit scherm, resolutie, snelheid, bouwkwaliteit) staan ze vrijwel altijd in de top drie als ze niet al op 1 staan. Je betaalt er ook wel voor, helaas.
Ik zou niets liever willen dan dat er weer fabrikanten opstonden (of herrijzen in het geval van MS) die producten maken waarbij je denkt, hoť hebben ze dat nu weer voor elkaar gekregen.
Het is wel altijd maar voor even. Want zoals met alle (goede) innovaties denk je naderhand, waarom hadden we dat niet eerder bedacht?

[Reactie gewijzigd door [Yellow] op 26 augustus 2013 11:27]

het zelfde geld voor de groot geprijsde Edison die heel veel dingen zou hebben uitgevonden.
Edison was de steve jobs die mensen aan nam en vervolgens hun liet innoveren om er vervolgens zelf met de prijs van door te gaan.
Edison heeft eigenlijk zelf niets uitgevonden maar wel de mensen die hij in dienst had. bijvoorbeeld Nikola Tesla.
Als tweaker kijk ik ook regelmatig naar de benchmarks en daar zie ik dat apple constant in de top regionen blijft met hun producten. zowel op batterylife (macbook air) als op processor snelheid. dat heeft alles te maken met innoveren naar mijn idee.

Het nieuws dat ze 64-bit gaan introduceren in de iphone 5s vind ik persoonlijk wel een innovatie.
Het nieuws dat ze 64-bit gaan introduceren in de iphone 5s vind ik persoonlijk wel een innovatie.
Dit is nou precies zo'n innovatie die renzo4000 niet bedoelde. Want wat merken wij als consumenten van die 64 bits? Wat kan ik met de nieuwe iPhone daardoor wat ik met andere toestellen niet kan?

Apple was innovatief met iOS, wat het eerste mobiele touchscreeninterface was dat echt prettig werkte. Nu hebben alle telefoons zo iets. Als Apple zich zal willen blijven onderscheiden, zullen ze een nieuwe "killer feature" moeten ontwikkelen. Alleen een paar pixels erbij of een technische verbetering die door veel gebruikers niet eens begrepen wordt (zie sommige posts in dit item), daar ga je geen nieuwe klanten mee aantrekken.
Wat merk je daar aan? De voortgang in techniek, een zuinigere processor en een snelheid winst van misschien wel 31%.

we zitten hier op tweakers.net; daar zitten bijna alleen techneuten. die hebben naar mijn idee een andere opvatting van innovatie dan de gemiddelde consument.

De consument wil iets nieuws (lees: iets dat er anders uitziet en anders werkt) wij als tweakers zien innovatie ook als een sterke verbetering van de producten die al op de markt zijn.

Als voorbeeld:

Toen 802.11n uitkwam kochten veel mensen een nieuwe Wi-Fi router. die nieuwe snelheid werd door ons gezien als innovatie. Bij de consumenten was dit echter niet het geval die zeiden: het was toch al draadloos?
Dat komt omdat er op internet mensen zitten zoals jij die blaten zonder de feiten te kennen. Ook nu zeg jij dat er op internet 'vele berichten zijn dat het toch niet het geval is'. Oftewel, jij zegt dat verkopen niet stijgende zijn.

Dan is het toch vreemd dat deze grafiek een heel ander beeld laat zien. Deze grafiek is gebaseerd op cijfers uit de verslagen van Apple en dus 100% accuraat.

Als jij het hebt over 'strijd aan het verliezen', moet je weten welke strijd en op welke manier Apple aan het verliezen is, want op Apple concurreert met meerdere bedrijven op meerdere manieren.
Ik vraag me af wat je verder bedoelt met "de strijd aan het verliezen is". iPhones en iPads gaan nog steeds als warme broodjes over de toonbank, en de verkopen zijn nog steeds stijgende.
Netto mag Apple dan wel een (langzaam) stijgende lijn in de verkopen van iPhones en iPads hebben, bruto verliezen ze heel rap marktaandeel. Over de hele linie gezien zijn ze de strijd misschien niet zo zeer aan het verliezen maar ze zijn hun gigantische voorsprong, waarvan zovelen nog niet zo lang geleden voorspelden dat ze die goeddeels konden behouden, volkomen kwijt en lopen nu eerder achter de feiten aan dan dat ze forerunners zijn op welk vlak dan ook.

Kijk, niemand pakt ze het imago meer af van initiators op dit vlak, ze hebben de markt voor smartphones en tablets zeker niet gecreŽerd maar wel opengebroken. Ook het imago van 'priemiejum' zullen ze nog wel even vasthouden, vooral ook kijkend naar hoe hondstrouw een deel van hun fanbase is. Feit is alleen wel dat Apple inmiddels door de concurrenten een bepaalde richting op wordt gedwongen, waar dat een jaar of 3-5 geleden nog precies andersom was. Kijk alleen al naar iOS7 en de iPhone 5: Ondanks het zweren bij een 3,5" scherm zijn ze gezwicht en hebben ze een 4" scherm in de iPhone 5 gehangen.
Verschillende Android features werden al overgenomen en iOS7 is in heel veel opzichten een buiging naar zowel Android als Windows Phone.

Begrijp me niet verkeerd: ik heb helemaal niets met Apple maar hoop wel degelijk dat ze zullen blijven innoveren, dat is alleen maar goed voor de markt. Maar ik vrees dat ze de strijd langzaam, stapje voor stapje, aan het verliezen zijn en weer terug moeten vallen op stabiele verkopen binnen een afgebakend deel van de markt, zoals ze al jaren met hun Mac 's doen.

//edit: Wow, er zijn schijnbaar nogal wat rancuneuze fanboys online vanmorgen, gezien de '-1' mods op deze reactie. Care to elaborate, guys?? :>

[Reactie gewijzigd door musje83 op 26 augustus 2013 09:40]

Apple heeft *nooit* een gigantische voorsprong gehad. Ze zijn *altijd* een relatief kleine speler geweest qua marktaandeel. Vroeger was Symbian namelijk de grootste, daarna Android. iOS is nooit nummer 1 geweest.
Vergeet BlackBerry niet..
Mwoah, ik denk dat ze wel degelijk een hele grote voorsprong heeft gehad, en dan bedoel ik niet zozeer puur en alleen het marktaandeel, maar het idee dat bij veel consumenten leefde: de iPhone is dť smartphone. En dat resulteerde in een gigantisch marktaandeel met slechts een paar modellen. Nu hebben ze met eenzelfde aantal modellen een groot, maar gigantisch geslonken marktaandeel.
Marktaandeel is niet of nauwelijks geslonken. Je verzint feiten om je argument vorm te geven, maar dat is gewoon niet zo.

Wat er in de praktijk gebeurt is dat mensen vroeger een Nokia E71 kochten en nu een Samsung Galaxy Ace. Android heeft de plaats van goedkope Symbian toestellen ingenomen. Die groei is niet ten koste gegaan van de iPhone oid.
Ben het wel gedeeltelijk met je eens hoor musje.
Al vind ik wel dat ze de tablet markt gecreŽerd hebben, die was er eenvoudig weg niet voor de ipad.
De smartphone markt was er al, Apple's slogan was toentertijd ook "we reinvented the smartphone".
De grote innovatie destijds was de vormfactor van de smartphone. Na de eerste iPhone begreep iedere fabrikant hoe de smartphone er uit moest zien en waar deze over moest beschikken.
Daarna zijn er bij alle fabrikanten geen grote innovaties meer gedaan.
Wat er na kwam viel eigenlijk allemaal aan het verbeteren dan wel aanpassen in een iets andere vorm.

Innovaties kun je idd pas weer verwachten met nieuwe producten.
De smartwatch en meer nog denk ik met internet tv.
De smartwatch zal niet direct een game changer zijn, ik denk dat de dure merken hier weinig van merken.
De categorie sport horloges zal wel herzien worden.
De effecten van internet tv kunnen echter grootschalig zijn en van enorme impact op de huidige tv maatschappijen.

Verder zit Apple nu op de positie die ze eigenlijk al jaren pretendeert, ze hoeven niet de grootste te zijn. Maar ze willen wel de beste zijn.
Natuurlijk heeft android het grootste marktaandeel op smartphone gebied, dat komt door het brede aanbod van toestellen ook in het lagere segment.
Al krijgen ze hier sinds kort concurrentie van Windows phone.

Neemt niet weg dat Apple niet mee kan groeien in het tempo van de totale markt, simpel omdat ze niet de gehele markt bestrijken.
En de verkoop volumes van goedkope toestellen zijn hoog.
Zie het recente bericht dat Microsoft meer toestellen heeft verkocht dan Apple in zuid Amerika, dit alles door de goedkopere modellen.

Nu lijkt daar verandering in te komen en zal Apple zich ook meer richten op het midden segment.
Hierdoor komt een iPhone ontegenzeggelijk meer binnen het bereik van een grotere groep consumenten.
Welk effect dit heeft op de totale verkopen zullen we over een half jaartje wel zien.

De smartphone markt is volwassen en door assortiment wijzigingen houden ze de verkopen op peil, als zullen ze dus niet meer mee groeien met de markt, simpel omdat ze niet in de onderste regionen aanwezig zijn.
Daar zijn nu eenmaal niet de marges te halen waar het grote geld mee verdient wordt.

Verder vind ik je hier wat eerlijker wat betreft je objectiviteit, maar dat is meer een persoonlijke noot.
Ja, weet je, ik heb er persoonlijk heel weinig vertrouwen in dat die hele smart-watch markt Łberhaupt ooit meer kan worden dan een geinig hebbeding. Een telefoon is iets wat mensen in 2007 ook al massaal hadden, de smartphone werd een grote stap voorwaarts (tegen ongeveer 2-3x de prijs).
Ik verwacht niet dat mensen hun § 20-70 horloge massaal gaan inruilen voor een horloge dat als accesoire voor hun iPhone dient, elke zoveel dagen weer aan de lader moet ťn vele malen duurder is dan hun 'gewone' horloge. Misschien zit ik er naast maar ik kan me het echt niet anders voorstellen.

En de positie van Apple is, afhankelijk van hoe je het bekijkt, totaal niet of juist heel erg bedreigd. Ik denk dat het niet kunnen/willen meegroeien met de markt ze uiteindelijk veel meer gaat kosten dan nu, op korte termijn, zichtbaar is. Als je je als bedrijft blijft focussen op 1 martktsegment, dan gaan mensen je uit het oog verliezen. Dan ben je hooguit een van de luxere merken op de markt, maar is de drang iets te kopen afgenomen omdat er geen 'wow' factor meer aan zit. En dat is precies wat bijvoorbeeld Nokia langzaam terug begint te krijgen, en dat is te zien aan hun groei.

Overigens bestond de tablet markt wel degelijk voor Apple begon, met name in de zakenwereld was de tablet (met stylus) al een decennium een graag geziene gast en ook waren er al bedrijfjes bezig Android op tablets te zetten, denk aan Archos die in 2009 Android tablets uitbrachten. Maar dat terzijde; zoals ik al aangaf heeft Apple m.i. de markt wel degelijk opengebroken.

En wat betreft je personal note: Tsja, ik ben toch ťcht niet meer of minder objectief hier. Wel is het zo dat hier vťťl minder trolls rondlopen dus zijn mijn posts vaak wat uitgebreider. Op nu.nl kan het maar zo zijn dat je mijn bericht ziet als ik al lang en breed met een (semi-)troll in 'gesprek' ben, dan lijkt het allemaal wat minder objectief. Mijn reacties daar zijn heel vaak reacties op ongenuanceerde uitspraken, misschien dat daar het verschil in zit?
Apple kent altijd zeer sterke schommelingen per kwartaal i.v.m. nieuwe productintroducties. Vorig jaar in de zomer was de iPad 3 net uit, nu is er al drie kwartalen op rij geen nieuwe iPad geÔntroduceerd. Significant verschil en dat zie je terug in de verkopen. In het eerste kwartaal van 2013 werden er bijv. veel mťťr iPads verkocht dan in 2012.

Daarom moet je de verkopen per jaar bekijken, en dan zal je zien dat die in 2013 hoger zullen dan in 2012. En ik gok dat ze in 2014 ook weer stukken hoger zullen dan in 2013.
Je zegt dat het om feiten gaat, maar volgens mij verzin je dit gewoon. Natuurlijk zal er op fora gesproken worden dat apple innovatie verliest. Dat betekent niet dat het waar is.

De feiten zijn dat apple al jaren als betere uit benchmarks komen, de beste accuduur leveren en het een ontzetten betrouwbaar solide os heeft, wat van android niet gezegd kan worden want de eerste niet stotterende androidtablet met degelijke tablet apps moet nog gemaakt worden.
Nog een feit is dat apple DUBBEL zoveel winst heeft gemaakt als samsung, htc, sony en LG bij elkaar op het gebied van tablets en smartphones, en je kan niet ontkennen dat dat een hele goede prestatie is.
Dit zijn de feiten, niet willekeurige comments op fora.

Ps ik ben geen apple fanboy, voordat je daar weer mee gaat argumenteren ;)
Correctie: het ging alleen om de smartphone markt, de bedrijven rim, samsung, htc en nokia hadden samen 1/3e van de winst die apple behaalde in 2012.

Bron:
http://m.androidauthority...yahoo-amazon-ebay-134428/
Soepel, ja de nieuwe nexus 7 zal soepel lopen. Over de apps ben ik het niet helemaal met je eens. Het wordt steeds beter maar er loopt nog veel vast of word niet goed gescaled. Ik vind het belachelijk als een OS van deze tijd vast kan lopen door een app die slecht in elkaar zit voor tablets.
Wat verwacht je dan nu nog wel aan innovativiteit? De rek in ontwikkeling van smartphones en tablets is er inmiddels wel uit. De Samsung's en HTC's komen ook niet meer met innoviteiten, daar is het ook alleen maar het aanscherpen van specs, precies wat Apple ook ieder jaar doet.
Innovatie kunnen we pas verwachten zodra Google Glass mainstream gaat worden en eventueel Apple's smartwatch op de markt komt. De toekomst en innovatie ligt bij wear-ables en niet meer in smartphones en tablets.

Daarbij is de discussie over voorbij streven door Android maar de halve waarheid. De inmiddels 1 jaar oude iPhone 5 doet het anders nog best aardig t.o.v. de nieuwste Android smartphones.
Zie deze scores maar eens:
Tweakers review S4 benchmarks deel 1.
Tweakers review S4 benchmarks deel 2.

Op software gebied loopt iOS ietjes achter maar dit wordt met de komende iOS7 toch weer aardig goed gemaakt. Daarbij blijft iOS nog steeds rank en slank terwijl ik bij Android steeds meer de indruk krijg dat steeds meer features de overhand krijgen i.p.v. slim resources gebruik. Neem de Chrome browser, leuk al die features maar deze browser is met iedere update trager en trager aan het worden. Ook de kwaliteit en releases van apps blijft achter lopen op die van iOS. Vaak zijn de Android versies slappe aftreksels(ports) van de iOS versie en ontbreken er vaak features. Voorbeeld ondersteuning bluetooth LE 4.0 hartslagmeters i.c.m. sport apps als runkeeper e.d. De iPhones ondersteunen dit al ruim 1,5jaar terwijl Google het pas vanaf versie 4.3 gaat ondersteunen. Waarbij het de vraag is, wanneer en of krijg je een update naar 4.3.

Dus ja voorbij streven, het is maar net hoe je je bril opzet :)

Was getekend een bezitter van een iPhone 5 en een Galaxy S3.

[Reactie gewijzigd door Miki op 26 augustus 2013 13:06]

Fanboy's? gebruik eens wat volwassener woorden.

Maar ik zou niet weten hoe Android zou voor liggen, ik denk juist net andersom.
iOS ligt zover voor dat hierdoor minder vernieuwingen nodig zijn, het werkt en het werkt goed.

Waarom zou Apple een nieuwe beweging moeten maken? Volgens mij heb je geen idee wat Apple allemaal naast de iPad/iPhone nog doet. Voor dat die apparaten er waren kwamen ze ook niet elk jaar met een 'new amazing' product.

Straks komt al de nieuwe Mac Pro, nieuwe iOS en OSX, onlangs een nieuwe Logic Pro uitgebracht en zo hebben ze nog veel meer dingen (heb ik de iMac/Macbooks nog buitenwegen gelaten).
Zijn comment wordt negatief beoordeelt omdat het geen steek maakt.
Hij denkt, een snelllere cpu, dus is batterij sneller leeg.

Het feit dat de CPU sneller is , is leuk. Maar zolang de software daar geen gebruik van maakt. Heeft het weinig nut. Dat is misschien het punt dat hij wou maken ( i doubt it )
Kip / Ei probleem, als de software het zou gebruiken was alle apparatuur te traag. Feit is dat eerst de hardware moet schalen voordat software mee gaat. Want niemand gaat software ontwikkelen die meer eist als wat de hardware op dat moment zou kunnen leveren.
In het algemeen: wanneer is een device snel genoeg? Ik merk aan mijn desktop dat ik veel minder vaak dan vroeger nadenk over mogelijke upgrades, al speel ik graag een spel. Voor niet-games hoef ik het al helemaal niet te doen. Wellicht dat het tempo er een beetje uit lag doordat de consoles ook een dagje ouder werden, maar dan nog.

Bij mijn telefoon merk ik hetzelfde. Ik heb jaren ieder jaar een nieuw toestel aangeschaft (muv de eerste htc Desire, die mocht 2 jaar mee) en iedere keer was het een duidelijke verbetering in het gebruik. Betere software, beter scherm, vlotter reagerende UI. Nu heb ik een Xperia T, dus een model dat ongeveer een jaar oud is, en ik zie eigenlijk geen reden om 'm te vervangen. Het ding doet wat ie moet doen en ik heb niet het idee dat ik vervelend vaak aan het wachten ben. En dat 1280x720 scherm bevalt ook prima eigenlijk.

Ook lees je dat het middensegment het beter en beter gaat doen. Zitten we nog wel te wachten op een nieuw "flagship model" ieder jaar?
Beetje flauw misschien maar; zonder flagship model geen middensegment.
Dus hij wordt net zo snel als de nieuwe Blackberry Z30 die ook in september zal verschijnen met een 5 inch scherm mmm maar goed je kan de apple in 128 Gb krijgen (900-1000 dollar) wordt gezellig met de nieuw 5S qua verkoop. Apple gebruikers zitten toch van aan hun eco systeem met tablets, computers :)

[Reactie gewijzigd door nlb op 26 augustus 2013 17:53]

CPU is sneller maar is ios wel geoptimaliseerd?
ios is al 7 jaar het zelfde, er is weinig aan veranderd, ze mogen het wel meer open maken.
Nou, liever niet. Dankzij het gesloten model is het een heerlijk stabiele omgeving. Als je tegen het gesloten systeem bent, koop dan wat anders. Er is nu keuze, stabiel en gesloten of instabiel en open. Iedereen kan voor zichzelf die keuze maken, prima toch?
iets wat open of gesloten is hoeft niet per definitie stabiel of instabiel te zijn. jouw wereld is wel heel zwart-wit. mensen... gebruik toch lekker wat je zelf fijn vind werken.
Dus volgens jou is IOS nagenoeg hetzelfde gebleven als de eerste versie? Sommige mensen hebben schijnbaar bewijs nodig in vorm van een compleet nieuwe interface om iets nieuws te zien.
Ik denk dat er toch wat meer dan 'nagenoeg' aan IOS is veranderd.

Over die optimalisatie hoef je ook niet druk te maken of je moet echt het idee hebben dat de A6 als een krant met IOS draait. Apple ontwerpt niet voor niks zijn eigen sock, juist om het beter op elkaar aan te laten sluiten, zij zien daar veel optimalisatie mogelijkheden in.
Ze doen het niet voor de lol.

Dat 'open' maken is een onzinnige discussie, wat denk je daar mee te bereiken, optimalisatie?
Gesloten of open modellen hebben beiden zijn eigen voor en nadelen. Open is geen toverwoord voor dat het dan plots beter gaat draaien.
ios 7 is drama en doet me denken gedeeltelijk aan de blackberry playbook. De nieuw ios 7 loopt reeds op veel fronten hierdoor ook bijna 2 jaar achter op android en Blackberry.

Ik snap niet dat men met gewoon een nieuwe OS uit de grond stampen dan de oude OS op te leuken want het is gewoon mix van blackberry en android oud.

lees deze link ook eens wel goed.

http://n4bb.com/apple-ios-7-versus-blackberry-10-2/

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Tablets Luchtvaart Samsung Crash Smartphones Microsoft Apple Games Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013