Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties

Apple zal de A5X-soc uit de nieuwe iPad niet gebruiken voor de volgende iPhone. Dat verwacht een analist. De nieuwe chip zou te veel vragen van de accu, terwijl Apple de chip in de nieuwe iPhone juist zuiniger zou willen maken.

Daarom zal Apple waarschijnlijk een 28nm-chip ontwerpen, vermoedelijk op de Cortex A15-core. Dat zeggen analisten tegen Apple-fansite Macworld. De system-on-a-chip in de nieuwe iPad, die A5X heet, wordt gemaakt op een 45nm-procedé, terwijl andere chips dit jaar al gebruikmaken van een 28nm-procedé. De kleinere transistors hebben minder spanning nodig om te schakelen, waardoor minder energie verloren gaat en de chip dus minder van de accu vraagt. Onder meer de Snapdragon S4 van Qualcomm in de HTC One S is een 28nm-chip.

Ook zou de chip in de volgende iPhone niet langer twee Cortex A9-cores hebben, maar gebruikmaken van de nieuwe A15-core van ARM. In het verleden gebruikte Apple ook socs van ARM, die aangepast werden door Intrinsity. De A15-core maakt gebruik van een nieuwe architectuur, die per kloktik meer berekeningen kan uitvoeren, en heeft ook nog eens minder energie nodig om dat te doen.

Apple heeft door het scherm met hogere resolutie en ondersteuning voor 4g-netwerken de accu in de iPad flink heeft moeten vergroten. De accu in de iPad 2 is 25Wh, terwijl de nieuwe iPad een 42,5Wh-accu heeft. Mede daardoor is de nieuwe iPad dikker en zwaarder dan de vorige.

Omdat de accu in de iPhone klein gehouden moet worden, is het niet logisch dat de A5X-chip in de nieuwe iPhone gebruikt gaan worden, zegt analist Linley Gwennap. "Voor telefoons in het bijzonder is er een goede reden om op het nieuwste procedé over te schakelen." Gwennap richt zich als analist alleen op de markt voor processors.

Moderatie-faq Wijzig weergave

Reacties (72)

Ongelovelijk het gebrek aan kennis over mobiele technologie. Tegra 3 maakt gebruik van een geoptimaliseerde GeForce ULP, dat is dezelfde GPU als in de Tegra 2. De voornaamste reden naast de optimalisatie in de GPU dat de GPU sneller is dan de Tegra 2 komt vanwege het feit dat de Tegra 2 geen NEON SIMD extenties heeft op de Arm Cortex A9 cores terwijl de Tegra 3 dat wel heeft. De Tegra 2 gebruikt dus geknipte Arm Cortex A9 cores en de Tegra 3 niet.. Op het gebied van rekenkracht (floating point) en tekenkracht (fillrate en vertices) is de GeForce ULP ongeveer gelijk aan de Mali400 en SGX540 op 200MHz. Klok voor klok staat de SGX540 net onder een SGX543 core en gezien de nagenoeg 1:1 schaling kan je gerust zeggen dat een SGX543MP4 in de A5X ongeveer 4x krachtiger is dan de GeForce ULP in de Tegra 3. Sowieso is de A5X een veel grotere SoC met veel meer transistors dan de Tegra 3.

[Reactie gewijzigd door Buck Naked op 9 maart 2012 13:03]

Leuk Benchmark sofware, die A5X moet maar eens tegen een Tegra III worden getest op 3D shader app, dan moet ik het verschil nog maar zien. Ik vertouw die Bechmark software nooit met nieuwe tchniek die geoptimaliseerd moet zijn voor bijvoorbeeld iets als CUDA.

@Back Naked Goed verslag, lekker helder zonder mooiboy en fanboy verkleuring. NEON gaan ze echt als marketing term gebruiken voor die nieuwe SIMD updates, ik verwacht hier langzaam veel van, er zit potentie in.

Leuk dat deze ontwikkeling zo snel gaat allemaal, en dat ze die A5 opnieuw ontworpen hebben met 4 GPU's, lol 5X, (X staat voor? geheim??) Ze beginnen bij Apple echt wel te snappen dat iedereen echte HD wil.
hoewel ik doorgaans weinig aanneem van analisten omdat ze in 9 van de 10 gevallen niet weten waar ze het over hebben vindt ik dit erg logisch klinken.
Dat is het ook. Mensen hier denken altijd in cores en snellere cpu en gpu's. Echter vergeet vrijwel iedereen dat Apple ook altijd prat gaat op zaken als accu-duur e.d. Iets wat ik als gebruiker erg prettig vind. 99% van het gebruik van de iPhone en iPad zijn niet zo zwaar dat je meteen quad-cores e.d. nodig hebt, Android bijv. heeft dat wel nodig, simpelweg om de UI overal helemaal vloeiend te laten draaien (zie recente review op Tweakers). iOS loopt met de A5 al rete-vloeiend, mij gaat het als gebruiker om andere zaken... kan ik gewoon doen wat ik altijd al deed, vloeiend met dit nieuwe hoge resolutie scherm wat meer zou ik willen? De apps blijven prima werken, als ook al het nieuwe spul.
Als Apple aangeeft in de volgende iPhone een zuinigere chip te gebruiken, dan is het aannemelijk dat ze niet dezelfde chip gebruiken als in de iPad. Daar hoef je inderdaad geen analist voor te zijn om daar de logica van in te zien.

Analisten, de nieuwe putjesscheppers-op-zee.
Dat hebben ze niet aangegeven. Dat is een deductie van deze analist.
Ik lees: "Daarom zal Apple waarschijnlijk een 28nm-chip ontwerpen, vermoedelijk op de Cortex A15-core."

Gaan ontwerpen? Hoe lang denkt zo'n analist eigenlijk dat je daar over doet. Een zomer? Wat een rare veronderstelling. De A6 chip is al lang ontwikkeld en in preproductie. Al voor de lancering van de iPad3 is al uitgelekt dat Apple en A5+ en A6 had ontwikkeld. Hij is al lang klaar anders geloof ik niet dat Apple in het najaar een nieuwe iPhone gaat uitbrengen.

Apple brengt zijn nieuwste innovaties steeds eerst naar de iPhone en daarna naar de iPad. Dat doen ze met het Retina-scherm en ook met de processor. Dat geeft ze de tijd om verder te optimaliseren, vervolmaken en ook goedkoper te maken. Zo haal je maximaal rendement uit je investering en het is ook veel minder risicovol dan een processor voor alle producten uitrollen. Je kunt zelfs zeggen dat als er geen A6 processor in de iPhone zit Apple een probleem heeft.

Reken maar dat Apple nu al bezig is de A7 processor te ontwikkelen. Net zo goed als Nvidia al een hele lineup gemaakt heeft van de Tegra processors voor de komende jaren heeft Apple dat ook voor zijn processors.

En processor ontwikkeling is een vitaal onderdeel in het geheel. Apple wil immers innovatiekampioen blijven en heeft ook de miljarden om daar in te investeren. Hun processors zijn dan ook state of the Art. Dat er een A6 in de iPhone zit is voor mij 99,99% zekerheid. En ik vermoed dat iPhone dit jaar wel op tijd uitkomt en de geruchten gaan dat er een flinke vernieuwing in zit. Er wordt beweerd dat de iPhone5 het laatste project is geweest waar Steve Jobs aan gewerkt heeft en dat hij er speciale voorkeur aan gegeven heeft boven andere projecten.

[Reactie gewijzigd door Magalaan op 9 maart 2012 15:25]

Omdat een processor A6 heet, is hij toch niet plots beter dan een A5? Beetje rare redenering dat de benaming van de processor bepaald of Apple "een probleem heeft" of niet.

Volgens mij heeft Apple nooit echt enorm weten te innoveren op gebied van processors? Voor zover ik weet is de processor uit een iPhone vergelijkbaar met die uit een andere smartphone van >600 euro.

On-topic: Volgens mij klopt de analyse van de analist wel. Het is dan ook allemaal vrij logisch.
Omdat een processor A6 heet, is hij toch niet plots beter dan een A5? Beetje rare redenering dat de benaming van de processor bepaald of Apple "een probleem heeft" of niet.

Volgens mij heeft Apple nooit echt enorm weten te innoveren op gebied van processors? Voor zover ik weet is de processor uit een iPhone vergelijkbaar met die uit een andere smartphone van >600 euro.
Tuurlijk de miljarden die ze in de ontwikkeling van de processor stoppen, gaan allemaal op aan zakenluches. Verder levert het niets op, maar het is zo leuk om er zelf een te maken.

Dat de GPU in de iPad3 4 x zo snel is als een Tegra3 en de CPU ook veel sneller, zegt echt niets. Tegra 3 is tenslotte ook maar oude meuk. Dus eigenlijk zitten ze bij Apple gewoon gewichtig te doen om niks.

Eigenlijk zijn het gewoon opscheppers en heeft Steven Jobs mensen gewoon zitten te hypnotiseren met zijn coltruien, de reden waarom heel het domme zombie volk veel te veel betaald voor producten die anderen veel goedkoper maken.

En dat ze hem A6 noemen is niet omdat hij op een nieuwe generatie Arm processoren is gebaseerd, maar is gewoon om de klanten te verlakken. Als je dat A6 van de processor afschraapt zit er gewoon een A5 onder, pure volksverlakkerij.

Dat mensen daar nog intrappen.

[Reactie gewijzigd door Magalaan op 9 maart 2012 15:31]

inderdaad erg logisch, dat zou overkill zijn. de A5x was nodig om het 4voudige aantal pixels aan te sturen in de iPad. de iPhone heeft al een retina display. Dus op nornale gebruiksafstand kunnen je ogen toch niet meer pixels onderscheiden. Het is dan logisch dat ze prioriteit geven aan minder stroomverbruik, dan aan grafishe kracht.
Als nog hadden ze gewoon voor 28nm kunnen (lees: moeten) gaan met de nieuwe iPad. Hadden ze ook geen grotere accu er in hoeven stoppen wat de iPad dikker, zwaarder en ook duurder maakt (yield op 40nm is lager dan bij 28nm). Dit is wat mij betreft echt een -1 voor apple die voor het eerst er niet in is geslaagd om de fysieke dimensies te behouden (of verminderen). Als is t natuurlijk wel moeilijk om de verwachtingen steeds waar te maken!
Waarom zou de yield op 40nm lager zijn dan bij 28nm ?

Je zou eerder andersom verwachten, kleinere (nieuwere) technologie --> lagere yield (opbrengst)

Maar de grotere accu is voornamelijke nodig voor het nieuwe display - en niet voor de A5X.
Ja de 5X zal wat meer verbruiken vanwege de extra grafische capaciteit, maar het nieuwe scherm zal heel wat meer slurpen !
Maar op 28nm passen er wel veel meer chips op een wafer. Dan kun je er ook meer verliezen.
Daarom wordt de yield ook vaak als percentage uitgedrukt.
De reden voor de grotere accu heeft heel weinig te maken met de SoC en vooral met het scherm (meer pixels vereist veel meer backlight) en LTE. Maar een zeer klein deel is attributable aan de A5X.

Vergeet ook niet dat door de veel grotere productievolumes Apple relatief vroeg een bepaald design moet locken, en 28 nm productie begint pas net een beetje te komen, en nog niet in benodigde volume.

Overigens: de oppervlakte van een 28 nm chip (all else equal) is kleiner dan een 40 nm chip, dus er gaan er meer op een wafer, maar de yield is het percentage dat niet stuk is, en die is juist lager op nieuwere productiemethoden.
Aan de andere kant, een telefoon is allang geen telefoon meer. Om puur te telefoneren heb je idd geen quad core nodig, maar ja tegenwoordig wordt dat ding toch overal voor gebruikt. Gamen, internet, foto toestel en dat natuurlijk allemaal tegelijk als het kan (al dan niet op de achtergrond) en uiteraard super snel en in high res.

Je zou hem dus best kunnen gebruiken in een iPhone, maar net als bij pc's bij lage belasting in een spaar stand zetten dat hij slechts 1 of 2 cores gebruikt. Dus heeft hij gelijk, dat blijft de vraag...
Als je naar de geschiedenis van de iPad en iPhone kijkt zie je dat Apple de SOC in de iPad ook in de nieuwe iPhone gbruikt.

Er is dus geen reden om aan te nemen dat dat dit keer niet zal gebeuren.

Apple wilt namelijk schaalvergroting om de prijs laag te houden en gebruiken daarom dezelfde SOC voor meerdere apparaten tegelijk.

Bovendien klokt Apple de iPad SOC altijd lager voor de iPhone en dat kunnen ze nu ook doen om de stroomverbruik te verlagen.

En Apple kennende zullen ze nog geen Quad core stoppen in de iPhone 5 want daar is het te vroeg voor.
Voor de ipad er was introduceerden ze ook nieuwe procs met een iphone, dit vormt dus geen probleem en het kan nog alle kanten uit. Een cortex a15 staat trouwens niet gelijk aan een quad-core processor. Ze kunnen er zoveel insteken als ze willen. My guess, een dual-core cortex a15 met een companion cortex a7 core. Als de ipad4 er dan aankomt kunnen ze er dan een extra grote van maken en iets hoger klokken.
Goh, dat was te verwachten en ook al door meerdere mensen geplaatst bij het artikel dat Apple aan een A5X en A6 aan het werk was.


Ik denk dat de voornaamste reden dat Apple de A5X ontwikkeld heeft is dat de A6 (waarschijnlijk dualcore Cortex A15 en PowerVR Rogue GPU SoC op 28nm) nog lang niet klaar was voor productie. En zelfs als de A6 nog dit jaar gebruikt gaat worden is het nog afwachten of hier een Rogue GPU in zal zitten.


Daarnaast is de A5X, met de vermoedelijke PowerVR SGX543MP4 nog groter geworden (duurder, hoger energieverbruik). Terwijl die GPU gewoon overkill is voor de iPhone resolutie. De extra cores in de SGX5xx GPU's zorgen vooral voor een toename in fillrate en texture units. De shader performance neemt maar amper toe.

t.o.v. de MP2 zal de MP4 in een iPhone apparaat alleen nuttig zijn als als je je iPhone aan een full-HD display koppelt. De verhouding van het toegenomen verbruik en de extra snelheid winst zijn gewoon niet in verhouding voor een smartphone.

[Reactie gewijzigd door knirfie244 op 9 maart 2012 10:11]

De A6 was gewoon nog niet af en Apple wist dat het nog niet af zou zijn op het moment dat de ipad3/new ipad/ipad uit "moest" komen en is tegelijkertijd begonnen met een relatief simpele, snelle verbetering van de A5. Ten tijde van de iphone5/new iphone/iphone is de A6 (waarschijnlijk) wel klaar en heeft de A5x geen "nut" meer, maar heb je optimaal gebruik gemaakt van je research en investering. Deze cyclus kunnen doorzetten.
De extra cores in de SGX5xx GPU's zorgen vooral voor een toename in fillrate en texture units. De shader performance neemt maar amper toe.
Fill rate is shader performance.
Groot voordeel van de PowerVR SGX543MP4 is dat dit exact dezelfde gpu is als in de PlayStation Vita. Dat betekent dat games relatief makkelijk heen en weer geport kunnen worden en (in theorie) precies even snel zouden moeten draaien - leuk voor developers.

[Reactie gewijzigd door Dreamvoid op 9 maart 2012 11:19]

Net even opgezocht, je hebt gelijk ja, en die draait ook op ARM Cortex A9, dus dubbel makkelijk. :)
PowerVR Rogue ben ik niet zo zeker van. DIt is pas gereleased januari dit jaar.

http://www.anandtech.com/...pus-released-to-licensing

Power VR535 was nov 2007->juni 2009 in iphone
Power VR543 jan 2010 -> oktober 2011 in iphone/ maart 2011 ipad

Altijd ruim meer dan een jaar terwijl als men nu de origineele release schema aanhoud (juni juli) men 5 maand heeft en oktober 9 maand .
Tegra 3 heeft 12 grafische cores…
dus Quad core GPU is toch niet zo heel spannend als het klinkt
of heb ik het nou verkeerd?

-edit-

Tevens lees ik net dit bij onze collega's
http://nl.hardware.info/n...ng-tegra-3-en-nieuwe-ipad

[Reactie gewijzigd door Severion op 9 maart 2012 12:31]

De Tegra 3 kan de A5 (dual GPU) niet bijbenen qua GPU, dus een verdubbeling van niet bij kunnen houden, dat is toch best netjes.
De Tegra 3 kan de A5 (dual GPU) niet bijbenen qua GPU, dus een verdubbeling van niet bij kunnen houden, dat is toch best netjes.
Hoe vaak ik het niet moet herhalen... Als je enkel naar Benchmarks kijkt, dan gaat je neus langer worden.

Kijk naar de cross platform games. Games dat op de iPad2 origineel kwamen, en dan op de Android kwamen, met "Nvidia optimized", zien er actueel beter uit op de Android met een Tegra3. Zijn genoeg reviews over...

Apple gebruikt graag Egypte als een test, omdat in deze benchmark bijna dubbel zo goed doet als alle andere GPU's. Probleem is, deze benchmark is enorm simpel, en speelt recht in op de "troeven" van de A5's GPU. Maar! De meeste games zijn VEEL meer ingewikkeld dan de Egypte test, met als gevolg, dat het verschil ineens in elkaar stuit.

Doe liever je research ipv je blind te starten op benchmarks. *uch*... Dit is gans de Pvd PC tijdperk gans over, toen dat mensen zich blindstarende op een bepaalde benchmark ( moet hem zeker niet opnoemen ;) ), maar in de games tot de conclusie kwamen dat het verschil niet erg denderend was. Waarom denk je dat alle deftige review sites zich nu enkel focussen op de games FPS, en niet op synthetische benchmarks?

Er is al lang vraag naar dat men met iOs/Android games zou kunnen benchmarken zoals met hun PC tegenhanger, maar de ontwikkelaars zien dat niet zitten om één of andere reden.
Goh benchmarks dat is altijd wat ik hoor bij Android adapten: ja mijn telefoon is Quad-core dus beter! en mijn Android superphone heeft 200mhz meer CPU dan jouw domme iPhone dus mijn is beter! Zonder te kijken naar optimalisaties voor OS, en gebruik door apps enz.

En als ik keek naar de reacties op de games voor de iPad 3 dan waren ze behoorlijk onder de indruk. En dat is de concurrent voor de Tegra 3, niet de iPad 2 (die een jaar oud is)....

Bovendien kun je verwachten dat door het veel lucratieve iOS er veel betere games op zulen verschijnen dan voor Android, omdat je straks 10tallen miljoen nieuwe iPads hebt en slechts een paar miljoen tegra 3 tablets (misschien wel minder)
Ik ben zo van mening dat dit medekomt door de wat mindere drivers voor android, en de geoptimaliseerde drivers die apple leverd, en alles door apple wordt gemaakt.
Nvidia maakt de Android drivers voor Tegra 3 ook zelf. Het ding heeft gewoon vrij matige grafische prestaties, net als de vorige Tegra generaties trouwens.

Op de een of andere manier gaan mensen er automatisch vanuit dat omdat NVidia goed is in desktop graphics, ze automatisch ook wel goed zullen zijn in mobiele GPU's, maar dat is dus niet het geval. Mobiele GPU's zijn een compleet andere tak van sport waar compleet andere ontwerp keuzes gemaakt moeten worden dan op de desktop. Het zou al genoeg moeten zeggen dat een moderne NVidia GPU dik over de 100W trekt, vergeleken met een paar Watt voor een mobiele GPU.

NVidia heeft gewoon tot op de dag van vandaag een jaar of 5 achterstand op bedrijven als Imagination, die al 15 jaar aan hun mobiele GPU's werken.

@LucasAmsterdam
Wat je zegt is gewoon kletspraat en nergens anders op gebaseerd dan wat vage aannames over gebrekkige benchmarks. Er bestaat geen enkele benchmark waar jij mee kunt aantonen dat Tegra 3 '40% sneller is dan de GPU in de iPad 2', maar wel hele ladingen benchmarks die het tegendeel aantonen. Deze benchmarks zijn 'gewoon' OpenGL-based en gemaakt op precies dezelfde manier als spelletjes en applicaties, dus ongeacht wat NVidia allemaal aan 'veel geanvanceerdere techniek' gebruikt is irrelevant als het in de praktijk niet tot betere prestaties leidt. Dit laatste over de 'veel geavanceerdere techniek' van NVidia is ook echt totale nonsens, de Tegra 3 (en 2, en 1) GPU zijn allemaal ontwikkeld vanuit dezelfde filosofie als NVidia's desktop GPU's, en dat voornamelijk op brute kracht gebaseerd. De geavanceerde technologie zit hem juist in designs als die van de PowerVR die via tile-based deferred rendering met veel lagere bandbreedte en stroomverbruik, veel hogere prestaties halen. Het is niet voor niks dat Tegra 3 wordt aangeduid als een '12 core GPU' maar in benchmarks tot 2x lager presteert dan een dual-core GPU van de vorige genratie (de SGX 5xx series is inmiddels al 'verouderd' wat architectuur betreft, de 6 series (Rogue) zal naar verwachting weer een factor of 2 sneller zijn).

Het is trouwens niet alleen de PowerVR die de vloer aanveegt met NVidia's mobiele GPU's, ook de laatste generaties Adreno en Mali GPU's zijn al sneller. Allemaal van bedrijven die al heel wat jaren meer meedraaien in de embedded wereld en dus simpelweg veel verder zijn wat technologie betreft.

Ik vertel dit verhaal al sinds de eerste aankondiging van de eerste Tegra omdat ik een jaar lang aan mobiele GPU technologie gewerkt heb bij mijn afstuderen en dus vrij goed kan inschatten wie de grote spelers zijn in mobiele GPU's en hoeveel jaren onderzoek en bergen patenten er inzitten, het bedrijf waar ik afstudeerde was bijvoorbeeld zelfs al blij als ze de prestaties van een GameBoy Advance van 2 jaar oud konden halen met hun eigen technologie. Tot nu toe is elke generatie gebleken dat Nvidia veel meer belooft dan het kan leveren, en toch blijven veel mensen tegen alle feiten in volhouden dat in elke generatie de Tegra's zulke goede graphics prestaties leveren, terwijl ze keer op keer bij de zwakste broeders horen.

[Reactie gewijzigd door johnbetonschaar op 9 maart 2012 14:09]

Een Transformer met Tegra 3 is 40% sneller dan een iPad met A5 in 3D rendering, omdat de techniek die Nvidia gebruikt veel geavanceerder is moeten benchmarck software zich daar nog op aan passen.

Voor de rest kan de PowerVR 5 prima mee komen met Video en 2D rendering, alleen door de verbeterde drivers van nu is de Tegra steeds sneller geworden. Nvidia is juist wel een bedrijf dat altijd goed op de markt kan inspelen, en snel producten kan bieden waar de markt om vraagt.
Tegra 3 is Cortex A9, dit an sich is al tegenvallend. Daar een 1GHz geclockte dualcore Cortex A15 een 1GHz geclockte quadcore sloopt op zowel verbruik als snelheid. nVidia loopt op ARM gebied achter en het zal nog wel een tijd duren voordat ze zich met Broadcom, Qualcomm, Apple, Texas Instruments, Marvel e.d. kunnen meten.

[Reactie gewijzigd door madmaxnl op 9 maart 2012 12:28]

Een A5/A5X is ook een Cortex A9. Natuurlijk zullen A15 cores sneller zijn, maar Tegra 3 is er nu al twee maanden en A15 SoC's zijn nog vaporware. nVidia is de eerste die het voor elkaar heeft gekregen om een mainstream quadcore A9 SoC te bouwen, dat is al een hele prestatie. De komende SoC's met dual core A15 en Krait cores zijn waarschijnlijk sneller, maar wanneer komen die uit? Qualcomm krijgt de S4 pas rond Kerst, TI heeft OMAP5 al naar begin 2013 uitgesteld. Samsungs dual-A15 Enyxos is waarschijnlijk de eerste, ergens eind zomer.

Qua gpu performance is het een ander verhaal, daar loopt nVidia overduidelijk niet voor, en zijn PowerVR (Atom/A5/etc) en Qualcomm (Adreno) sneller. Maar ja, zoals AMD ook merkt, alleen een snelle gpu is niet genoeg.

Broadcom is trouwens pas net begonnen met ARM (ze waren altijd in het MIPS kamp), dus die lopen zeker niet voor op nVidia.

[Reactie gewijzigd door Dreamvoid op 9 maart 2012 16:20]

Broadcom heeft meer en betere baseband technologie dan nVidia, ze zijn dus wel degelijk verder dan nVidia met ARM. ARM is niet alleen de architectuur, ARM is alles wat eraan vast zit. GPU, baseband, controllers etc.
Omschrijf je het probleem van Android al daar?
Ik zie dat hetzelfde als apple pc's.
Een apple draait op dit moment Lion als een zonnetje met een C2D omdat de software wordt geoptimaliseerd. Windows daarentegen is hetzelfde als met andriod, alleen met steeds betere specs wordt het sneller...
Met die verdubbeling van overcapaciteit.

En optimaal gebruik van het 9,7 inch Retina display met 2048 x 1536 pixels.

Zal de accu ook trippel zo snel leeglopen, mits je natuurlijk het scherm optimaal gaat benutten.

Maar helaas is er vrij weinig tot totaal niets aan media files ontworpen voor die resolutie

[Reactie gewijzigd door linuss1337 op 9 maart 2012 10:02]

Maar helaas is er vrij weinig tot totaal niets aan media files ontworpen voor die resolutie
Dat gaat dus veranderen. Er wordt momenteel 1080p content uitgerold in iTunes, ook voor de nieuwe AppleTV, en de 2 demo's die werden gegeven van games tijdens het iPad event zagen er bijzonder goed uit. En daar is alles ontworpen voor die resolutie.

Ik vind het voorbarig om te zeggen (zoals Apple) dat de nieuwe iPad beter/zwaarder/sterker is dan een Xbox 360 of PS3, maar het komt knap in de buurt volgens mij. (meeste content voor die 2 consoles is slechts 720p)
1080p is maar 66% van de capaciteit van het Retina display.

Als je een 1080p film gaat kijken op dat Retina scherm resulteert dat in zwarte balken boven en onder het beeld. Of het moet zo zijn dat jij films wilt gaan bekijken zonder de juiste hoogte/breedte verhouding? (zodat alles vervormd en wordt ge-upscaled)

Het gamen op zo'n hoge resolutie is niet altijd even leuk, het maakt het namelijk veel moeilijker. Je moet steeds nauwkeuriger je selectie maken en er komt steeds meer informatie op je af. Terwijl de meeste mensen een spelletje doen als ontspanning zal het op deze hoge resolutie een top prestatie gaan worden
De meeste van deze apparaten worden vooralsnog gebruikt door professionals die er hun e-mail, presentaties en Word-jes op lezen. Een heel erg groot nadeel van de iPad 1 en 2 vond ik altijd de lage resolutie. Als je de iPhone 4(S) gewend bent, is het echt gewoon alsof je terug gaat naar een apparaat uit de prehistorie. Voornamelijk bij PowerPoints en (proces)diagrammen e.d. kwam dit naar voren: je moest dan wel inzoomen om de lettertjes leesbaar te maken, omdat het scherm ze niet scherp genoeg getoond kreeg. Daar zit voornamelijk de winst: het beter leesbaar maken van tekst.

Dat was ten tijde van de release van de iPhone 4 ook waar die toen alom voor geprezen werd. Diezelfde stap maakt de iPad nu ook. En voor video e.d. heb je er inderdaad weinig aan, maar voor veel content tonen op een klein scherm maakt het een enorm verschil.

Ik snap dan ook niet zo goed waarom mensen zeggen 'wat heb je daar nou aan!?'. Het punt is in de smartphone markt toch al lang bewezen? Niet alleen door Apple, maar ook door HTC die nu 720p resoluties biedt op een 4" scherm. Het is simpelweg nuttig voor extra scherpte.
Professionals?

Dit lijkt me regelrecht onzin.

Ipads worden vooral gebruikt om wat simpele spelletjes, wat thuis email, surfen,...
Tuurlijk word dit ook gebruikt in professioneele omgevingen maar veel beperkter, ik ken er amper eerlijk gezegd.

Het punt dat je aanhaalt is correct echter vergeet je iets, een iphone heeft nu enemaal een klein scherm (3.5 tegenwoordig is echt wel klein) je hebt dus gewoon heel fijne letters nodig omdat je anders er weinig opkrijgt.

grotere smartphones of een ipad hebben deze beperking minder, dus zelf met een wat korreliger, beeld kunnen die evenveel info tonen.

Ipad hou je ook verder van je de impact van DPI is dus wat minder. Je commentaar over powerpoint slaat enkel op dat en wat andere, gewone tekst is perfect leesbaar in zowat alle gevallen. Dat die er nu mooier zal uitzien staat buiten kijf maar ik zie voor de gemiddelde gebruiker weinig toegevoegde functionaliteit.
iPads worden hier in het ziekenhuis massaal gebruikt door artsen en bij mij op de afdeling door wetenschappers. Tenzij je die niet professionals noemt natuurlijk.
"De meeste van deze apparaten worden vooralsnog gebruikt door professionals"

Hier reageerde ik op en nee dat geloof ik niet.
Het merendeel lijkt mij ook niet nee, maar het is zeker veel groter in het zakelijke segment als jij denkt.
Als je een 1080p film gaat kijken op dat Retina scherm resulteert dat in zwarte balken boven en onder het beeld. Of het moet zo zijn dat jij films wilt gaan bekijken zonder de juiste hoogte/breedte verhouding? (zodat alles vervormd en wordt ge-upscaled)
Een iPad is nu eenmaal een apparaat dat voor veel verschillende toepassingen bedoeld is, ook toepassingen die het beste tot hun recht komen als het beeldscherm in portretstand wordt vastgehouden (bijvoorbeeld het lezen van een boek). Een 4:3-beeldverhouding is dan fijner dan 16:9. Als je films goed tot hun recht wil laten komen kun je ze beter bekijken op een apparaat dat er specifiek voor bedoeld is, zoals een tv of projectiescherm. Veel bioscoopfilms zijn overigens in CinemaScope-verhouding opgenomen waardoor je op een 16:9-beeldscherm alsnog zwarte balken ziet.
Het gamen op zo'n hoge resolutie is niet altijd even leuk, het maakt het namelijk veel moeilijker. Je moet steeds nauwkeuriger je selectie maken en er komt steeds meer informatie op je af. Terwijl de meeste mensen een spelletje doen als ontspanning zal het op deze hoge resolutie een top prestatie gaan worden
Dat maakt niets uit omdat het element dat je wil selecteren op de nieuwe iPad op een vier keer zo groot aantal pixels wordt weergegeven waardoor de fysieke afmetingen van het object uiteindelijk hetzelfde zijn als wanneer ze op een oude iPad. De weergave op de nieuwe iPad zal er juist veel natuurlijker uitzien omdat je geen pixels meer kunt tellen.

[Reactie gewijzigd door Femme op 9 maart 2012 12:26]

Zegt wat?

1 enkele propietary benchmark (GLbenchmark), waarvan we niet weten in hoeverre deze geoptimailseerd is voor IOS.
We weten ook niet dat IOS of Android dezelfde GL settings gebruiken (op een ge-roote android kan je de benchmark versnellen door de rendering quality te verlagen).
Neehoor dat zou best kunnen maar dat zegt dus niks daar de A5X 4x zo snel is als de Tegra3
Tja als jij wc eend geloofd dat hun de beste zijn dan is die van Apple inderdaad 4x sneller dan die van nvidia :)
Tja als jij wc eend geloofd dat hun de beste zijn dan is die van Apple inderdaad 4x sneller dan die van nvidia :)
We zullen het snel genoeg merken als de reviewers hier en op andere sites er een benchmark op losgelaten hebben.

Tot die tijd is er weinig over te zeggen. (behalve de terechte WC-eend referentie inderdaad ;) )
Je hebt inderdaad geen quat core GPU nodig voor een 3,5 inch scherm.

Maar als deze dan zo veel energie verbruikt is het ook niet een hele fijne in een tablet.
Anders moet je steeds vaker een stopcontact opzoeken.
Terwijl tablets juist zo fijn zijn vanwege mobiliteit.
De iPad 3 draait nog steeds 10 uur op een volle accu....
Ja, omdat de ipAd 3 een 42.5Wh accu heeft, in plaats van de 25.5Wh accu die bij zijn voorganger te vinden was.

Zo'n (bijna) verdubbeling van de accugrootte zit er bij de volgende iTelefoon echt niet in.

[Reactie gewijzigd door SirNobax op 9 maart 2012 10:20]

Waarom niet? De iPad is heel ietsjes groter geworden, maar daardoor is de capaciteit verdubbeld. Waarom niet in de iPhone. Ze hoeven niet eens te verdubbel, anderhalf keer is ook al geweldig natuurlijk en zo kan hij ook nog dunner worden.
Zo'n (bijna) verdubbeling van de accugrootte zit er bij de volgende iTelefoon echt niet in.
Waarom niet, er zijn al accu's in telefoons die bijna dubbel zo veel Wh hebben.
Dat zijn trouwens pas een killer feature zijn voor de iphone 5.
Apple heeft de capaciteit van de accu van de nieuwe iPad moeten verhogen om dezelfde aantal uren gebruik te kunnen garanderen. De nieuwe iPad kan nog steeds 9 à 10 uur vooruit op een lading, dit is hetzelfde als de iPad 2.

De iPhone 5 zal waarschijnlijk een nieuw design krijgen en ook een groter scherm. Ook dat zal meer energie gaan kosten. Om een volledige dag gebruik op een accu te halen zal Apple de chips in de iPhone 5 dus zuiniger moeten maken, tenzij ze ook de iPhone groter en zwaarder gaan maken maar dat zie ik niet zo snel gebeuren gezien de kritiek die ze nu al krijgen over het dikker en zwaarder maken van de iPad 2.
Maar als deze dan zo veel energie verbruikt is het ook niet een hele fijne in een tablet.
Anders moet je steeds vaker een stopcontact opzoeken.
Terwijl tablets juist zo fijn zijn vanwege mobiliteit.
Daarom is de iPad dus wat dikker geworden, er zit een veel groter/zwaardere accu in, zodat de batterijduur hetzelfde is gebleven als bij het vorige model. ( en laten we eerlijk zijn: die was uitstekend )
Die A5X is eigenlijk nu al een soort van verouderd. Vind de nieuwe ipad dan ook eigenlijk helemaal niet bij Apple passen.
De display is toch weer een sprong voorwaarts zoals we van Apple gewend zijn. De eerste die zoiets implementeert im 'main-stream' apparaten.

Verder is het inderdaad niet 'des Apple's' als je het mij vraag. Zoals Arnoudwokke ook al aangeeft in zijn review zijn we van Apple niet gewend om achteruit te gaan op bepaalde fronten. Er zijn steeds een aantal (kleine) verbeteringen ten opzichte van de voorganger maar het kwam tot nu toe eigenlijk nooit voor dat de consument er op achteruit ging.

Het was dit keer dan ook kiezen om of te gaan voor minder battery life of om te gaan voor iets dikker en zwaarder. Naar mijn idee was dit absoluut niet de filosofie van Steve Jobs. Met een achteruitgang ging het simpelweg niet akkoord (wat duidelijk blijkt uit de biografie van Steve Jobs bijvoorbeeld). Dan moesten de engeneers maar een oplossing vinden voor het probleem.

Ik hoop dat Apple in het vervolg toch door blijft zoeken naar oplossingen zodat de consument er op geen enkel vlak op achteruit gaat. De financiële middelen hebben ze ervoor en ook de kennis is in huis.
Die A5X is eigenlijk nu al een soort van verouderd. Vind de nieuwe ipad dan ook eigenlijk helemaal niet bij Apple passen.
Apple doet precies wat het altijd doet met de nieuwe iPad. Dus ik snap niet goed wat je niet vind passen.

Qua CPU kan de A5 nog prima mee namelijk, qua GPU had ie een upgrade nodig voor de retina display, en meer dan 1080p resolutie. Bovendien leunt iOS voor een enorm groot gedeelte meer op de GPU dan de CPU.
Wat wil jij wel allemaal niet doen met je tablet? maar wacht even je kan met de nieuwe ipad al alle content in hoge resolutie draaien en games met mooie graphics. Dit samen met een straks vloeiend OS (IOS).

Ik zou weleens willen weten wat jij had verwacht en wat jij precies allemaal wilt dat je kan doen qua kracht. Want laten we stellen dat de iPad sowieso de krachtigste is op de markt, dat was in veel benchmarks ook zo het geval met de iPad 2 als iPhone 4S.

Je wilt een Quad-Core CPU blijkbaar, en dat kan..maar wat wil je er dan precies mee?
Dat was te verwachten aangezien de A5X tegen die tijd (eind 2012?) alweer verouderd is.
De nieuwe iPhone krijgt waarschijnlijk een A6-soc gebaseert op de A15 quadcore.

@loekf2: de A15 quadcore is er al: nieuws: Samsung toont quadcore Cortex A15-processor

[Reactie gewijzigd door tweaker2010 op 9 maart 2012 10:14]

A15 quadcore ???

Eat your hart out.

A15 is qua performance ongeveer 40% sneller bij gelijke clock. Ding schaalt alleen tot 2 GHz.

Ik zou eerder in 28nm eerst een dual-core A15 verwachten, zie ook de OMAP5.

Wordt ook qua die size ook te grote chip.
Dan moeten ze wel opschieten, want zoals het er nu naar uitziet heeft nog geen enkele fabrikant zijn A15 quadcores klaar voor 2013.
iPad batterij is echt niet vergroot vanwege alleen LTE. De accuduur is nl. gelijk aan de huidige iPad 2 ook bij de Wifi versie. Heeft dus alles met de CPU/Retina display combo te maken en niet zozeer met LTE. Maar dat is mijn analyse, maar lijkt me logisch.
Batterij is zeker wel vergoot. Hierdoor heeft hebben ze dezelfde batterijduur kunnen houden.
De A6 zal zeker voor zowel iPhone als iPad ontwikkeld worden, de Kloksnelheid zal bepalen hoe groot de accu zal moeten worden. Een A15 ontwerp SoC komt er wel, ik verwacht met de volgende generatie PowerVR Rogue, maar nog even niet voor de modelen die nu uitkomen.
De nieuwe generatie iPad en iPhone zullen nog wel uitkomen met een A5, als een soort 3GS model, en de iPad dus met een 4X iPhone selolutie Retina en dikkere behuizing door de grotere accu.
I don't care about the chip. Ik wil weten of ze het accu-ontwerp voor de nieuwe ipad ook gaan gebruiken voor de nieuwe iPhone.
Met een beetje meer gewicht heeft dat ding bijna 2x de capaciteit t.o.v. de oude ipads. Zelfs meer dan die van een MBA11".

Als dat toegepast kan worden op de iPhone, dan heb je plotseling een verdubbeling van gebruiksduur.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True