Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 56, views: 21.026 •

Nvidia heeft voor later dit jaar een nieuwe, snellere versie van zijn Tegra 3-chip gepland staan, die vooralsnog bekendstaat onder de naam Tegra 3+. Daarnaast moeten dit jaar ook de eerste apparaten met Tegra 3 en lte-ondersteuning uitkomen.

Nvidia Tegra 3Dat blijkt uit een roadmap van Nvidia die getoond werd tijdens een evenement van HTC, schrijft PCMag. Wat er precies anders wordt aan Tegra 3+ werd niet gezegd maar Nvidia noemt het een 'significante verbetering'. Het is daarom aannemelijk dat de chip, die nog geen officiële naam heeft, in ieder geval hogere kloksnelheden krijgt.

Tevens werd gemeld dat later dit jaar de eerste Tegra 3-smartphones met lte-ondersteuning uit moeten komen. Momenteel wijken veel fabrikanten die hun smartphone van lte-ondersteuning willen voorzien, uit naar Qualcomm's S4-soc, die een lte-modem ingebakken heeft. Tegra 3 heeft geen modem ingebouwd waardoor deze gecombineerd moet worden met een losse chip. Qualcomm zou weinig voelen voor een samenwerking op dit vlak omdat het een concurrent van Nvidia is.

Qualcomms alleenheerschappij op de markt voor lte-chips komt later dit jaar ten einde als ook andere fabrikanten met lte-hardware uitkomen. Tegen die tijd moeten er ook telefoons uitkomen die een Tegra 3-soc met die hardware combineren. Nvidia wil in 2013 ook soc's uit gaan brengen met een ingebouwd lte-modem. Deze zullen gebaseerd zijn op technologie van het bedrijf Icera, dat in mei 2011 door Nvidia overgenomen werd.

Reacties (56)

Was te verwachten, de Tegra3's die nu uit zijn zijn zonder gevaar op 1.6GHz te klokken (1.3Ghz origineel), en met iets meer gevaar op 1.7 en zelfs 1.8GHz.

Dus... De rek is er niet uit :)
Het grootste probleem is warmte, niet zozeer stabiliteit. Een voor de hand liggende verbetering om de (klok)snelheid te verhogen is om over te gaan 32 of 28nm.

De 2e verbetering, die al in het artikel vernoemd wordt, is de geïntegreerde modem.

En een eventuele derde (grote) verbetering zou een vernieuwde geheugencontroller kunnen zijn. De T3 is de enige high-end SoC die nog met single-channel geheugen werkt en zal waarschijnlijk een hoop baat hebben bij een dual-channel controller.

Verder als dat zou ik niets gaan zoeken, als er meer veranderd is het een beetje de vraag in hoeverre het nog een Tegra 3 te noemen is.

[Reactie gewijzigd door knirfie244 op 20 april 2012 15:02]

Een ander voordeel met het verkleinen van het procede is dat het energie verbruik ook niet direct hoeft toe te nemen wat bij een gewone overclock wel het geval is natuurlijk.

Met een beetje geluk komen ze ook in de Windows Phone 8 toestellen. Lijkt mij niet onwaarschijnlijk gezien de Windows 8 tablets die kunnen draaien op de tegra 3, makkelijk drivers sharen.
Ik weet niet hoe het met Cortex A9 (zoals in de Tegra 3) gesteld is maar de voorgander, de Cortex A8, verbruikte zo weinig energie dat bij overklokken warmte nooit het probleem was maar juist altijd stabiliteit (kloksync etc).

Dit soort embedded chips gebruiken simpelweg te weinig energie, ook bij overklokken, om gelimiteerd te worden door warmte problemen.
De voor de hand liggende verbetering is de transitie naar een A15-gebaseerde architectuur, zoals de Qualcomm Snapdragon S4.

Dat is dan direct 28nm (uitgaande van hetzelfde proces als bij Qualcomm).

Ik kan je vertellen dat Nvidia de hete adem van Qualcomm in hun nek voelt op het moment. De dualcore Snapdragon S4 (2x A15-based) doet dan ook niet echt onder voor de Tegra3 cpu (4x A9-based).

Ik krijg dus vooral het gevoel dat de "Tegra3+" meer bedoeld is om de kloof tussen Qualcomm en Nvidia te dichten, voor zover dat kan.
Dat is Tegra 4, "Wayne". Die komt begin 2013, krijgt een A15 core, en een nieuwe gpu architectuur (Fermi-based). Tegra 3+ stond al langer op de roadmaps. Tegra 3 is er al weer een tijdje, en de laatste steppings zijn wat zuiniger geworden, dus is er ook iets meer ruimte voor een lichte verhoging van de klok. nVidia moet dan nog een afweging maken of ze de klok boost aan de cpu of gpu kant doen, maar dat is het dan ook wel.

De Snapdragon S4 is overigens niet A15-based, die heeft Krait cores.

[Reactie gewijzigd door Dreamvoid op 20 april 2012 22:25]

Was te verwachten, de Tegra3's die nu uit zijn zijn zonder gevaar op 1.6GHz te klokken (1.3Ghz origineel), en met iets meer gevaar op 1.7 en zelfs 1.8GHz.

Dus... De rek is er niet uit :)
Vreemd want de standaard Processorsnelheid van de Nvidia Tegra 3 is 1,5GHz en niet 1,3GHz, kijk maar is naar de HTC One X en ook op NVIDIA's haar web site staat het zo,
Up to Single Core 1.5 GHz /Quad-Core 1.4 GHz
En de Nvidia Tegra 2 kan je ook zonder problemen op 1,5GHz draaien.


Dit is goed nieuws, dit is (word) zeker een goed GPU.

[Reactie gewijzigd door AmigaWolf op 21 april 2012 02:53]

ik ben benieuwd, hopelijk zit er dan ook meteen een up-to-date GPU in :)
Dit is inderdaad in mijn ogen toch wel het minpunt bij de momentele generatie van high-end smartphones die draaien op Android in vergelijk met de iPhone 4S die qua grafische kracht toch ver voorloopt.
de iPhone voorloopt? Misschien qua interface rendering, maar qua games niet echt hoor? Die zien er op Android meer dan prima uit (HTC One X).
Daarnaast is het logisch dat de UI van iOS sneller is, dat is statisch, die van Android niet!
???
Dat je bij Android widget's en dergelijke moet renderen en eventueel een bewegende achtergrond... Wat dus meer GPU power kost dan een scrollbaar plaatje wat het homescreen op de iPhone eigenlijk is ;)

Niet dat ik er vertraging door ondervindt trouwens, butter smooth hier ;)

[Reactie gewijzigd door watercoolertje op 20 april 2012 15:26]

Dat je bij Android widget's en dergelijke moet renderen en eventueel een bewegende achtergrond... Wat dus meer GPU power kost dan een scrollbaar plaatje wat het homescreen op de iPhone eigenlijk is
Dat komt omdat bij iOS elke view een eigen offscreen buffer heeft.
Android maakt gebruik van één offscreen buffer per window.

Onder iOS wordt de draw method van een view niet aangeroepen als je een view b.v. verplaatst in x,y, of z (draworder) richting, alleen de positie van de buffer t.o.v. van de superview wordt aangepast en de GPU zorgt voor de rest.

Android moet in zo'n geval minimaal de onDraw method van achtergrond en de verplaatste view aanroepen.

Het is niet dus zo dat de UI van iOS statisch is maar dat er dankzij buffering per view minder getekend hoeft te worden.

[Reactie gewijzigd door Carbon op 20 april 2012 15:52]

Je zegt het op een leuke manier, maar die aanpak betekent dus ook dat die verschillende views niks met elkaar te maken kunnen hebben. De parallax scrolling in de homescreens van Android, kan dus domweg niet op die manier. Watercoolertje heeft dus gewoon gelijk.

edit: Overigens bedoel ik hier niet ios mee te bashen. ios en android hebben beiden hun eigen pluspunten, maar de homescreens en widgets zijn absoluut pluspunten van android en dat kost inderdaad meer GPU power.

[Reactie gewijzigd door finraziel op 20 april 2012 17:03]

Je zegt het op een leuke manier, maar die aanpak betekent dus ook dat die verschillende views niks met elkaar te maken kunnen hebben.
Wat zouden views met elkaar te maken moeten hebben?
De parallax scrolling in de homescreens van Android, kan dus domweg niet op die manier.
Die buffer per view heeft alleen invloed op hoe vaak een view zichzelf moet tekenen, voor de rest zijn er kwa teken mogelijkheden geen verschillen met Android.

btw Paralax scrolling is juist heel eenvoudig onder iOS!

Voor elke laag maak je een view of een CALayer, en die views/layers leg je gewoon over elkaar.

De z-order van een views/layers bepaalt de afstand tot de camera, voor de rest is het een kwestie van view coördinaten updaten tijdens het scrollen

Voor lagen met content die veel geheugen gebruikt kun je gebruik maken van CATiledLayer(s)

[Reactie gewijzigd door Carbon op 20 april 2012 17:56]

Kortom, andoid kan meer en moet dat op een andere complexere manier bereiken.

Hierdoor moet er inderdaad iets meer renderkracht (CPU danwel GPU) gebruikt worden, maar dat is dus alleen te voorkomen door de GUI zo simpel mogelijk te houden.

Wederom ieder zijn keuze, ik zou niet meer zonder widgets kunnen in android.

Ik heb zelf trouwens een galaxy nexus, welke ook een relatief zwakke gpu bevat, maar meer dan genoeg om de interface, browser en wat spelletjes soepel te draaien.

OT: Ik zie de meerwaarde van een high-end gpu in een smartphone op dit moment ook niet heel erg, mede door de complexiteit van de spelletjes die er gebruik van zouden moeten maken laag is, wat wellicht weer terug te koppelen is naar de hardware die op de markt is...
Maar ook doordat de besturing van smartphonegames zo slecht is dat het ook niet echt een serieus gameplatform is. Dan heb ik het niet over hoeveel angrybirds wel niet opbrengt, maar over de diepgang die mogelijk is met de besturing en het daardoor toch voornamelijk voor de common trein/pauze/boredom momenten geschikt om even wordfreud of angrybirds te spelen en laten we eerlijk zijn, elke telefoon kan dat.
De massa vind dat denk ik wel genoeg, kijk naar de pc markt, bij veel mensen moet het spel (de sims bijv.) gewoon draaien en dan is het goed, die zien wellicht niet eens verschil met een betere gpu en ik denk dat dat voor smartphones ook geldt.

Kortom, op een smartphone/tablet kan je gamen, maar de beperkte besturing maakt het minder noodzakelijk om veel te investeren in GPU kracht, waar ik daar op de pc compleet anders over denk btw.
(Ik ben trouwens altijd voor meer power, maar dat moet wel nuttig zijn en niet alleen de prijs opdrijven of de accuduur beperken)

[Reactie gewijzigd door paazei op 20 april 2012 17:12]

Kortom, andoid kan meer en moet dat op een andere complexere manier bereiken
Android kan wat tekenen betreft gewoon hetzelfde als iOS en vice versa alleen is iOS view animatie/composeting minder CPU belastend.
Qua hardware loopt de Iphone gelijk of misschien zelfs achter,
maar het heeft het grote voordeel dat de hardware heel lange tijd gelijk blijft.
Als ontwikkelaar kun je vervolgens het maximale uit de hardware persen.

De versnippering van hardware bij android zorgt ervoor dat je rekening moet houden met de zwakste in de schakel omdat je anders het risico loopt dat de software niet goed werkt en dat is het ergste wat je als ontwikkelaar kan meemaken.

Bij spelconsoles heb je hetzelfde verhaal, de hardware lijkt langzaam verouderd, maar er word wel het maximale uitgeperst waardoor het product concurerend of zelfs beter is dan de variant op de pc.
Bij spelconsoles heb je hetzelfde verhaal, de hardware lijkt langzaam verouderd, maar er word wel het maximale uitgeperst waardoor het product concurerend of zelfs beter is dan de variant op de pc.
Dat gaat alleen al een tijdje niet meer op, na 2 a 3 jaar is de console altijd ingehaald door de PC...
De versnippering van hardware bij android zorgt ervoor dat je rekening moet houden met de zwakste in de schakel
Rekening houden moet zeker, maar dat wil niet zeggen dat een spel niet goede hardware WEL kan benutten, er zijn gewoon settings en dergelijke waardoor slome hardware het dus makkelijker krijgt (spel is dan natuurlijk niet zo mooi als op de snelle hardware). Dat zie je ook duidelijk tussen de 4 en 4s en uiteraard helemaal tussen de 3GS en 4 :)
"De versnippering van hardware bij android zorgt ervoor dat je rekening moet houden met de zwakste in de schakel omdat je anders het risico loopt dat de software niet goed werkt en dat is het ergste wat je als ontwikkelaar kan meemaken."

Dit heeft ook zijn omgekeerde kant waardoor iOS binnenkort niet meer het aantrekkelijkste ontwikkelplatform is, wellicht de makkelijkste.
De versnippering in android is mogelijk door de schaalbaarheid van het OS, wat ervoor zorgt dat verschillende resoluties, SoC's, sensors etc. mogelijk zijn.
Deze schaalbaarheid/versnippering is nodig om een gezond ecosysteem te houden voor het besturingssysteem zelf en de app-market.

Wat doet de schaalbaarheid voor de markt?
Deze zorgt ervoor dat we zelf kunnen kijken welke telefoon aan onze eigen wensen voldoet en we niet hoeven af te wachten op dat éne perfecte toestel dat voor iedereen geschikt zou moeten zijn.
Ja de iPhone is een mooi apparaat, maar het voldoet niet aan alle criteria van alle mensen en dus moet er keus zijn.

Dat is het voordeel van android, de reden waarom het zo goed gaat met android en de reden waarom android de grootste wordt voor de komende paar jaar.

De groep die iOS kan bedienen is klein, de markt die android beslaat en kan beslaan door zijn versnippering en schaalbaarheid is heel groot.
Van 2" tot 10" en alles daartussen, van normale accu's tot hele powerpacks (al dan niet via een optionele dikkere batterij, mocht je willen kiezen voor meer accu ten koste van dikte en gewicht, HTC ;) ) etc.

Waar het eigenlijk allemaal op neer komt is dat het lekker makkelijk is om voor iOS te programmeren, maar dat dat voornamelijk komt door de beperkingen die apple hun hele afzetmarkt oplegt en daardoor zichzelf en de programmeurs opsluiten.
Helemaal mee eens.

Echter wat de Transformer met zijn Prime en tegra3 laat zien is toch wel veel mooi's.
Dus ruwe benchmarks wijken echt veel af van de mogelijke gebruikerservaring.
De Unreal engine draaid veel beter op iOS dan Android, Real Racer 2 geeft gewoon een beter gevoel en hoger framerate en resolutie op iOS, dan op een Android. Veel meer kan ik niet naast elkaar goed testen, al die andere games zijn meestal Flash port achtige 2D dingetjes.

Ik denk niet dat dit in Specs is uit te drukken, maar ga maar eens met een goedkope Gallaxy tegen een 3GS, en een nieuwe iPad en een nieuwe iPad clone. Het verschil is indrukwekkend, echt!
Hangt er net vanaf welke Android je pakt natuurlijk, alle games die ik draai draaien op 60FPS net als de iPhone daar op gelokt is :)

Net real racing voor de grap is geprobeerd en dat draait gewoon supervloeiend op 800x1280 pixels :)
Op die kleine schrempjes van telefoons zie ik ook eigenlijk weinig verschil, dat verschil zie je wel tussen de 3GS en een 3 jaar oude Samsung. Maar zie het verschil met de nieuwe iPad versie van Real Racer 2, en dat op een Andoid iPad Clone.
Zou Asus misschien wachten met deze chip voor hun nieuwe Transformer Prime met hogere resolutie ? Ik ben erg benieuwd naar deze chip, nog maar net begint de Tegra 3 een beetje gemeengoed te worden in nieuwe apparatuur en er komt alweer een nieuwe versie aan. Nu maar hopen dat de prijs van de huidige versie hierdoor ook een stuk naar beneden gaat!
Dat lijkt me een goed idee, zodra de A15 quadcores verschijnen is de Tegra 3 kansloos namelijk. Je ziet dat de S4(?) dualcore het al moeilijk maakt voor Nvidia.
Dat is dan ook omdat de S4 al een A15 ontwerp van Qualcomm is.
Dat zegt ormagon toch eigenlijk ook? De S4 maakt het de Tegra 3 al moeilijk, kun je nagaan wat er gebeurt als die nog 2 cores extra zou hebben.

Zelf zit ik te dubben tussen een One S en een One X en de processor (nieuwste generatie en hoge kloksnelheid per core) vind ik juist een reden om voor de One S te gaan (hoewel velen dat met mij oneens zullen zijn ;) ).

[Reactie gewijzigd door Bartjebart op 20 april 2012 16:04]

Hier exact hetzelfde dilemma. De One S lijkt nog even op zich te laten wachten, dus wellicht is de drang om de X te halen toch te groot :P

Wat betreft de Tegra's, Zolang er niet met hogere resoluties wordt gewerkt is er qua user experience niet veel winst te behalen. Wellicht wat meer future-proofing (maar dan wel weer tegen een (meer)prijs...)
De S4 heeft geen A15 cores, Qualcomm maakt zijn eigen ARM7 architectuur genaamd Krait,
Zoals het er nu uitziet is de eerste A15 quadcore van nVidia zelf, de Tegra 4.

[Reactie gewijzigd door Dreamvoid op 20 april 2012 22:23]

Wij zullen in Europa wel nog een paar jaar blijven achterlopen met ons 3G netwerk, op Apple na, zullen er weinig lte iPad clones komen, Asus zal een modum G4 moeten toevoegen om dit hier als nieuwe Tranformer te verkopen?

Wachten op de Terga 4 is slimmer, Als Sony en Asus slim zijn brengen ze in novemer een iPad clone uit met een echte G4, daar hebben wij hier veel meer aan.

Niet iedereen zit de hele dag maar in de Coffeecompagny met Wifi en alles, G4 is echt wel belangrijk!
Betreffende de nieuwe Ipad maakt het toch eigenlijk niets uit. Want zelf al was hier reeds een 4g netwerk dan zou de nieuwe Ipad hier geen gebruik van kunnen maken geloof ik vanwege de gebruikte frequenties.
Dat is geloof ik iets waarover al veel geklaagd word, omdat de Apple marketing in elk land 4g noemt maar dat in de meeste landen deze 4g verbinding nooit gebruikt zal kunnen worden.
Als hier een G4 netwerk lag, zat dat echt wel in de nieuwe iPad, maar Europa loopt achter, dus worden er geen onderdelen gemaakt die Apple er in kan stoppen.

Als Europa met Siemens, Ericson en Philips rond de tafel waren gaan zitten toen de norm werd vastgesteld, dan hadden wij hier een G4 netwerk, en iPad met 4G. Maar Europa wil weer alles netjes uitbesteden, moeilijk doen, of zeuren, zoals we van Europa gewend zijn.
Sorry maar ik geloof niet dat je weet waar je het over hebt.
De reden dat de nieuwe Ipad nooit gebruik kan maken van een Europees 4g netwerk heeft niets te maken met standaarden.
Het heeft te maken met de gebruikte frequenties.

En het staat al redelijk lang vast welke hier in Europa gebruikt gaan worden (en ook in andere delen van de wereld, het is niet zo alsof het een geheim was welke ervoor gebruikt zouden worden.

In zover ik weet elk Europees land zal LTE gebruikt worden (precies de 4G tech die de Ipad 4g gebruikt) maar de enige frequenties die de Ipad 4g ondersteund zijn frequenties die slechts door een paar providers gebruikt worden. In de VS zal het apparaat ook niet op elk 4g netwerk werken zoals het ernaar uitziet zijn er slechts 2 providers in de VS welke een 4G netwerk gebruiken welke ondersteund word door de Ipad 4G.

Apple wilde gewoon de eerste zijn met een tablet welke 4G ondersteund en loopt nu tegen de problemen aan dat deze verbinding in het overgrote deel van de wereld niet gebruikt kan worden. Dit zal Apple van te voren geweten hebben want zoals gezegd het is geen geheim geweest.

Dat Apple dit doet daar heb ik zelf geen problemen mee. Waar ik wel een probleem mee heb is dat ze het in veel landen actief gebruiken in de marketing en zelf zeggen dat het apparaat over de hele wereld gebruik kan maken van zijn snelle 4G verbinding wat gewoon klink klare onzin is.

edit:
Ik heb zo een beetje het gevoel dat ze het misschien nog express gedaan hebben.
Zodra in Europa het eerste 4g netwerk actief is (volgend jaar ofzo) zal precies dezelfde ipad als nieuw model gelanceerd worden. Maar dan met ondersteuning voor de Europese frequenties. En de lemmings zullen weer in de rij gaan staan.

[Reactie gewijzigd door Deadsy op 20 april 2012 19:38]

als quallcom als enigste LTE modems heeft zullen ze toch wel moeten delen lijkt mij monopolie is immers verbode toch?
nvidia zou gewoon chips of licenties moeten kunnen nemen dus is het gebrek aan lte eerder een keuze van nvidia dan dat quallcom het gewoon niet wil.
als quallcom als enigste LTE modems heeft zullen ze toch wel moeten delen lijkt mij monopolie is immers verbode toch?
Een monopolie positie hebben is niet verboden, het misbruik maken van monopolie positie wel.
als qualcom niet wil leveren aan nvidia is dat toch misbruik maken van je positie als enigste leverancier op dit moment ?
Het gaat ook niet zozeer om leveren maar om een samenwerking waarbij NVidia LTE technologie in de chip wil zien te krijgen. En dat kunnen ook andere bedrijven doen, dus QualCom heeft daar geen monopolie op. Wel heeft QualCom hard genoeg gewerkt zodat ze een SOC met LTE hebben voordat de concurrentie deze heeft. Dat is gewoon marktwerking, NVidia had daar ook best al eerder in kunnen investeren maar heeft dat niet gedaan.

[Reactie gewijzigd door dcm360 op 20 april 2012 15:49]

tja maar voorlopig nog een jaar niet en dus heefd qualcom een jaar lang wel een monopoliepositie op LTE gebied.
Wie zal wel moeten? nVidia? Lijkt me niet, althans niet omdat quallcom anders een monopoliepositie heeft.

Het is niet zo dat andere bedrijven wettlijk gezien een product ook moeten maken omdat een ander bedrijf anders een monopoliepositie heeft.

Jij zou bijvoorbeeld prima een monopopliepostie op de markt voor auto's met vierkante wielen kunnen veroveren, niemand die andere bedrijven zal dwingen met je te concurreren.

nVidia zal misschien wel moeten omdat ze anders geen alternatief hebben voor chipsets met lte van hun concurrenten.
je las verkeerd :)

ik had het over qualcom die of chips of de licentie wel zal moeten delen.
De aankondiging wordt gedaan tijdens een HTC evenement. Mijn vraag is dan ook of HTC deze nieuwe soc gaat gebruiken voor de One X die er op dit moment is... Ik vind trouwens dat de "kleine" upgrade wel snel naar de officiele lancering komt, wat sommige mensen die de One X hebben toch wel achterstelt.

Zelf zie ik graag dat de Tegra3:
- minder warmte produceert (in de One X is dat echt goed te merken
- minder energie consumeert (telefoongesprekken die 10% van je batterij opslurpen??)
Deze twee punten kunnen hoogst waarschijnlijk opgelost worden met een kleiner procede.
- dual channel (wat Knirfie224 ook al duidelijk zegt).
Zelf vind ik de performance en pure rekenkracht van de Tegra 3 toch aardig krachtig voor de One X. Hij is snel genoeg, maar trekt ook snel genoeg de batterij leeg.

Als er een hogere kloksnelheid wordt geintroduceerd, zeg 1,6 of 1,7 Ghz, zie je dat dan meteen terug in Android? Ik had mijn Desire HD van 1 Ghz naar 1,5 overgeklokt, maar echt een groot verschil vond ik zelf op de officiele ROM niet terugkomen....
Ik dacht dat Tegra3 al een 28nm chip was dus daar valt voorlopig niet veel winst te halen. 28nm is al erg nieuw. Het is gewoon een grote chip en als je die zwaar belast gaat hij gewoon veel gebruiken.

Imo is Qualcomm's Krait veel interessanter. Dual core maar doet niet veel onder qua prestaties. Sterker nog hij kan T3 regelmatig overtreffen.
Je informatie klopt niet, de Tegra3 wordt gebakken op een 44nm chip, dat is een van de redenen waardoor de Krait van Qualcomm bijna net zo sterk is.
TI OMAP heeft ook chips die LTE ondersteunen zoals de Galaxy Nexus LTE en de Moterola RAZR, dus Qualcomm is niet de enige,
En Samsung blaast met zijn Exynos ook een aardig deuntje mee. En dan krijgen we ook nog Hondo van AMD.

[Reactie gewijzigd door Dreamvoid op 20 april 2012 22:20]

zitten er ook geen tegra chips in de tablets van samsung? :$
zitten er ook geen tegra chips in de tablets van samsung? :$
Ook geen? Juist wel ;) Maar niet in allemaal, maar dat zijn dan ook Tegra 3's in de nieuwste zal een Exynos (Samsung's eigen SoC) gaan zitten.
Hoop dat de + een betere GPU heeft dan. Meer CPU kracht is mijns inziens overbodig.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneiPhone

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013