Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties, 21.062 views •

Nvidia heeft voor later dit jaar een nieuwe, snellere versie van zijn Tegra 3-chip gepland staan, die vooralsnog bekendstaat onder de naam Tegra 3+. Daarnaast moeten dit jaar ook de eerste apparaten met Tegra 3 en lte-ondersteuning uitkomen.

Nvidia Tegra 3Dat blijkt uit een roadmap van Nvidia die getoond werd tijdens een evenement van HTC, schrijft PCMag. Wat er precies anders wordt aan Tegra 3+ werd niet gezegd maar Nvidia noemt het een 'significante verbetering'. Het is daarom aannemelijk dat de chip, die nog geen officiële naam heeft, in ieder geval hogere kloksnelheden krijgt.

Tevens werd gemeld dat later dit jaar de eerste Tegra 3-smartphones met lte-ondersteuning uit moeten komen. Momenteel wijken veel fabrikanten die hun smartphone van lte-ondersteuning willen voorzien, uit naar Qualcomm's S4-soc, die een lte-modem ingebakken heeft. Tegra 3 heeft geen modem ingebouwd waardoor deze gecombineerd moet worden met een losse chip. Qualcomm zou weinig voelen voor een samenwerking op dit vlak omdat het een concurrent van Nvidia is.

Qualcomms alleenheerschappij op de markt voor lte-chips komt later dit jaar ten einde als ook andere fabrikanten met lte-hardware uitkomen. Tegen die tijd moeten er ook telefoons uitkomen die een Tegra 3-soc met die hardware combineren. Nvidia wil in 2013 ook soc's uit gaan brengen met een ingebouwd lte-modem. Deze zullen gebaseerd zijn op technologie van het bedrijf Icera, dat in mei 2011 door Nvidia overgenomen werd.

Reacties (56)

Reactiefilter:-156055+146+25+30
Moderatie-faq Wijzig weergave
De aankondiging wordt gedaan tijdens een HTC evenement. Mijn vraag is dan ook of HTC deze nieuwe soc gaat gebruiken voor de One X die er op dit moment is... Ik vind trouwens dat de "kleine" upgrade wel snel naar de officiele lancering komt, wat sommige mensen die de One X hebben toch wel achterstelt.

Zelf zie ik graag dat de Tegra3:
- minder warmte produceert (in de One X is dat echt goed te merken
- minder energie consumeert (telefoongesprekken die 10% van je batterij opslurpen??)
Deze twee punten kunnen hoogst waarschijnlijk opgelost worden met een kleiner procede.
- dual channel (wat Knirfie224 ook al duidelijk zegt).
Zelf vind ik de performance en pure rekenkracht van de Tegra 3 toch aardig krachtig voor de One X. Hij is snel genoeg, maar trekt ook snel genoeg de batterij leeg.

Als er een hogere kloksnelheid wordt geintroduceerd, zeg 1,6 of 1,7 Ghz, zie je dat dan meteen terug in Android? Ik had mijn Desire HD van 1 Ghz naar 1,5 overgeklokt, maar echt een groot verschil vond ik zelf op de officiele ROM niet terugkomen....
Ik dacht dat Tegra3 al een 28nm chip was dus daar valt voorlopig niet veel winst te halen. 28nm is al erg nieuw. Het is gewoon een grote chip en als je die zwaar belast gaat hij gewoon veel gebruiken.

Imo is Qualcomm's Krait veel interessanter. Dual core maar doet niet veel onder qua prestaties. Sterker nog hij kan T3 regelmatig overtreffen.
Je informatie klopt niet, de Tegra3 wordt gebakken op een 44nm chip, dat is een van de redenen waardoor de Krait van Qualcomm bijna net zo sterk is.
Was te verwachten, de Tegra3's die nu uit zijn zijn zonder gevaar op 1.6GHz te klokken (1.3Ghz origineel), en met iets meer gevaar op 1.7 en zelfs 1.8GHz.

Dus... De rek is er niet uit :)
Het grootste probleem is warmte, niet zozeer stabiliteit. Een voor de hand liggende verbetering om de (klok)snelheid te verhogen is om over te gaan 32 of 28nm.

De 2e verbetering, die al in het artikel vernoemd wordt, is de geïntegreerde modem.

En een eventuele derde (grote) verbetering zou een vernieuwde geheugencontroller kunnen zijn. De T3 is de enige high-end SoC die nog met single-channel geheugen werkt en zal waarschijnlijk een hoop baat hebben bij een dual-channel controller.

Verder als dat zou ik niets gaan zoeken, als er meer veranderd is het een beetje de vraag in hoeverre het nog een Tegra 3 te noemen is.

[Reactie gewijzigd door knirfie244 op 20 april 2012 15:02]

De voor de hand liggende verbetering is de transitie naar een A15-gebaseerde architectuur, zoals de Qualcomm Snapdragon S4.

Dat is dan direct 28nm (uitgaande van hetzelfde proces als bij Qualcomm).

Ik kan je vertellen dat Nvidia de hete adem van Qualcomm in hun nek voelt op het moment. De dualcore Snapdragon S4 (2x A15-based) doet dan ook niet echt onder voor de Tegra3 cpu (4x A9-based).

Ik krijg dus vooral het gevoel dat de "Tegra3+" meer bedoeld is om de kloof tussen Qualcomm en Nvidia te dichten, voor zover dat kan.
Dat is Tegra 4, "Wayne". Die komt begin 2013, krijgt een A15 core, en een nieuwe gpu architectuur (Fermi-based). Tegra 3+ stond al langer op de roadmaps. Tegra 3 is er al weer een tijdje, en de laatste steppings zijn wat zuiniger geworden, dus is er ook iets meer ruimte voor een lichte verhoging van de klok. nVidia moet dan nog een afweging maken of ze de klok boost aan de cpu of gpu kant doen, maar dat is het dan ook wel.

De Snapdragon S4 is overigens niet A15-based, die heeft Krait cores.

[Reactie gewijzigd door Dreamvoid op 20 april 2012 22:25]

Een ander voordeel met het verkleinen van het procede is dat het energie verbruik ook niet direct hoeft toe te nemen wat bij een gewone overclock wel het geval is natuurlijk.

Met een beetje geluk komen ze ook in de Windows Phone 8 toestellen. Lijkt mij niet onwaarschijnlijk gezien de Windows 8 tablets die kunnen draaien op de tegra 3, makkelijk drivers sharen.
Ik weet niet hoe het met Cortex A9 (zoals in de Tegra 3) gesteld is maar de voorgander, de Cortex A8, verbruikte zo weinig energie dat bij overklokken warmte nooit het probleem was maar juist altijd stabiliteit (kloksync etc).

Dit soort embedded chips gebruiken simpelweg te weinig energie, ook bij overklokken, om gelimiteerd te worden door warmte problemen.
Was te verwachten, de Tegra3's die nu uit zijn zijn zonder gevaar op 1.6GHz te klokken (1.3Ghz origineel), en met iets meer gevaar op 1.7 en zelfs 1.8GHz.

Dus... De rek is er niet uit :)
Vreemd want de standaard Processorsnelheid van de Nvidia Tegra 3 is 1,5GHz en niet 1,3GHz, kijk maar is naar de HTC One X en ook op NVIDIA's haar web site staat het zo,
Up to Single Core 1.5 GHz /Quad-Core 1.4 GHz
En de Nvidia Tegra 2 kan je ook zonder problemen op 1,5GHz draaien.


Dit is goed nieuws, dit is (word) zeker een goed GPU.

[Reactie gewijzigd door AmigaWolf op 21 april 2012 02:53]

Dat lijkt me een goed idee, zodra de A15 quadcores verschijnen is de Tegra 3 kansloos namelijk. Je ziet dat de S4(?) dualcore het al moeilijk maakt voor Nvidia.
Dat is dan ook omdat de S4 al een A15 ontwerp van Qualcomm is.
Dat zegt ormagon toch eigenlijk ook? De S4 maakt het de Tegra 3 al moeilijk, kun je nagaan wat er gebeurt als die nog 2 cores extra zou hebben.

Zelf zit ik te dubben tussen een One S en een One X en de processor (nieuwste generatie en hoge kloksnelheid per core) vind ik juist een reden om voor de One S te gaan (hoewel velen dat met mij oneens zullen zijn ;) ).

[Reactie gewijzigd door Bartjebart op 20 april 2012 16:04]

Hier exact hetzelfde dilemma. De One S lijkt nog even op zich te laten wachten, dus wellicht is de drang om de X te halen toch te groot :P

Wat betreft de Tegra's, Zolang er niet met hogere resoluties wordt gewerkt is er qua user experience niet veel winst te behalen. Wellicht wat meer future-proofing (maar dan wel weer tegen een (meer)prijs...)
De S4 heeft geen A15 cores, Qualcomm maakt zijn eigen ARM7 architectuur genaamd Krait,
Zoals het er nu uitziet is de eerste A15 quadcore van nVidia zelf, de Tegra 4.

[Reactie gewijzigd door Dreamvoid op 20 april 2012 22:23]

als quallcom als enigste LTE modems heeft zullen ze toch wel moeten delen lijkt mij monopolie is immers verbode toch?
nvidia zou gewoon chips of licenties moeten kunnen nemen dus is het gebrek aan lte eerder een keuze van nvidia dan dat quallcom het gewoon niet wil.
Wie zal wel moeten? nVidia? Lijkt me niet, althans niet omdat quallcom anders een monopoliepositie heeft.

Het is niet zo dat andere bedrijven wettlijk gezien een product ook moeten maken omdat een ander bedrijf anders een monopoliepositie heeft.

Jij zou bijvoorbeeld prima een monopopliepostie op de markt voor auto's met vierkante wielen kunnen veroveren, niemand die andere bedrijven zal dwingen met je te concurreren.

nVidia zal misschien wel moeten omdat ze anders geen alternatief hebben voor chipsets met lte van hun concurrenten.
je las verkeerd :)

ik had het over qualcom die of chips of de licentie wel zal moeten delen.
als quallcom als enigste LTE modems heeft zullen ze toch wel moeten delen lijkt mij monopolie is immers verbode toch?
Een monopolie positie hebben is niet verboden, het misbruik maken van monopolie positie wel.
als qualcom niet wil leveren aan nvidia is dat toch misbruik maken van je positie als enigste leverancier op dit moment ?
Het gaat ook niet zozeer om leveren maar om een samenwerking waarbij NVidia LTE technologie in de chip wil zien te krijgen. En dat kunnen ook andere bedrijven doen, dus QualCom heeft daar geen monopolie op. Wel heeft QualCom hard genoeg gewerkt zodat ze een SOC met LTE hebben voordat de concurrentie deze heeft. Dat is gewoon marktwerking, NVidia had daar ook best al eerder in kunnen investeren maar heeft dat niet gedaan.

[Reactie gewijzigd door dcm360 op 20 april 2012 15:49]

tja maar voorlopig nog een jaar niet en dus heefd qualcom een jaar lang wel een monopoliepositie op LTE gebied.
ik ben benieuwd, hopelijk zit er dan ook meteen een up-to-date GPU in :)
Dit is inderdaad in mijn ogen toch wel het minpunt bij de momentele generatie van high-end smartphones die draaien op Android in vergelijk met de iPhone 4S die qua grafische kracht toch ver voorloopt.
Helemaal mee eens.

Echter wat de Transformer met zijn Prime en tegra3 laat zien is toch wel veel mooi's.
Dus ruwe benchmarks wijken echt veel af van de mogelijke gebruikerservaring.
De Unreal engine draaid veel beter op iOS dan Android, Real Racer 2 geeft gewoon een beter gevoel en hoger framerate en resolutie op iOS, dan op een Android. Veel meer kan ik niet naast elkaar goed testen, al die andere games zijn meestal Flash port achtige 2D dingetjes.

Ik denk niet dat dit in Specs is uit te drukken, maar ga maar eens met een goedkope Gallaxy tegen een 3GS, en een nieuwe iPad en een nieuwe iPad clone. Het verschil is indrukwekkend, echt!
Hangt er net vanaf welke Android je pakt natuurlijk, alle games die ik draai draaien op 60FPS net als de iPhone daar op gelokt is :)

Net real racing voor de grap is geprobeerd en dat draait gewoon supervloeiend op 800x1280 pixels :)
Op die kleine schrempjes van telefoons zie ik ook eigenlijk weinig verschil, dat verschil zie je wel tussen de 3GS en een 3 jaar oude Samsung. Maar zie het verschil met de nieuwe iPad versie van Real Racer 2, en dat op een Andoid iPad Clone.
de iPhone voorloopt? Misschien qua interface rendering, maar qua games niet echt hoor? Die zien er op Android meer dan prima uit (HTC One X).
Daarnaast is het logisch dat de UI van iOS sneller is, dat is statisch, die van Android niet!
Qua hardware loopt de Iphone gelijk of misschien zelfs achter,
maar het heeft het grote voordeel dat de hardware heel lange tijd gelijk blijft.
Als ontwikkelaar kun je vervolgens het maximale uit de hardware persen.

De versnippering van hardware bij android zorgt ervoor dat je rekening moet houden met de zwakste in de schakel omdat je anders het risico loopt dat de software niet goed werkt en dat is het ergste wat je als ontwikkelaar kan meemaken.

Bij spelconsoles heb je hetzelfde verhaal, de hardware lijkt langzaam verouderd, maar er word wel het maximale uitgeperst waardoor het product concurerend of zelfs beter is dan de variant op de pc.
Bij spelconsoles heb je hetzelfde verhaal, de hardware lijkt langzaam verouderd, maar er word wel het maximale uitgeperst waardoor het product concurerend of zelfs beter is dan de variant op de pc.
Dat gaat alleen al een tijdje niet meer op, na 2 a 3 jaar is de console altijd ingehaald door de PC...
De versnippering van hardware bij android zorgt ervoor dat je rekening moet houden met de zwakste in de schakel
Rekening houden moet zeker, maar dat wil niet zeggen dat een spel niet goede hardware WEL kan benutten, er zijn gewoon settings en dergelijke waardoor slome hardware het dus makkelijker krijgt (spel is dan natuurlijk niet zo mooi als op de snelle hardware). Dat zie je ook duidelijk tussen de 4 en 4s en uiteraard helemaal tussen de 3GS en 4 :)
"De versnippering van hardware bij android zorgt ervoor dat je rekening moet houden met de zwakste in de schakel omdat je anders het risico loopt dat de software niet goed werkt en dat is het ergste wat je als ontwikkelaar kan meemaken."

Dit heeft ook zijn omgekeerde kant waardoor iOS binnenkort niet meer het aantrekkelijkste ontwikkelplatform is, wellicht de makkelijkste.
De versnippering in android is mogelijk door de schaalbaarheid van het OS, wat ervoor zorgt dat verschillende resoluties, SoC's, sensors etc. mogelijk zijn.
Deze schaalbaarheid/versnippering is nodig om een gezond ecosysteem te houden voor het besturingssysteem zelf en de app-market.

Wat doet de schaalbaarheid voor de markt?
Deze zorgt ervoor dat we zelf kunnen kijken welke telefoon aan onze eigen wensen voldoet en we niet hoeven af te wachten op dat éne perfecte toestel dat voor iedereen geschikt zou moeten zijn.
Ja de iPhone is een mooi apparaat, maar het voldoet niet aan alle criteria van alle mensen en dus moet er keus zijn.

Dat is het voordeel van android, de reden waarom het zo goed gaat met android en de reden waarom android de grootste wordt voor de komende paar jaar.

De groep die iOS kan bedienen is klein, de markt die android beslaat en kan beslaan door zijn versnippering en schaalbaarheid is heel groot.
Van 2" tot 10" en alles daartussen, van normale accu's tot hele powerpacks (al dan niet via een optionele dikkere batterij, mocht je willen kiezen voor meer accu ten koste van dikte en gewicht, HTC ;) ) etc.

Waar het eigenlijk allemaal op neer komt is dat het lekker makkelijk is om voor iOS te programmeren, maar dat dat voornamelijk komt door de beperkingen die apple hun hele afzetmarkt oplegt en daardoor zichzelf en de programmeurs opsluiten.
???
Dat je bij Android widget's en dergelijke moet renderen en eventueel een bewegende achtergrond... Wat dus meer GPU power kost dan een scrollbaar plaatje wat het homescreen op de iPhone eigenlijk is ;)

Niet dat ik er vertraging door ondervindt trouwens, butter smooth hier ;)

[Reactie gewijzigd door watercoolertje op 20 april 2012 15:26]

Dat je bij Android widget's en dergelijke moet renderen en eventueel een bewegende achtergrond... Wat dus meer GPU power kost dan een scrollbaar plaatje wat het homescreen op de iPhone eigenlijk is
Dat komt omdat bij iOS elke view een eigen offscreen buffer heeft.
Android maakt gebruik van één offscreen buffer per window.

Onder iOS wordt de draw method van een view niet aangeroepen als je een view b.v. verplaatst in x,y, of z (draworder) richting, alleen de positie van de buffer t.o.v. van de superview wordt aangepast en de GPU zorgt voor de rest.

Android moet in zo'n geval minimaal de onDraw method van achtergrond en de verplaatste view aanroepen.

Het is niet dus zo dat de UI van iOS statisch is maar dat er dankzij buffering per view minder getekend hoeft te worden.

[Reactie gewijzigd door Carbon op 20 april 2012 15:52]

Je zegt het op een leuke manier, maar die aanpak betekent dus ook dat die verschillende views niks met elkaar te maken kunnen hebben. De parallax scrolling in de homescreens van Android, kan dus domweg niet op die manier. Watercoolertje heeft dus gewoon gelijk.

edit: Overigens bedoel ik hier niet ios mee te bashen. ios en android hebben beiden hun eigen pluspunten, maar de homescreens en widgets zijn absoluut pluspunten van android en dat kost inderdaad meer GPU power.

[Reactie gewijzigd door finraziel op 20 april 2012 17:03]

Je zegt het op een leuke manier, maar die aanpak betekent dus ook dat die verschillende views niks met elkaar te maken kunnen hebben.
Wat zouden views met elkaar te maken moeten hebben?
De parallax scrolling in de homescreens van Android, kan dus domweg niet op die manier.
Die buffer per view heeft alleen invloed op hoe vaak een view zichzelf moet tekenen, voor de rest zijn er kwa teken mogelijkheden geen verschillen met Android.

btw Paralax scrolling is juist heel eenvoudig onder iOS!

Voor elke laag maak je een view of een CALayer, en die views/layers leg je gewoon over elkaar.

De z-order van een views/layers bepaalt de afstand tot de camera, voor de rest is het een kwestie van view coördinaten updaten tijdens het scrollen

Voor lagen met content die veel geheugen gebruikt kun je gebruik maken van CATiledLayer(s)

[Reactie gewijzigd door Carbon op 20 april 2012 17:56]

Kortom, andoid kan meer en moet dat op een andere complexere manier bereiken.

Hierdoor moet er inderdaad iets meer renderkracht (CPU danwel GPU) gebruikt worden, maar dat is dus alleen te voorkomen door de GUI zo simpel mogelijk te houden.

Wederom ieder zijn keuze, ik zou niet meer zonder widgets kunnen in android.

Ik heb zelf trouwens een galaxy nexus, welke ook een relatief zwakke gpu bevat, maar meer dan genoeg om de interface, browser en wat spelletjes soepel te draaien.

OT: Ik zie de meerwaarde van een high-end gpu in een smartphone op dit moment ook niet heel erg, mede door de complexiteit van de spelletjes die er gebruik van zouden moeten maken laag is, wat wellicht weer terug te koppelen is naar de hardware die op de markt is...
Maar ook doordat de besturing van smartphonegames zo slecht is dat het ook niet echt een serieus gameplatform is. Dan heb ik het niet over hoeveel angrybirds wel niet opbrengt, maar over de diepgang die mogelijk is met de besturing en het daardoor toch voornamelijk voor de common trein/pauze/boredom momenten geschikt om even wordfreud of angrybirds te spelen en laten we eerlijk zijn, elke telefoon kan dat.
De massa vind dat denk ik wel genoeg, kijk naar de pc markt, bij veel mensen moet het spel (de sims bijv.) gewoon draaien en dan is het goed, die zien wellicht niet eens verschil met een betere gpu en ik denk dat dat voor smartphones ook geldt.

Kortom, op een smartphone/tablet kan je gamen, maar de beperkte besturing maakt het minder noodzakelijk om veel te investeren in GPU kracht, waar ik daar op de pc compleet anders over denk btw.
(Ik ben trouwens altijd voor meer power, maar dat moet wel nuttig zijn en niet alleen de prijs opdrijven of de accuduur beperken)

[Reactie gewijzigd door paazei op 20 april 2012 17:12]

Kortom, andoid kan meer en moet dat op een andere complexere manier bereiken
Android kan wat tekenen betreft gewoon hetzelfde als iOS en vice versa alleen is iOS view animatie/composeting minder CPU belastend.
TI OMAP heeft ook chips die LTE ondersteunen zoals de Galaxy Nexus LTE en de Moterola RAZR, dus Qualcomm is niet de enige,
En Samsung blaast met zijn Exynos ook een aardig deuntje mee. En dan krijgen we ook nog Hondo van AMD.

[Reactie gewijzigd door Dreamvoid op 20 april 2012 22:20]

zitten er ook geen tegra chips in de tablets van samsung? :$
zitten er ook geen tegra chips in de tablets van samsung? :$
Ook geen? Juist wel ;) Maar niet in allemaal, maar dat zijn dan ook Tegra 3's in de nieuwste zal een Exynos (Samsung's eigen SoC) gaan zitten.
Zou Asus misschien wachten met deze chip voor hun nieuwe Transformer Prime met hogere resolutie ? Ik ben erg benieuwd naar deze chip, nog maar net begint de Tegra 3 een beetje gemeengoed te worden in nieuwe apparatuur en er komt alweer een nieuwe versie aan. Nu maar hopen dat de prijs van de huidige versie hierdoor ook een stuk naar beneden gaat!
Hoop dat de + een betere GPU heeft dan. Meer CPU kracht is mijns inziens overbodig.
Als ik nVidia was zou ik wat aan de GPU doen en de cores eventueel wat hoger clocken.

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True