Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 33, views: 18.511 •
Submitter: Domokun

Chipontwerper Nvidia heeft aangekondigd dat het zijn Tegra 4-soc in het tweede kwartaal naar klanten zal verschepen. Tablets met de nieuwe soc zullen waarschijnlijk net voor de zomer hun opwachting maken. Nvidia wil de eigen gaminghandheld 'Project Shield' in juni gaan verkopen.

Ceo Jen-Hsun Huang maakte tijdens de presentatie van Nvidia's jaarcijfers bekend dat het bedrijf zijn nieuwe Tegra 4-chip in het tweede kwartaal naar klanten zal sturen. Dit blijkt uit een gesprek tussen nVidia en analisten, dat door Seeking Alpha is gepubliceerd. De soc werd in januari aangekondigd en moet zowel per kloktik als op grafisch gebied sneller zijn dan de in 2011 geïntroduceerde Tegra 3. De Tegra 4-soc bevat vier Cortex A15-kernen, die op 28nm zijn gebakken, en een vijfde zuinige kern die voor een laag idle-verbruik moet zorgen. Op het gebied van grafische prestaties moet een verzesvoudiging van het aantal rekeneenheden ten opzichte van de Tegra 3 voor flink betere prestaties zorgen.

Op het Mobile World Congress eind deze maand in Barcelona tonen fabrikanten mogelijk al hun eerste Tegra 4-tablets. Wanneer deze tablets uit zullen komen is nog niet helemaal zeker; als Nvidia de socs in het begin van het tweede kwartaal weet te verschepen is een release voor de zomer nog haalbaar. Mochten fabrikanten de chips pas echter aan het einde van het tweede kwartaal binnenkrijgen, dan is een release in de zomer waarschijnlijker.

Ook de op Android draaiende gaminghandheld Project Shield moet in het tweede kwartaal uitkomen, al benadrukt de fabrikant dat het tegen het einde van het kwartaal zal zijn, waarschijnlijk juni. De met een 5"-scherm uitgeruste handheld wordt dan het eerste apparaat waarin de Tegra 4-soc huist. Uniek voor de Project shield is dat gamers behalve Android-games ook pc-games naar de handheld kunnen streamen. Voorwaarde om te kunnen streamen is een pc met videokaart van Nvidia.

Tegra 4

Reacties (33)

Ik ben eigenlijk wel benieuwd in hoeverre dit te vergelijken is met een pc, kwa processor en videokaart..
Ik denk dat je nog lang niet de vergelijking kan trekken kwa processor/videokaart,
het gaat wel de goede kant op maar een vergelijking met pc nee helaas.
Ben wel benieuwd naar deze Tegra 4-SoC, en hoe hij tegen de A6X presteert, ik reken er gewoon op dat we dan die 3DMark hebben om dit te testen.

Wat ik jammer vind aan de Tegra ontwerpen is dat ze nooit meer GPU cores zijn gaan toevoegen, daar bied dit ontwerp alle ruimte toe, juist meer GPU power is waar Tablets SoC's om vragen. Kunnen ze geen Tegra 4-GTX verzie gaan maken met 4 ARM Cores en 32 GPU cores? Ik zie een Alienware Android Tablet wel zitten.
Zal toch inmiddels vast wel wat sneller/beter zijn dan mijn ouwe radeon 6800 pro. (-;
Als ik de geschiedenis met Tegra 2 en Tegra 3 een beetje terugkijk, dan betekent dit eerder produkten in de schappen rond September. Maar goed, misschien ben ik te pessimistisch.
De vooruitzichten zijn in ieder geval niet positief voor Tegra 4. Veel fabrikanten kiezen nu voor de S4 Pro:
Volgens Wall Street analist Michael McConnell gaat Nvidia een zwaar jaar tegemoet, vooral ook omdat Google de beoogde Tegra 4 processor heeft ingewisseld voor de competitieve Qualcomm Snapdragon S4 Pro processor. Volgens McConnell heeft Google voor de Snapdragon gekozen door de competitieve prijsstelling en de betere integratie met 3G/4G modem technologie. Hierdoor kan Google de kosten laag houden en zijn er minder stappen in het productieproces nodig.
Zo zou de nieuwe Nexus 7 ook geen Tegra 4 processor krijgen, terwijl de huidige wel een Tegra 3 heeft.
PC is een ruim begrip. In vergelijking met een Intel integrated GPU of een discrete GPU uit de laagste regionen kan ik me best voorstellen dat zo'n Tegra beter scoort.

Met de nieuwe 3D Mark, die straks ook beschikbaar is voor tablets/smartphones, kunnen we straks mooi vergelijken :)
De GPU? Ik schat zo'n 150k textured tris per frame misschien en niet erg geavanceerde shaders.
Zou liever meer geavanceerde shaders op mobile zien dan meer poly's, maar beiden zijn natuurlijk leuk.

[Reactie gewijzigd door Wolfos op 14 februari 2013 13:25]

owh dan vind je misschien deze artikel wel interessant :
http://www.brightsideofne...n-a-core-2-duo-t7200.aspx
Tegra 4 is een 80 mm2 chip op 28 nm. Aannemende dat de cpu en gpu architecturen een beetje efficienter zijn versus wat AMD doet (2 jaar nieuwer), zou deze chip qua performance klok-voor-klok in de orde grootte van 30-50% boven Brazos (75 mm2 chip op 40 nm) moeten liggen.

[Reactie gewijzigd door Dreamvoid op 14 februari 2013 13:34]

Mogelijke benchmark:
http://forum.xda-developers.com/showthread.php?t=2087129

Ze hebben juist 3x zo veel cores gebruikte tegenover de Tegra 3 dus ik snap je opmerking over die cores niet. De tegra 4 krijgt er maar liefst 72!
http://www.extremetech.co...ionable-power-consumption

[Reactie gewijzigd door watercoolertje op 14 februari 2013 13:30]

Alsof het allemaal van Google afhangt...

Wel zie ik veel verschuiving naar Qualcomm maar dat heeft weinig met Google te maken, dat zijn gewoon keuzes van de betrekkelijke fabrikanten. Maarja de high-end qualcomm's blazen de Tegra 3 dan ook compleet weg dus die keuze is niet verwonderlijk...
Mag nog wel meer, 32 per core is 128 lol!
Omdat teveel cores een te grote hoeveelheid aan stroom nodig hebben. Om over warmte productie nog niet eens te spreken. De accuduur zou dan verlaagt worden van 5 uur tot een half uur net zoals in een gaming laptop.

Ik ben het wel met je eens! Apple krijgt het voor elkaar om meer kracht uit de GPU te halen (natuurlijk zit daar ook een groot deel aan optimalisatie tussen.) waarom zouden andere ontwikkelaars dat dan ook niet kunnen?

Hoewel de Tegra series behoorlijk goed is dus ik denk dat de benchmarks wel positief zullen uitpakken!

[Reactie gewijzigd door Jhonny44 op 14 februari 2013 14:07]

Ik ben zo benieuwd naar de benchmarks van dit ding
Hebben ze nog iets aan het stroomverbruik kunnen doen? Meen ooit gelezen te hebben dat de tegra 4 een grootgebruiker zou zijn.
Apple krijgt het voor elkaar om meer kracht uit de GPU te halen (natuurlijk zit daar ook een groot deel aan optimalisatie tussen.)
Dat is vooral doordat ze gewoon een veel grotere chip maken, de A6X is bijna de helft groter dan Tegra 4, en dat verschil zit hem vrijwel alleen in extra GPU shaders. Gooi er meer shaders tegenaan, en de performance gaat een stuk omhoog. Het maakt de chip wel duurder natuurlijk, maar dat zie je ook terug in de prijsstelling van de iPad 4.
Hopen op een Surface 2 RT met tegra 4 dan! (en full hd scherm, usb 3.0, 4g/3g en gps/nfc chips).
De A6X is niet duurder, omdat de A6X bij twee fabrieken, TSMC en Samsung, wordt gemaakt, en er gewoon genoeg productie capaciteit is, dus voor een redelijke prijs te produceren. De A6X iPad is net zo duur als de Tegra 3 tablets met de zelfde resolutie.

De iPad 4 haalt 77 GFLOPS, daar kan geen ander ARM ontwerp aan tippen, en ik denk deze Tegra 4 ook niet. Het ziet er naar uit dat de Swift ontwerpen van Apple alleen maar sneller worden, als er nu weer een ontwerp uit komt dat 2x zo snel is, dan mag Nvidia wel heel snel met een Tegra 5 komen om dat nog een beetje bij te houden.
owh dan vind je misschien deze artikel wel interessant :
Ik zou niet weten waarom. Het artikel vermeld zelf al dat de benchmarks op zijn minst dubieus zijn. Bovendien is het een vergelijking met een core2duo, een processor die zo'n zeven jaar terug werd geintroduceerd. Zegt ook niet echt veel over de verhouding tot de prestaties van een hedendaagse desktop. De reacties op het artikel bevatten ook nog wat ongezouten kritiek op deze vergelijking.

Overigens is het wel handig om even aan te geven waar je naar linkt als je een link plaatst. Dan weet je als lezer tenminste of het veilig is en de moeite waard is om ergens op te klikken.

Op dit item kan niet meer gereageerd worden.