Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 64 reacties

Nvidia heeft op de CES-elektronicabeurs in Las Vegas de Tegra K1-soc voor mobiele apparaten aangekondigd. De opvolger van de Tegra 4 herbergt 192 gpu-kernen en komt zowel in een 32bit- als een 64bit-versie.

nVidia Tegra K1De opvolger van de Tegra 4 zou logischerwijs Tegra 5 moeten heten, maar volgens Nvidia is de stap zo groot, dat de chipmaker heeft gekozen voor een nieuwe naam. De grote stap is vooral dat de K1 de eerste mobiele chip van Nvidia is met Kepler-gpu, een architectuur die tot nu toe alleen als basis diende voor desktop-gpu's uit de GeForce 600-series en hoger.

De gpu heeft 192 cuda-cores en volgens Nvidia maakt dat de K1 grafisch krachtiger dan de gpu's van de PlayStation 3 en Xbox 360. Volgens Nvidia maakt de opvolger van de Tegra 4 krachtigere games op mobiele apparaten mogelijk, doordat de soc in staat is de nieuwe Unreal Engine 4 te draaien. Verder zou de Kepler-gpu in de Tegra K1 zuiniger zijn dan vergelijkbare soc's als de Qualcomm Snapdragon 800 en A7 van Apple. Overigens is de opvolger van de Snapdragon 800 al in november gepresenteerd; het is onduidelijk hoe de Tegra K1 zich tegenover die opvolger verhoudt.

De 32bit-versie van de Tegra K1 heeft vier Cortex A15-processorkernen op 2,3GHz en een vijfde, lager geklokte Cortex A15-core voor taken waarbij energie bespaard kan worden. De 64bit-versie is een dualcore met een door Nvidia ontworpen 64bit-core op basis van de ARMv8-architectuur met een maximale kloksnelheid van 2,5GHz. Deze draagt de naam Denver. De 32bit-versie moet binnen een half jaar in apparaten verschijnen, terwijl de 64bit-versie in de tweede helft van 2014 wordt verwacht, zo heeft Nvidia op de CES in Las Vegas bekendgemaakt. De Tegra K1 is bedoeld voor smartphones, tablets en andere embedded devices. Desondanks spreekt Nvidia niet over een baseband op de soc. De integratie van de baseband, die met de juiste antennes verbinding kan maken met 2g-, 3g- en 4g-netwerken over de hele wereld, is een van de zaken die ervoor heeft gezorgd dat Qualcomm en niet Nvidia de leidende processormaker voor mobiele apparaten is geworden.

Het lijkt erop dat Nvidia zijn Denver-cpu's eerder heeft ingebouwd dan oorspronkelijk de bedoeling was. In een door Nvidia zelf gepubliceerde roadmap stond Denver pas genoemd in 2015, bij de opvolger van de Tegra K1. Vermoedelijk is de stap genomen om een Denver-versie van de K1 te maken na de release van Apples A7-soc met twee 64bit-processorkernen afgelopen najaar.

Die-shot Tegra K1

Die-shot 32bit-versie Nvidia Tegra K1

Moderatie-faq Wijzig weergave

Reacties (64)

Het klinkt allemaal heel goed maar heb mijn twijfels. Nvidia toont de innovaties altijd erg vroeg en vaak valt het in de praktijk tegen op mobiel gebied. Ze beloven zaken die ze niet kunnen waarmaken.

In het ergste geval moeten we een jaar wachten op de Denver en in het meest positieve geval een dik half jaar. De wereld ziet er dan heel anders uit dus.

Nvidia moet haast maken want ik kan me geen recente smartphone voor de geest halen die met de tegra 4 chip uitgerust is.
Dat je twijfels krijgt over de performance van een nieuwe nVidia soc is niet heel raar. zoals gezegd zie je deze chips in erg weinig producten en dat heet volgens Charlie Demerjian meerdere redenen:
That is easy, the company never had any of what they boasted, and what little was actually promised to OEMs fell short, so short of the desired goals that there were repercussions.
[..]
Behind the scenes, a remarkably different story from the public bravado was playing out around Tegra, and it was not one with a happy ending
[..]
During Hot Chips 20 a few years ago, Nvidia put on a talk about Tegra and emphasized it’s HD video capabilities. 1080p was touted as the killer app, no other chip on the market could play video well at that resolution. They showed movies and games, but the displayed picture was not good quality. This was blamed on the projector, a problem that plagues public demos worldwide.
[..]
Checking the specs in the presentation, specifically page 5, it appeared that the device could not actually support the promised 1080p [..]
The dozens of design wins promised at CES? Poof. Why? Sources at the time said that the silicon delivered was roughly 25% over the promised power budget, an unforgivable ‘misstatement’ in a space that will throw an SoC out the door for 10 milliwatts too many. To make matters worse, that 25% was at a far lower clock than originally promised, the promised clocks would have unworkable power draws for a mobile device. The cherry on top was that the two promised killer features that no other device had, interrupt driven USB and one we were asked not to reveal, both simply did not work.[..]
The power numbers (van de Tegra 3, red.) in delivered silicon, while better than Tegra 2, fell short of the spec sheet in independent testing.
[..]
In light of this, Nvidia burned just about all their potential Tegra customers, some quite badly
(emphasis mine)
TLDR; nVidia belooft iets, fabrikanten gaan ermee aan de slag, performance valt tegen, energieverbuik valt tegen, beloofde features werken niet -> fabrikanten vertrouwen het niet meer -> geen tot weinig producten van nVidia op de markt

Interessant leesvoer: http://semiaccurate.com/2...raphs-tegras-woes-at-ces/

[Reactie gewijzigd door thefal op 6 januari 2014 11:57]

SemiAccurate is vermakelijk, maar neem het wel met wat korrels zout. Charlie's artikel doet het voorstellen alsof a) de OEMs totale idioten zijn die elke marketing slide geloven, en b) nVidia de enige is die de afgelopen jaren teleurstelde. Denk je dat de OEMs blij waren dat Qualcomm een half jaar lang bijna geen Snapdragon S4/S4 Pro's kon leveren? Of dat Samsung erg blij was dat de Exynos 5 een jaar te laat en veel te onzuinig was? Of dat TI en ST-Ericsson hun veelgehypte next-gen chips zomaar cancelden? Nee dan Intel, met eerst een aantal voortijdig gecancelde mobile chips en vervolgens een net-acceptabele Atom op basis van een 5 jaar oude architectuur. Of AMD, met de ene tablet SoC flop na de andere (Z-01, Z-60, A4-1250). Als OEMs niet meer met een chipfabrikant zouden willen werken omdat ze in het verleden teleurgesteld hebben, dan hou je niemand meer over. Om nVidia hier speciaal uit te lichten is vermakelijke journalistiek en zorgt voor veel flamewars en pagehits (=daar leeft SA van), maar heel objectief is het ook weer niet.

Het kale feit was Tegra 3 destijds simpelweg de beste chip op de markt was, en daarom verkocht hij goed. Tegra 2 en 4 waren dat niet, en ja dan lopen OEMs de andere kant op. Als de K1 goed is (en niet onbelangrijk, leverbaar), dan staan alle OEMs weer in de rij. Het chipwereldje is niet zo ingewikkeld. Prijs, performance, verbruik en leverbaarheid - wie het beste scoort op de mix van die vier punten, die verkoopt de meeste chips.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 14:17]

hopelijk inderdaad nietzelfde als met tegra 4, goed lijken in benchmarks maar eigenlijk niet te vinden in een toestel. begin 2014 (feb/maart) zullen de htc one+ en de S5 wel al in de winkels komen en deze zullen dus niet uitgerust zijn met deze tegra en tevens ook niet met een 64 bit Qualcomm processor want deze komen ook eind 2014 uit...
het probleem met de tegra 4 is stroom verbruik.

dit is goed te zien in de EVGA tegra note 7 review waar hij bij een benchmark als rapste met 4100Mah accu die toch nog als 1e weet leeg te trekken tegenover samsung galaxy note 3 en de HTC one word hij redelijk hard verslagen (in eco mode valt het iets mee maar bv de HTC one met zijn snapdragon en 2300 Mah accu houd het nog 20-25% langer uit..

aangezien de meeste telefoons op een 2000-2500 Mah Zitten zou dat gekoppelt met een tegra 4 betekenen dat de clocks heel laag moeten zijn anders kan je hem in ik gok een 3-4 uur helemaal leeg trekken als je hem hard laat werken of android gewoon een bug krijgt en zorgd dat de cpu niet slaapt.

[Reactie gewijzigd door anub1s17 op 6 januari 2014 10:19]

Dit lijkt een fundamenteel probleem bij Cortex A15 te zijn, ondanks alle trucs als BIG.little, companion cores etc. Er zijn nu vier fabrikanten met Cortex A15-based mobile soc's en bij allevier is de praktijk teleurstellend gebleken. TI's OMAP5 en STE's NovaThor A9600 zijn al voor de release gecancelled, Exynos 5410 is door Samsung stilletjes opzij geschoven voor Qualcomm chips, en Tegra 4 is geen totale flop, maar nou ook geen doorslaand succes.

Contrast dit met de 'winnaars' in de huidige mobile SoC generatie: Apple, Qualcomm en Intel hebben respectievelijk Cyclone, Krait en Silvermont als eigen cpu core, en budgetkampioen MediaTek kiest liever voor 4-8 kleine Cortex A7 cores dan voor single/dual Cortex A15, en maakt daarmee heel succesvolle zuinige chips.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 12:05]

Nvidia toont de innovaties altijd erg vroeg en vaak valt het in de praktijk tegen op mobiel gebied. Ze beloven zaken die ze niet kunnen waarmaken.
Met Tegra 3 waren ze wel als eerste in hun generatie, en die was dan ook een enorm succes.

Tegra 2 en Tegra 4 daarentegen...dat viel natuurlijk tegen. Het blijft lastig voor een kleine speler als nVidia om te winnen van giganten als Intel, Apple en Qualcomm.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 09:27]

Tegra 2 was wel degelijk een succes, in die tijd waren alle Android tablets die hier uitkwamen uitgerust met een Tegra 2, en ook aardig wat telefoons hadden die SoC (LG 2x eerste dual-core telefoon, en die had een Tegra 2)...
Sterker nog, deze K1 SoC zal waarschijnlijk pas eind 2014 beschikbaar zijn en apparaten die er gebruik van maken zullen we pas in 2015 zien.
Om een beetje kans op succes te hebben zullen ze toch echt wel de "holiday season" dit jaar moeten halen. Als beide (Cortex A15 en Denver) versies inderdaad op TSMC's 28nm proces gebakken worden, dan moet dat toch wel mogelijk zijn? Zo heel 'cutting edge' is dat nou ook weer niet.

Andere mogelijkheid is natuurlijk dat de 64-bit versie op TSMC's 20nm node komt, en dan ziet een introductie in 2014 er wel weer erg optimistisch uit.

Wat wel treffend is trouwens, is dat we weer terug lijken te gaan naar dual cores in telefoons. Apple (A7), Intel (Merrifield) en nu ook nVidia zetten hun nieuwe snelle 64-bit cpu cores in als dualcore (met hoge klok) in telefoonchips ipv een quad config zoals veel fabrikanten de afgelopen twee jaar met Cortex A9 en A15 met wisselend succes (en verbruikscijfers) gedaan hebben.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 14:14]

Omdat quad-core op een telefoon zwaar overkill is.
Wat mij verbaast, is de absolute afwezigheid van kloksnelheid van de GPU. 192 cudacores zijn prachtig, maar als ze op 100MHz draaien, is het natuurlijk redelijk waardeloos.

Is hier uit op te maken, dat nVidia nog niet met zekeheid durft te zeggen hoe hoog de GPU geklokt kan worden, met op het oog verbruik?
Op basis van het plaatje bij hardware.nl is er wel een inschatting te maken: 950MHz.
950MHz * 192 * 2 (FMA) = 365 GFLOPS, gelijk aan de "GPU horsepower" in deze slide. De "GPU horsepower" van de XBOX 360 lijkt op dezelfde manier berekend.
Een 950 MHz kloksnelheid lijkt me wel erg optimistisch als de huidige mobile gpu's met moeite 550 MHz halen. Wellicht in devices met netvoeding (mini-console, set top boxes, smart TV's etc), maar voor telefoons/tablets is dat bijzonder hoog.

Maar zelfs als de K1 gpu in de praktijk maar 600 MHz haalt zou dat al een evenaring zijn van de PS3 (230 GFLOPS lees ik overal, geen 192 zoals nVidia zegt??). Da's natuurlijk goed nieuws: game developers kunnen hun PS3 titels dan vrijwel zonder (grafische) aanpassingen porten.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 12:35]

De Denver CPU is in ieder geval een 2,5Ghz dual-core volgens venturebeat, hoe dat met de GPU zit weet ik niet, maar ik denk dat het op zich al iets zegt als Nvidia zelf zegt dat de K1 sneller is dan een XBOX 360 of PS3.

[Reactie gewijzigd door Nilsepils op 6 januari 2014 08:32]

Op sommige punten op papier denk ik. maar kan me niet voorstellen dat het beter als een ps3 is?
Waarom niet? PS3 hardware is nu wat, 7 jaar oud? Sinds die tijd is er behoorlijk veel voortgang geboekt op computerland, en de mobiele SoCs hebben misschien nog wel de grootste stappen gemaakt.

Dat betekend overigens niet dat games op mobieltjes er de komende tijd beter uit gaan zien dan de PS3. Deze SoC zal waarschijnlijk over een tijdje gebruikt gaan worden in high-end tablets en smartphones, die tegen die tijd standaard over 1440p schermen beschikken. Daar heb je heel veel kracht voor nodig. 1440p is een 4x zo hoge resolutie (of beter gezegd: 4x zoveel pixels om aan te sturen) als 95% van de PS3 spellen.
Op papier komen de huidige mobile chips al dicht bij een PS3/Xbox360: dat zijn gpu's van rond de 230 GFLOPS, en een Apple A7 zit al op 150 en een Snapdragon 800 op 130. Het is dus zeker denkbaar dat deze K1 nog dichter bij de PS3 performance zit.

Groot verschil is wel dat bij mobiel gebruik deze waarden alleen voor korte tijd haalbaar zijn door koeling en accu beperkingen, en bij consoles die 230 GFLOPS natuurlijk altijd beschikbaar zijn.
Klopt helemaal, binnen een paar jaar gaan we die consoles voorbij.

Qua kracht komen ze inderdaad erg dicht in de buurt, maar qua prestaties zal het nog even duren. Je zit inderdaad met warmte en accu beperkingen, en de veel hogere resolutie. Binnenkort is 2560 x 1440p de standaard, wat dus 4x zoveel pixels zijn dan 1280p, de resolutie waar 95% van de PS3 games op draaide.
Het is natuurlijk ook eigenlijk absurd als game developers dan gewoon blindelings op native resolutie gaan werken als het eigenlijk veel mooier zou zijn om op een kwart resolutie te werken met wat AA smoothing er overheen of zo. Ik ben net overgeschakeld van een 720p schermpje op mijn One X naar een full HD scherm op de Z1, maar eerlijk gezegd, ik zie het echt maar nauwelijks hoor, zelfs als ik ze naast mekaar houdt. En dan ben ik hoog contrast tekst aan het vergelijken, laat staan als je het over een bewegend 3D beeld hebt.
Neuh, het lijkt me dat games dan gewoon lekker op een lagere resolutie gerenderd kunnen worden en dan kun je zeker wel de kwaliteit van de consoles evenaren. Het probleem lijkt me eerder dat mobile games zo goedkoop zijn dat ze er niet net zulke grote budgetten tegenaan kunnen gooien als bij de consoles. Bij ports zou dat echter weer niet zo'n groot probleem hoeven te zijn. Daarnaast zou het probleem kunnen zijn dat je met verschillende hardware rekening moet houden en dus altijd extra overhead houdt, zelfs als je native code toe gaat voegen.

[Reactie gewijzigd door Finraziel op 6 januari 2014 10:47]

Nee, 95% van de PS3 games draaide ongeveer op 700p, wat inderdaad 4x minder is dan 1440p.
Excuses, dat bedoelde ik natuurlijk.
Hoe zit het met bijv. Android dan met extra lagen tussen het systeem en de gpu? Als de overhead net zo groot is als bij de desktop dan kunnen ze qua gflops wel even snel zijn maar dan zie je daar niks van terug door de overhead.
Als dat het geval is dan zijn de Xbox 360 en de PS3, misschien net zo krachtig maar gebruiken ze het veel beter.
Hoezo extra lagen? Je praat gewoon OpenGL met de drivers direct naar de GPU toe, dat is bij Android niet significant anders als met andere OSsen.
Lagen is niet het correcte woord, ik bedoel dus overhead zoals ik later al zeg. Een pc heeft tenopzichte van een console veel overhead, een console kan dus ook met mindere hardware mooiere beelden leveren.
Is dit ook het geval voor smartphones met Android/IOS?

Ik weet dat je inderdaad OpenGL hebt, dit is dacht ik wel een versimpelde versie (dat was het eerder wel namelijk).
kloksnelheid wordt ook vaak omlaag gezet om batterij duur te verlengen. Dus ook al heeft ie op papier een hoge (max) klok dan zal hij in de praktijk toch lager staan en dus minder presteren.
Is hier uit op te maken, dat nVidia nog niet met zekeheid durft te zeggen hoe hoog de GPU geklokt kan worden, met op het oog verbruik?
Dat doet iedereen die een paar maanden voor levering een chip presenteert. Het zal van het productiesilicon afhangen hoe hoog je de chip precies zal kunnen klokken, en dat hangt in het geval van nVidia vooral af van TSMC.

Plus, inderdaad, dat de maximum klok niet veel zegt. Als er aggressief gethrottled wordt, dan heb je maar voor korte duur iets aan die hoge klok.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 09:19]

de plaatjes bij de buren laten een beetje zien waar het op gebaseerd, maar die heeft nvidia natuurlijk wel zelf aangeleverd dus enige manipulatie zal er wel in zitten. http://nl.hardware.info/n...ocessor-met-192-gpu-cores inmiddels is er ook een demo-video online wat deze gpu met de unreal 4.0 engine kan https://www.youtube.com/w...er_embedded&v=GkJ5PupShfk

[Reactie gewijzigd door dezejongeman op 6 januari 2014 09:04]

Hoe zit het met de prijs? Het zou natuurlijk jammer zijn als deze chip erg duur wordt! Juist omdat de roadmap dus een jaar is opgeschort is dat niet ondenkbeeldig? Aan de andere kant, wellicht dat Apple deze wel gaat gebruiken in de nieuwe iPhone/iPad/iTV, er zweeft immer al een tijdje een gerucht rond dat Apple over gaat stappen op intel chips (en ook op gaming) voor zijn mobiele devices. Dat deze soc (de oude) xbox en playstation aankan biedt natuurlijk heel veel nieuwe mogelijkheden.
Het zou natuurlijk jammer zijn als deze chip erg duur wordt!
Dat heeft nVidia niet helemaal zelf in de hand. Als Intel en Qualcomm opschieten met Merrifield resp Snapdragon 805, dan zal nVidia geen hoge prijzen kunnen rekenen. Als die twee vertraging oplopen, dan kan nVidia de eerste maanden leuke prijzen blijven vragen (zoals in 2012 met Tegra 3).

Maar als je er grofweg vanuit gaat dat Qualcomm en Intel voor hun huidige topchips circa $50 kunnen vragen, dan zou de prijs van de K1 ook in die richting moeten liggen. Gezien de vermoedelijke grootte van zo'n chip (Ī100 mm2 op 28nm) zal de prijs niet veel lager dan $20 kunnen liggen anders verdient nVidia er niets aan.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 12:28]

Ik weet niet op welke geruchten jij doelt, maar de geruchten die ik voornamelijk lees is dat Apple juist zo veel mogelijk van Intel af wil. Het zal nog wel een paar jaar duren, maar ik verwacht dat ook de MacBooks binnen afzienbare tijd Apple's eigen processors zullen krijgen. Het zou totaal onlogisch zijn voor Apple om bij Nvidea SOC's af te gaan nemen wanneer ze zelf ook hele goede SOC's maken.
Dit is in feite wat onder de codenaam "Logan" op de roadmap stond, Denver cpu arch met een Kepler gpu.
en dat allemaal op maar 5 watt.
Past dus niet in een telefoon, en bijna niet in een tablet. Gebruikt te veel stroom.
5 Watt max is voor een tablet chip heel normaal, dat haalt een Apple A6X, Tegra 4, Snapdragon 800, Bay Trail etc allemaal ook. De Exynos 5250 uit de Nexus 10 doet zelfs circa 8W max. Het maximum verbruik is voor het stroomverbruik niet zo heel relevant, dat is het gemiddelde verbruik voor bepaalde gebruiksscenarios. Het maximum is voornamelijk belangrijk voor de koelcapaciteit.
Daar had de tegra 3 in de one X behoorlijk moeite mee... alleen al de accu kon wel 65 graden worden bij het spelen van zware games tijdens het opladen. het scherm van mijn one X was dan nog onmogelijk vast te houden zo heet. Accu was dan ook binnen een half uur leeg trouwens. Dit is in mijn ogen ook de echte reden waarom de tegra serie nooit ver gekomen is. Zwaar inefficiŽnt op het gebruik van stroom waarbij deze ook gigantisch heet werd.

Man wat was die one X een drama toestel trouwens...

Maar ja... nvidia en zuinige chips bouwen 8)7 als je kijkt naar de huidige GPU's en wat deze doen met temp en verbruik.

Nvidia is in mijn ogen meer van de extreme snelheden kosten wat het kost. en weinig kijkend naar het stroomverbruik en hitte productie. Al komen ze hier aardig op terug sinds de 7xx serie. maar toch mijn GPU 760 wordt ruim 80 graden bij full load waarbij de fan een oorverdovend geluid maakt.

[Reactie gewijzigd door sygys op 6 januari 2014 10:19]

Je hebt gelijk wat gamen op de One X betreft, die heb ik ook en dat toestel heeft er voor gezorgd dat ik bijna niet meer gamede op mijn telefoon. Momenteel mag ik even met een Sony Z1 spelen en die heeft mijn interesse in mobile gaming weer opgewekt omdat ik deze totaal niet warm voel worden en het ook bij 3d games een hele tijd uit houdt op de batterij.

Ik weet echter niet of ik Nvidia meteen de schuld zou geven. In mijn nexus 7 zit namelijk ook een tegra 3 en die heeft die problemen met hitte en zo absurd snel leeg zuipen van de batterij niet. Weliswaar is die wat lager geklokt, maar de games lopen er net zo goed op dus als dat het verschil is dan vind ik het eigenlijk gewoon een fout van HTC om een te hoog geklokte chip in hun toestel te stoppen.

Wat betreft desktop GPU's sla je de plank echt finaal mis. Nvidia is al een paar generaties koning wat betreft efficiŽntie, AMD komt juist met de heethoofden. Dat jouw videokaart heet wordt en veel herrie produceert ligt wellicht meer aan welk merk dat je gekozen hebt, je merkt nu dat het zeker kan lonen om daar even onderzoek naar te doen en bv een twinfrozr model van MSI te kopen of zo.
#define efficientie... NVidia had een zuiplap van een kaart met de 400-serie, omdat die ook GPGPU-delen aan boord had. Voor gamers waren die zinloos, maar stonden wel aan. Voor de 500-serie is dat eruit geknipt, de dual-precision-capaciteit is gedecimeerd, en bij de 600 en 700 idem. Destijds was AMD zuinig (de 4k-serie verbruikte best weinig, tenzij gepushed), maar bij de 7k-serie heeft AMD juist die GPGPU-capaciteit erin gestopt (met de hele GCN-architectuur, dus nu lusten die kaarten wel een wattje. Voor gamers nog steeds niet echt relevant, maar voor andere doeleinden absoluut wel. Daarin zijn die kaarten dus wel efficient ;)

Qua koeling ben ik het eens, een goeie koeling is goud waard, ook voor een telefoon. Lager verbruik scheelt overigens op alles, maar dan win je geen benchmarks meer :(
Bij de gtx460/560 zijn de gpgpu delen er uit gesloopt, bij de gtx580 niet, de 5 serie kaarten zijn op diverse punten geoptimaliseerd om de chip efficiŽnter te maken, tevens lagen de yields een stuk hoger, waardoor de 580 ook het volle aantal shaders ter beschikking heeft uit de fermi chip : 512 stuks. bij de 560 vs 460 was het niet anders, optimalisatie van een bestaande chip gf100 > gf110 en gf104 > gf114.
Mee eens. ik heb naar een nieuwe videokaart zitten kijken en schrok van het verschil. een 290x van AMD heeft een voeding van 750 watt nodig en de gelijkwaardige 780 van nvidia een 600 watt. Dit had ik totaal niet verwacht. al weet ik wel dat AMD al vanaf zolang ik het merk ken veel hitte produceert en vroeger snel onstabiel werd.

Maar die tegra chips althans de tegra die in de one x zit slaat nergens op. wellicht door de schuld van HTC maar die is zo inefficiŽnt als wat. Heb ook een xoom en die tegra cpu is inderdaad weer belachelijk goed. accu gaat makkelijk 8 a 10 uur mee bij intensief gebruik. nu ligt ie meestal in standby omdat ik een note 2 heb. maar dan haalt hij meestal de 12 dagen online voordat de accu leeg is.

Maar ik heb wel gemerkt dat de one X in standby echt bijzonder zuinig is. en zelfs nog langer mee gaat dan mijn note 2 in standby. maar zodra de cpu omhoog vliegt en het scherm aan staat. dan haal je echt niet de 4 uur gebruikers tijd met dat toestel! en met mijn note 2 haal ik makkelijk 6 uur gebruikstijd. met video kijken zelfs 10 uur.

Ben benieuwd wat nvidia gaat doen. het zag er toen veel belovend uit maar denk dat mede HTC een flinke deuk in de tegra serie heeft gemaakt met de one X
80 graden is niets. Mijn crossfire 7950's gaan soms richting de 100 onder full load. Vooral de onderste, omdat die met zijn fans heel dicht op de kaart erboven zit.

Ontopic: Ik ben erg benieuwd of deze chips inderdaad richting de kracht van de consoles gaan of dat dit gewoon mooie marketing praatjes zijn. Ik had zelf ooit een tablet van Acer waar een Tegra 2 in zat, maar dit was toen d'r tijd niet echt geweldig.
100 graden onder full load is echt niet goed! kaarten horen niet heter te worden dan 85 graden. de max temp ligt ergens rond de 170 graden volgensmij maar dat wil niet zeggen dat het geen kwaad kan. hoe warmer je kaarten worden, hoe korter de levensduur ervan is.

Die 2 760 kaarten in sli zitten ook vlak onder elkaar maar heb dit probleem helemaal niet. De MSI kaarten schalen automatisch de fanspeed naar boven bij op het moment dat de temp de 80 graden bereikt en deze blijft ook altijd daarop staan. Maar wellicht wordt AMD veel warmer. ze verbruiken ook niet voor niets gemiddeld 100 watt meer dan vergelijkbare nvidia kaarten.
Tegra 3 was dan ook een tablet chip. Hij werd door een paar OEMs in telefoons ingebouwd (drie modellen toch?) met een losse baseband chip erbij om de specs race te winnen en omdat Qualcomm toendertijd productieproblemen had (oftewel, de OEMs hadden weinig keus), maar het was duidelijk dat dit niet ideaal is. Zo zijn er ook een paar (Aziatische) telefoons met Tegra 4 gemaakt. Geweldige performance? Ja. Zinnig qua accuduur/hitte? Nee.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 11:28]

Dan vraag ik mij af wat ik anders doe, mijn One X is prima vast te houden bij games als GTA:SA, en de accu houdt het zelfs zonder aan de lader te hangen een stuk langer uit dan een half uur. Kan mij niet voorstellen dat de energie modus (op scherm en CPU) zo'n verschil maakt.

Mijn gtx760 is uitgerust met een waterblock, dus niet echt te vergelijken, maar 50 graden heeft hij nog niet aangeraakt onder full load, met de stock koeler was hij trouwens ook prima te verdragen, temperatuur liep wel aardig op bij gebruim van msi combuster, maar oorverdovend is toch een ander uiterste dan wat ik gehoord heb, leek meer op een stofzuiger op de zuinige stand.

Koop dan gewoon iets anders dan wat onzin te gaan verkopen..
Op de tablet markt heeft Nvidia nog wel successen geboekt met de Tegra 2 en de Tegra 3.
Wooh dat is wel een enorme stap voorwaarts. Maar eerlijk is eeerlijk ik heb nkg niet iemand kunnen zien met een tegra 4. Zowat iedereen bijna loopt met een Qualcomm processor in zijn mobiel rond. Maar los van mobieltjes zou dit ultieme geschickt zijn voor tablets die kunenn nou weer een hogere resolutie halen met een mooie FPS ben benieuwd naar de benchmark en wat de CES nog meer technelogie met zich mee gaat brengen.
Klopt, volgens mij is het probleem dat de Nvidia Tegra 4 chip op het moment van uitkomen zwakker was dan de Qualcomm 800. Volgens mij moesten er ook drivers worden geschreven door de fabrikanten, maar dat weet ik niet zeker.

Vooralsnog is de Surface 2 tablet de enige tablet die ik kan noemen met een Tegra 4. Het is een heel krachtige chip die op de Surface 2 helemaal geoptimaliseerd is voor Windows RT. Dit heeft Microsoft ook gedaan met het jongere broertje Tegra 3 die in de Surface 1 zit, en zo goed is geoptimaliseerd dat ik als bezitter van de Surface 1 nog steeds onder de indruk ben van de kracht van het apparaat. Ik ben daarom wel fan van de Tegra lijn.

Ik weet niet of 64bit een game-changer gaat worden, dat is het helaas op de desktop niet echt geweest. Buiten dat je heel veer ram kan installeren, hebben maar weinig programma's echt baat bij 64bit. Maar mijn god, als deze chip doet wat ze zeggen dat hij kan, dan speel ik op de volgende generatie Surface straks hopelijk poorts van bijvoorbeeld Diablo en andere grafisch (relatief) zware games :O
Helaas stellen mobiele games nog niks voor en heb je hier dus niet zoveel aan.
Het begint echter langzamerhand aan te komen ze zijn nu op sanandreas niveau, maar er zit in deze tegra 5 genoeg kracht om bijvoorbeeld een call of duty te spelen. ik denk dat dit ook gaat gebeuren met windows 9 de xbox app op je windows die je nu meegeleverd krijgt, deze app gaat groot baat bij maken bij het online spelen van spellen die je op je xbox 360 komt. Uiteindelijk zou je het op beide platformen moeten kunnen spelen. Technelogie ontwikkelt sneller dan je denkt, en steeds meer programmeurs zijn op opkomst. ik denk dat je volgend jaar al gouw egt mooie titels kunt verwachten op je mobiele apparaat;)
Maar helaas zal een CoD echt niet gaan, daar is deze GPU nog te zwak voor, vergeet niet dat met de K1 full HD en meer moet worden aangestuurd,
Ik zag deze video van The Verge: http://www.theverge.com/2...-prototype-hands-on-video

Ziet er goed uit. Wel last van een lage framerate, maar het ziet er dan ook wel erg goed uit.
Wat ze wel leuk gedaan hebben is dat ze als marketingactie een echte graancirkel hebben gemaakt van de soc en nu laten zien.

Op engadget staat de video en het verhaal. Ik vind het goed verzonnen, creatief zelfs.

http://www.engadget.com/2014/01/06/nvidia-crop-circle/
Ik heb mijn twijfels bij deze chip. De vorige keer zeiden ze dat ook maar goed dat elk bedrijf eigenlijk wel.
Nvidia slaat de plank helemaal mis met hun dual-core A15. ARM heeft aangegeven dat de beste kloksnelheid voor een zuinige als efficient powerbeheer rond de 1,3-1,4 hoort te liggen (http://www.phonearena.com...-details-revealed_id47669), niet 2,5 wat eigenlijk het maximale is wat A15 aankan (http://www.arm.com/produc...s/cortex-a/cortex-a15.php) en dus gewoonweg een verdubbeling is. Het zal de performance ten goede komen - de chip zal supersnel zijn, maar zo onzuinig als maar kan. Daarnaast zal die chip ook weer veels te warm worden op basis van de specs.
Nvidia blaast weer hoog van de toren met hun chip: de kracht van de PS3 en Xbox 360 in een mobiele chip. Dat zou niet alleen indrukwekkend zijn (ook al geloof ik ze niet) dat zou ook zorgen voor heel wat power die van voeding voorzien moet worden. Dat is dus de tweede keer dat er veel stroom wordt gevreten. Ik denk dan ook niet dat - wanneer ze gelijk hebben - het stroomverbruik op 5 watt is, eerder 8 watt of hoger en 5 watt gemiddeld.

[Reactie gewijzigd door South_Styler op 6 januari 2014 14:28]

Nvidia slaat de plank helemaal mis met hun dual-core A15.
Uh, de K1 heeft vier Cortex A15 cores, of twee 64-bit Denver cores.

Een Cortex A15 design op 1.3-1.4 GHz is misschien wel wat ARM aanraadt, maar gezien de concurrentie (S800 met 4 Krait cores die tot 2.3 GHz lopen, Bay Trail met 4 Silvermont cores tot 2.4 GHz) is dat onverkoopbaar. Als je geen eigen design hebt, dan moet je het doen met wat ARM op de plank heeft, en dat is Cortex A15. Laat 'm pieken op 2.5 GHz, maar throttle hem snel weer terug naar zijn 'sweet spot' van 1.3 GHz.

Overigens zijn die max waarden van de Qualcomm en Intel ook niet geweldig voor de accuduur en in de praktijk wordt er in telefoons ook stevig gethrottled om de chips zoveel mogelijk onder de Ī1.4 GHz te houden. De max kloksnelheid begint bij mobile chips eigenlijk niet zo heel interessant meer te zijn, omdat het altijd maar voor korte tijd beschikbaar is. Dat is ook niet nodig - je hebt in een telefoon doorgaans maar heel eventjes snelheid nodig, bij het openen van een programma, processen van een genomen foto, etc. Je bent geen wetenschappelijke simulatie van drie uur aan het draaien die constant de cpu vol trekt.

[Reactie gewijzigd door Dreamvoid op 6 januari 2014 15:23]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True