Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 70, views: 25.883 •

ARM heeft de opvolger van de Mali 400-gpu gepresenteerd. De opvolger van de gpu uit onder meer de Samsung Galaxy S II en S III wordt volgens ARM twee keer zo krachtig. Desondanks is de gpu bedoeld voor goedkopere smartphones.

De prestatiewinst komt mede voort uit een vergroting van het aantal cores. Waar de Mali 400 maximaal vier cores heeft, zal de Mali 450 vijf tot acht cores hebben. Ook zijn er softwarematige tweaks toegepast om de prestaties op te drijven, claimt ARM tegenover EeTimes. De Mali 450 neemt op de soc wel meer ruimte in dan de Mali 400.

De Mali 400 dient als gpu onder meer in topmodellen als de Samsung Galaxy S II en S III, maar de opvolger zal niet bedoeld zijn voor dure smartphones. In plaats daarvan zouden juist goedkope en midrange-smartphones van deze gpu moeten worden voorzien. Duurdere smartphones zouden gpu's uit de T6xx-serie moeten krijgen. Deze is gemaakt op de nieuwere Midgard-achitectuur, in plaats van de oudere Utgard-architectuur uit de Mali 400-serie.

De eerste smartphones en tablets met Mali T6xx-gpu's moeten nog voor het einde van het jaar uitkomen, aldus ARM. Daarbij gaat het om de T604 en T658. Samsung past die onder meer toe in zijn Exynos 5-serie socs, die vermoedelijk gebruikt gaan worden in tablets en wellicht in de opvolger van de Galaxy Note. ARM heeft ook nog een krachtigere gpu in ontwikkeling, voorlopig onder de naam Skrymir, maar daarover is nog niets bekend.

ARM is vooral bekend van zijn processorarchitectuur, die de basis vormt van de processors in vrijwel alle smartphones. De gpu's van ARM worden toegepast in socs van onder meer Samsung en ST-Ericsson. Smartphones van onder meer Samsung en Sony hebben daardoor Mali-gpu's aan boord.

ARM Mali 4xx roadmap ARM Mali T6xx roadmap

Reacties (70)

Dus de GPU in Galaxy S4 zou minstens 4 keer krachtiger moeten zijn dan de S2/S3, want ik gok dat de T6xx serie uiteindelijk ook 2 keer zo krachtiger zal zijn dan de Mali 450.
Volgens ARM zelf zou die T6xx 10x krachtiger zijn, maar of dat vergeleken is met de Mali-400 op 200 of 400Mhz is niet bekend, voor de S3 zijn er trouwens al mods om je GPU tot max 800Mhz te klokken, als dat te doen is zonder al te veel stroom erbij is de GPU ook ongeveer even snel als de Mali-450
Heb je hier een bron voor?
Desondanks is de gpu bedoeld voor goedkopere smartphones
Zal dus waarschijnlijk niet in een S4 komen.
leuke ontwikkeling, maar ik vraag me werkelijk af of het zin heeft om 8 cores in een toestel te stoppen als ze toch niet benut worden. heb zelfs 1 core van me SGS2 uit staan, en nog merk ik niks (speel dan ook geen games). jammer dat in het artikel niks over energie verbruik word gezegd.. zegt veel meer dan die paar extra cores imho

[Reactie gewijzigd door 445689 op 13 juni 2012 09:40]

vaak is het zo dat een snellere chip minder energie verbruikt doordat ze elke taak sneller uitvoeren en dus onder een gelijke belasting een langere tijd op idle staan.

stel 8 cores gebruiken 2 keer zoveel energie als een quadcore (dus we nemen aan dat er geen optimalisaties zijn gebeurd op dit vlak) dus stel hier is het energieverbruik 1 per minuut. De 4 cores zouden hier dus 1 per minuut hebben.

De tijd die deze 8 cores nodig hebben om een taak x uit te voeren kunnen we relatief 1 minuut noemen, en de tijd die 4 cores nodig hebben om dezelfde taak noemen we twee minuten.

hieruitvolgt dat voor de 8 core het energieverbruik:
2*1 = 2 is
terwijl het bij een quadcore ook
1*2 = 2 is

je hebt dan wel nog steeds het voordeel dat je zwaardere taken aankan, en in dit geval zal de 8core waarschijnlijk meer energie nodig hebben

edit: uiteraard weet ik dat het energieverbruik van veel meer afhankelijk is, deze "rekensom" was alleen om aan te tonen dat quadcore niet per se de oorzaak hoeft te zijn van een groeiend energieverbruik. stel dat van deze 8core slechts 4 cores gebruikt worden, is de kans heel groot dat de quadcore zelfs beter presteert, maar dat is niet de bedoeling van het toevoegen van extra cores

[Reactie gewijzigd door pinna_be op 13 juni 2012 11:33]

Een idle core gebruikt ook energie, daarnaast is optimalisatie van gebruik van meerdere cores (iets wat Android nog niet goed doet) dus zou je 2 dualcores aan elkaar plakken wordt die niet per definitie 2x zo snel en gebruikt hij niet evenveel energie volgens jouw redenatie.

Zie t als een m5 en een Toyota yaris, m5 is veel sneller maar als ze beide 100 rijden is de yaris zuiniger.
Een idle core gebruikt ook energie, daarnaast is optimalisatie van gebruik van meerdere cores (iets wat Android nog niet goed doet) dus zou je 2 dualcores aan elkaar plakken wordt die niet per definitie 2x zo snel en gebruikt hij niet evenveel energie volgens jouw redenatie.
Aangezien we het hier over de GPU hebben gaat dat hele verhaal helemaal niet op en heeft het OS helemaal NIKS te maken uit hoeveel cores de GPU bestaat! Oftewel 2x zoveel GPU cores is 2x zoveel performance!
je auto redenatie gaat helaas niet op, in ieder geval niet zo eenvoudig. Twee compleet verschillende auto's op deze manier vergelijken is net zo krom als de vergelijking waar je op reageert.
Dat is anders NIET wat TopGear heeft bewezen... ;)
Dat was met een prius flatout en een bmw die moest volgen. Waar de prius constant op hoge toeren reed, kon de bmw (danzij de krachtige motor) gewoon op lage toeren blijven rijden.
De conclusie was dan ook: Het gaat niet om de auto waarin je rijdt, maar de manier waarop je rijdt.
Wat ook meegenomen kan worden bij multicore is het idee dat energie kwadratisch hoger wordt naarmate de kloksnelheid omhoog gaat...
Zogezegt:
8 cores op 200mHz verwerken net zo veel als
4 cores op 400mHz in dezelfde tijd.
Maar bij dubbele clock, verviervoudigt het energie verbruik...
effectief dus 8*1 = 8 en 4*4 = 16
Uiteraard moet je in de praktijk met nog een aantal zeker meer rekening houden maar goed... :P
Normaal is het energie verbruik vrijwel exact lineair met de klok frequentie. Dit komt omdat bij elke klok overgang capaciteiten moeten worden geladen of ontladen en dat schaalt lineair met de frequentie.
Alleen als je om reden van energie besparing of overklokken de voedingsspanning gaat variëren met de frequentie, dan is het dynamisch verbruik afhankelijk van zowel spanning als frequentie en dan kan het wel veel sneller oplopen.
Je geeft het antwoord zelf al, bij elke klokfrequentie waarop een core in alle smartphones van de laatste jaren hoort een vastgestelde spanning.
Dus hoe hoger de frequentie, hoe hoger de spanning. Dus gaat het energieverbruik niet lineair omhoog met de klokfrequentie.
8 cores op 200mHz verwerken net zo veel als
4 cores op 400mHz in dezelfde tijd.
Alleen in een wereld van perfecte parallelisatie, geen cache misses, geen scheduling overhead etc. In de praktijk performen die 4 cores stukken beter.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 11:29]

vaak wordt er ook een boel onzin geschreven.

Het verbruik hang van veel meer zaken af. Nieuw processor ontwerp dat zuiniger is. Kleinere fabriacegmethode enz enz.

Dat alles kan het maken dat meer cores evenveel verbruiken als minder cores. Dat hoeft echter niet altijd zo te zijn. M.a.w je rekensom is niet eens kort door de bocht maar gewoon haaks om de bocht.
vaak is het zo dat een snellere chip minder energie verbruikt doordat ze elke taak sneller uitvoeren en dus onder een gelijke belasting een langere tijd op idle staan.
Dat is alleen als de chip sneller is maar wel evenveel verbruikt als de vorige. Als het verbruik en de snelheid beide omhoog gaan dan zal het om het even zijn. Als dus core toevoegen aan de chip en verder niks veranderd hebben dan zal verbruik ook omhoog gaan. Dan zal de chip dus eerder klaar zijn maar ook meer verbruiken in de actieve tijd en kom je weer op hetzelfde uit.

Edit/
In geval van gpu gaat dit overigens niet echt op. Actief tijd is meestal evenlang ongeacht de prestatie van de chip omdat gpu altijd werkt te doen heeft als die actief is. Snellere chip zal meer fps produceren dan de langzamere chip maar zal niet eerder in idle gaan in de meeste gevallen. Als GPGPU wat meer doorbreekt en gpu ook steeds aangesproken gaat worden om taken af te handelen dan zal het wellicht ook iets gaan uitmaken bij gpu.

Verhaaltje gaat dus meer op voor cpu waar taken uitgevoerd worden door het OS.

[Reactie gewijzigd door mad_max234 op 13 juni 2012 20:29]

Jij hebt echt geen cores uit staan van je GPU, hooguit van de CPU! En raad is waar we het over hebben? GPU's :)
Als ik me niet vergis is neemt het stroomverbruik van een core in negatieve zin niet lineair toe naarmate de load zwaarder wordt. Kortom meer cores (mits de load verspreid kan worden) is minder energieverbruik. Maar goed, hoe vaak gebruik je nu je 4 cores maximaal op de smartphone?

Toch vindt ik het een mooie toekomst. Over een paar jaar staat je laptop gewoon op je Smartphone. Kom je op je werk, hop telefoon in het dock met toetsenbord + scherm en klaar.
Dus als ik het aantal cores verviervoudig en ze op 110% load laat lopen wekken ze stroom op?

Het verbruik neemt kwadratisch toe alsvolge van de frequentie. Dus je clockfrequentie hoger, veel meer stroom.

heb je ipv 2 cores, 4 cores dan neemt je energie verbruik linear too. Dus 4 cores gebruiken 2 x zoveel energie.


Het voordeel van meer cores is wel, dat je 4 cores op 200MHz kunt laten werken, waar 2 cores hun werk op 400MHz het doen, om dezelfde performance te halen.

Dan zullen de 4 cores minder energie verbruiken, voor hetzelfde reken resultaat.

Wat wel zo is, dat 4 idle cores meer stroom verbruiken dan 2 idle cores, dus tenzei je ze uit kan zetten via power management oid, gebruiken de 4 cores 'idle' meer stroom dan 2.
Het verbruik neemt kwadratisch toe alsvolge van de frequentie. Dus je clockfrequentie hoger, veel meer stroom.
Dat is gewoon niet waar. Bij een hogere klokfrequentie gaat de processor vaker per seconde een vaste hoeveelheid energie opnemen.
Echter wordt de spanning op de chip ook verhoogd bij een hogere frequentie, om de boel stabiel te houden. En die verhoogde spanning zorgt voor een kwadratische verhoging in energieverbruik. De frequentie zorgt voor een lineaire verhoging.
De cores worden heus wel op een kleinere procide gebakken waardoor ze minder verbruiken. Daarnaast zou het mooi zijn als we uiteindeljik een game zoals crysis (optimistisch) op onze phone kunnen spelen...
ging over GPU's. |:(

[Reactie gewijzigd door demilord op 13 juni 2012 11:14]

Het gaat hier om GPU core's. Jij hebt het over CPU core's. Kwa graphics gaat het denk ik wel uitmaken, want volgens mij worden GPU core's een stuk beter benut dat CPU core's.
en de mali 400 was in de exynos al superieur aan zo ongeveer elke andere grafische chip.

Als de toekomstige(nabije toekomst) goedkope modellen dubbel zo goed presteren als de huidige topmodellen op grafisch vlak, hoeveel keer beter zullen de high-end modellen dan niet zijn.

Ik vermoed bijna dat deze architecturen stevig genoeg zijn voor bijvoorbeeld een volwaardige laptop te besturen. Aangezien ze erg energiezuinig en eigenlijk blijkbaar echt nog krachtig ook zijn.
Ik vermoed bijna dat deze architecturen stevig genoeg zijn voor bijvoorbeeld een volwaardige laptop te besturen. Aangezien ze erg energiezuinig en eigenlijk blijkbaar echt nog krachtig ook zijn.
Dat is het ook, Intel gebruikt nu nog PowerVR 540/544 wat vergelijkbaar is met de GPU uit de SGS1 en Iphone 4S/Ipad2/3...
Het is natuurlijk helemaal niet zeker dat de topmodellen véél beter gaan presteren dan de budgetmodellen. Het kan heel goed zijn dat de fabrikanten besluiten om, gelijk aan andere markten, de topmodellen gewoon nét dat beetje meer te laten presteren. Dan is het dus ook alleen interessant voor de mensen die per se vooraan willen zitten, absoluut het beste moeten hebben et cetera.

Zodoende kunnen fabrikanten redelijkerwijs garanderen dat een ieder, dus ook de mensen met meer 'budget' of middenklasse modellen naar tevredenheid en snel kunnen werken met hun toestel, terwijl de powerusers hun extra puntjes voor hebben. Zal, qua marketing, ook kunnen leiden tot meer 'merktrouwe' gebruikers; als jouw (toch nog relatief dure) middenklasser maar half bruikbaar is vanwege langzaam zijn, ben jij waarschijnlijk niet geneigd om bij bijv. een Samsung te blijven. Gezien budget en middenklasse toch het overgrote deel van de verkopen gaat zijn, is dat helemaal geen slechte keuze ook..
Hoelang duurt het nog voordat ze gelijkwaardig of beter zijn dan de game consoles?
ze zijn al gelijk aan game consoles van 10 jaar geleden. En tegen de tijd dat ze gelijk zijn aan een game console van de huidige generatie zijn er al weer nieuwe generatie game consoles. Omdat ze de bestaande techniek moeten scalen naar een mini formaat zullen ze altijd achterlopen kwa performance op apparaten die in een "grote" kast zitten.

En als je kijkt naar apparaten zoals de PS VITA die al heel klein is in vergelijking met een console dan komen ze best een eind in de buurt. Dat apparaat is zo'n 5 jaar na de xbox 360 gelanceerd dus het gaat best hard.

[Reactie gewijzigd door terracide op 13 juni 2012 09:51]

Ik denk dat xbox wel krachtiger is.. Zou wel falen dan hij anders zoveel energie verbruikt terwijl een mobieltje met een tdp van een paar watt sneller is dan een 130 watt slurper.
Ja maar is dan ook niet mgeaakt om efficient te zijn, wat denk je liever dat MS heeft? Een dure chip of een goedkope chip die hetzelfde presteert?

De kosten van stroom maakt voor MS niet uit, die liggen bij de eigenaren van die consoles!

Maargoed de xbox360 is dan ook al tig jaar oud (8 ofso?)

[Reactie gewijzigd door watercoolertje op 13 juni 2012 10:17]

Er zijn natuurlijk ook al die-shrinks geweest, die chip in de huidige revisies verbruikt allang geen 130W meer :)
Dat is inderdaad zo maar het kan natuurlijk veel zuiniger, wat vooral gunstig is is dat een die-shrink er voor zorgt dat het voor MS goedkoper wordt, was dat niet zo had MS er helemaal geen baat bij om zuiniger te maken...
hoe lang duurt het voordat console verdwenen zijn, consoles is voor het mainstream publiek en dat wil gemak.
Cloudgaming is nog makkelijker en dat zal op een gegeven moment de toekomst worden (of dat nou over 5 of 50 jaar is)
Volgens mij zal dit niet meer zo lang zijn aangezien de PlayStation vita al erg dicht komt en deze gebruikt maakt van mobiele gpu maar dan praten we over de huidige consoles wat de toekomst brengt voor nieuwe consoles weet niemand...

[Reactie gewijzigd door yochi op 13 juni 2012 09:53]

Dat duurt nog wel een tijdje en dan komen er weer nieuwe consoles waar we 5-8 jaar achteraan hobbelen :)
Volledig offtopic en omdat dit wss een fipo is dubbel erg maar tog:

Waarom noem je het ipv Skyrmir niet gewoon gelijk Skyrim en bij tablets/phones met de Skyrim chipset een gratis versie van TES: Skyrim, zou een leuke strategie zijn :D
Omdat het eigenlijk Skrymir is ipv Skyrmir. De redactie heeft een foutje gemaakt. Misschien waren ze het spel ook net aan het spelen voordat dit nieuws beschikbaar was? ;)

Zie ook:
Spel- en tikfoutjes - en dus *geen* andere foutjes - deel 41
De opvolger van de gpu uit onder meer de Samsung Galaxy S II en S III wordt volgens ARM twee keer zo krachtig. Desondanks is de gpu bedoeld voor goedkopere smartphones.
[...]
De eerste smartphones en tablets met Mali T6xx-gpu's moeten nog voor het einde van het jaar uitkomen, aldus ARM.
Waarom krijgen goedkopere smartphones dit jaar al deze snellere GPU? Je zal maar net een SGS III gekocht hebben, waar je nog 2 jaar aan vastzit.
Een snelle GPU alleen is ook niet alles, en het gaat nu eenmaal snel met de ontwikkelingen. Tegen de tijd dat er toestellen op de markt komen met deze gpu zijn we waarschijnlijk weer een half jaar verder.
Wel wanneer je veel games speelt op je smartphone...
Gezien de meeste benchmarks lijkt bij mobieltjes (net als bij laptops en desktops) in de meeste gevallen de GPU de bottleneck te vormen en niet de CPU.
(geen bron, maar zijn mobieltjes met verschillende CPU's die nagenoeg hetzelfde presteren vanwege dezelfde GPU)
De limiterende factor is het scherm, of eigenlijk de refresh-rate daarvan die 60hz is wat inhoudt dat er maar 60fps gedraait hoeft te worden (is ook energiezuiniger natuurlijk, als je GPU 2x zo veel fps moet draaien is het verbruik 2x zo hoog in theorie)...

Echter ga je je telefoon als console gebruiken (op je 1080p scherm) zie je heel duidelijk de verschillen.
Waarom krijgen goedkopere smartphones dit jaar al deze snellere GPU? Je zal maar net een SGS III gekocht hebben, waar je nog 2 jaar aan vastzit.
En waarom is dat vervelend bij de S3? De Mali-450 is sneller dan ALLES wat nu gebruikt wordt, dus niet alleen de S3 wordt voorbij gegaan :) Daarbij is het maar afwachten wanneer het echt in telefoons komt, ze kunnen dat wel zeggen, maar de Mali-400 is ook al iets van 4 jaar geleden geïntroduceerd en pas 2 jaar in gebruik...

Welke telefoon heb jij dan die 2 jaar lang niet is voorbij gestreefd in GPU snelheid :X

[Reactie gewijzigd door watercoolertje op 13 juni 2012 10:11]

Huh? Je SGS III performt toch niet opeens slechter dan voorheen omdat er iets nieuwers is dat beter performt? Wat is het probleem? Je weet vantevoren dat een smartphone die je nu koopt (welke dat dan ook is) over een half jaar zeer waarschijnlijk is ingehaald door iets nieuwers/snellers/beters. Of vind jij dat Samsung (en de andere telefoonbouwers) innovaties maar een jaartje op de plank moet laten liggen, om te voorkomen dat een klein groepje klanten zich benadeeld voelt?
Mjah, vastzitten aan een telefoon? Niets let je om 'm op marktplaats te zetten en een nieuwe te kopen, toch?
Ik neem aan dat dit inhoud dat we dus een flinke lading tablets krijgen te zien met een Mali450 gpu voorzien van Android of Windows 8 (mobile).

ARM is echt bezig de handheld markt te veroveren en ik vermoed dat het niet lang zal duren voordat ze de desktop en laptop markt aanvallen. Het is wel interessant en zorgt ervoor dat gebruikers een keuze kunnen krijgen tussen Intel, AMD...of ARM. Natuurlijk praten we hier over een ARM gpu en niet cpu.

Dat gezegd hebbende ben ik wel blij met de opkomst van ARM, het zorgt voor een nieuwe inpuls in de gpu en cpu markt op een moment dat deze minder hard leek te gaan ontwikkelen (maar nog wel ontwikkelde).
Ik neem aan dat dit inhoud dat we dus een flinke lading tablets krijgen te zien met een Mali450 gpu voorzien van Android of Windows 8 (mobile).
Weet niet of het voor windows nodig is maar de chip ondersteund geen DirectX voor zover ik kan vinden...
Uh, wanneer Android zorgt dat je fatsoenlijk meerdere cores kan gebruiken...

Alleen zitten we nu inmiddels op een niveau dat processors sneller sneller worden dan de software meer tekenkrijt vraagt waardoor ik hoop dat ze eens gaan investeren in energie verbruik. De gemiddelde tweaker zal t ongetwijfeld belangrijk vinden om te kunnen zeggen dat zijn telefoon een benchmark score heeft van 730636738495 waardoor zijn telefoon de website in 0.1 seconde sneller laad dan een ouder model..

Zelf heb ik een iPhone 4 en ben ik tevreden met de snelheid en de reden dat sommige apps traag zijn ligt meer aan t falen van de app dan aan de processor. Doe mij maar meer intern geheugen en de zuinigere versie van de a5 in de nieuwe iPhone in plaats van een 4,6 of 8 core :')
Uh, wanneer Android zorgt dat je fatsoenlijk meerdere cores kan gebruiken...
Als we het over GPU cores hebben die worden ook allemaal gebruikt of dat er nou 2-4-8 of 1024 zijn , ook de CPU cores worden allemaal gebruikt, enkel de browser (op de SGS3) niet (waarschijnlijk om stroom te besparen oid).

Dus wat je nu wilt bereiken met je bash. Dat het beter kan is zo want dat kan ALTIJD, bij Android maar ook bij iOS en WP :)

[Reactie gewijzigd door watercoolertje op 13 juni 2012 10:31]

ARM is echt bezig de handheld markt te veroveren
Uh, die hebben ze jaren geleden geleden al veroverd, ARM heeft al jaren bijna 100% van de markt.

Wat ze niet hebben is 100% marktaandeel qua gpu: Qualcomm, nVidia en Imagination Technologies zijn veel succesvoller met hun gpu's dan ARM.

Qualcomm en nVidia gaan toch wel hun eigen gpu gebruiken, de grote vraag is of de Midgard architectuur beter is dan de PowerVR 6 serie. Alle andere SoC fabrikanten (Samsung, TI, ST-Ericsson, Marvell, Broadcom, Apple, etc etc) moeten kiezen tussen 1 van die 2.

En dan komt AMD ook nog eind dit jaar de markt in zetten met hun eigen gpu architectuur (low-power HD6xxx?)

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 11:31]

Je vergeet alleen voor het gemak dat in telefoons en tablet altijd een SoC wordt gebruikt, en niet een cpu+gpu. Ze kunnen dus wel 100% van de mobiele cpu's in handen hebben, maar dat is niet de hele SoC, dus dat zegt geen zak. Er zijn bijv een goed aantal devices met een Tegra-chip, en die is toch echt helemaal door nVidia geleverd.
Maar Nvidia heeft voor elke chip wel licentiekosten betaald aan ARM, wees maar niet bang!
ARM maakt zelf geen SoC's, het ontwerpt en licenced alleen designs. nVidia gebruikt voor Tegra 2/3 ARM cpu cores (Cortex A9), en daar tikken ze uiteraard voor af bij ARM. Ze gebruiken de Mali gpu's van ARM niet, maar bv Samsung doet dat wel.
Ah, dus het klinkt een beetje als die rimmrams van vroeger :)
Ik vraag me af wat deze chip toevoegd. Met twee keer zo veel cores word de GPU ook bijna 2x zo groot. Voor low-end en mid-range smartphones is het niet aantrekkelijk om een hele grote chip in te zetten. Daarnaast is het ook de vraag wat het voordeel is t.o.v. de T604 en 658, die chips zullen gezien het nieuwere ontwerp ongetwijfeld wat efficiënter zijn wat betreft performance / transistor, en bieden een hoop extra functionaliteit (nieuwere OpenGL versie, Compute, etc).

De enige reden die ik me dan nog kan bedenken waarom iemand een 450 zou kiezen is eventueel lagere licentiekosten, maar de vraag is dan of dat weer opweegt tegen de hogere lagere performance/transistor (en dus performance/kostprijs chip).

Als er al fabrikanten deze chip gaan gebruiken dan denk ik dat we dit vooral zullen zien bij de goedkope chineze tablet fabrikanten.

[Reactie gewijzigd door knirfie244 op 13 juni 2012 10:34]

De enige reden die ik me dan nog kan bedenken waarom iemand een 450 zou kiezen is eventueel lagere licentiekosten
Dat denk ik ook, maar ook de snelheid telt mee ook als je er niks aan hebt! Consumenten trappen toch overal in!

[Reactie gewijzigd door watercoolertje op 13 juni 2012 10:36]

Die betere prestaties zal je in games niet zo veel van merken want dat gaat allemaal naar die steeds hogere schermresolutie wat natuurlijk ook bakken aan rekenkracht kost. Wat dat betreft heb je niet zo veel aan hoge resoluties als de mesches waar je objecten in 3d games van gemaakt de nodige details missen natuurlijk. Een blok als hand met daarop een gedetailleerde brushmap blijft altijd nog een blok, tenzei je misschien flink wat bewerkingen op dat blok toepast, maar ja, hoeveel rekenkracht blijft er nog over als je zoals op de ipad in 2500x 1400 renderd.. Nova 3 ziet er op de ipad 3 bv niks beter uit dan op de ipad 2. Hooguit dat je wat minder aliasing ziet, maar die vingers zijn nog steeds net houten stokjes.

[Reactie gewijzigd door verleemen op 13 juni 2012 10:25]

Die resolutie verhogen ze maar 1 keer. De DPI is nu zo hoog dat hoger bijna niets meer uit zou maken. Daarna kan het weer helemaal naar prestaties.
Ik besef zojuist het volgende:

Consoles (PS3 en XBOX360) hebben het niveau van hardware, waarop games worden afgestemd afgelopen jaren laag gehouden. De markt van handhelds en consoles liggen op dit moment meer onder vuur dan te voren door mobile gaming. Nieuwe telefoons worden elk jaar uitgebracht, met beter hardware oftewel hogere specs. Zou dit kunnen betekenen als mobile devices over de hardware grens van PS3 en XBOX360 heen gaan, het niveau van de hardware waar games zich ook op afstemmen, mee gaat met die van mobile devices i.p.v. de consoles?

Uiteraard zijn er straks de next-gen consoles en leggen deze de lat opnieuw een stuk hoger. Toch heb ik het idee dat mobile devices in een hoger tempo de huidige en next-gen consoles gaan inhalen.
Er is natuurlijk altijd een inhaalrace gaande, een Atom van 5W performt nu ook vergelijkbaar met een P4 van >100W van tien jaar terug. Als je met de technologie van 2012 een next-gen console ontwerpt op een 100W chip ben je uiteraard heel erg veel sneller dan wanneer je een mobile chip van 5W pakt. Maar in 2022 zal er ongetwijfeld een telefoontje zijn die dezelfde performance in een 5W chip gepropt heeft.

[Reactie gewijzigd door Dreamvoid op 13 juni 2012 11:14]

En het mooie van telefoons is dat iedereen een abonnement heeft en dus gewoon iedere 2 jaar een nieuwe telefoon krijgt. De markt blijft constant vooruit gaan en oude toestellen zijn na 3 jaar al zwaar in de minderheid. We kunnen nu de iPhone 3GS negeren wat in de iOS markt voor veel betere graphics gaat zorgen.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013