Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

Chipontwerper ARM beweert dat zijn Mali-gpu binnen 18 maanden net zo krachtig is als de Xbox 360 en PlayStation 3. De ontwerper denkt echter nog flink aan powermanagement te moeten werken om zijn doel te bereiken.

ARM MaliARM stelde tegenover The Inquirer dat het momenteel werkt aan het ontwerp van chips die in 2016 op de markt komen. Het bedrijf zegt onder andere aan de grafische capaciteiten van de eigen Mali-gpu te sleutelen. De ontwerper denkt de prestaties van Mali nog flink op te kunnen schroeven en beweert dat de videochip binnen 18 maanden kan concurreren met de PlayStation 3 en Xbox 360. Details over de plannen geeft de het bedrijf echter niet. ARM wil de kracht van de gpu opvoeren omdat er meer 'computerkracht' nodig is voor nieuwe gebruikerinterfaces, gaming en taken als computational photography. De ontwikkelaar wil naar eigen zeggen "enorme hoeveelheden computational power in de handen van ontwikkelaars leggen."

Het bedrijf denkt echter dat het zich niet kan beperken tot de ruwe processorkracht. Bij het ontwerp van embedded chips als Mali moet er volgens ARM goed gekeken worden naar warmteproductie. "Accutechnologie ontwikkelt zich niet zo snel en het verder krimpen van de processorkern lost het verbruiksprobleem niet noodzakelijkerwijs op," stelt ARM. De oplossing moet komen van een combinatie van technieken, zoals agressief power management en meerdere gpu's die bijgeschakeld kunnen worden waar nodig, stelt de chipontwerper.

Moderatie-faq Wijzig weergave

Reacties (70)

Ik gok er op dat bij een ARM processor vooral ook gekeken moet worden naar de warmte productie en het energie verbruik. DŠt er een verouderd systeem qua performance wordt geevenaard, da's niet zo bijzonder, maar dat dat kan tegen een fractie van het energie verbruik (dank u NE5Freak :) )?

Dus als ik kijk op <http://www.arm.com/products/multimedia/mali-graphics-hardware/mali-55.php> en dan zie dat dat ding een oppervlak heeft van 1,0 vierkante millimeter, tsja, dan is dat toch wel een tweakers.net vermelding waard?
Als dit het geval is, kunnen ze net zo goed de desktop markt gaan bedienen en gaan concurreren met AMD in het lagere segment van de graka's. Deze kaarten zullen bijvoorbeeld ideaal voor HTPC's kunnen zijn.

[Reactie gewijzigd door moh.moh op 4 juli 2011 13:08]

Kaarten? Gewoon chips in de vorm van een SoC. Waarom zou je nog ouderwetse kaarten gebruiken nu alles steeds kleiner wordt.

[filosoferen]
Zou wel rete-cool zijn als ARM echt zal gaan concurreren met Intel en AMD. Je moet altijd een van beide kiezen. Met de komst van Windows 8 ARM kan dat denk ik echt voor een aardverschuiving op de processormarkt zorgen. De komende maanden moet, dacht ik, Kal-El ook op de markt komen. Weet het niet zeker maar volgens mij gaat ie ook wel Tegra 3 genoemd worden.
Als ik merk hoe relatief snel de Tegra 2 is met Android zou dat wel eens een leuke instap SoC kunnen worden op htpc's, nog afwachtend hoe W8 of Android 4.0 zal gaan presteren en hoe breed de ondersteuning van codecs zal zijn. Vooral als straks partijen als Texas Instruments en Qualcomm met SoC's gaan komen voor lichte laptops en desktops...
Als je kijkt hoe energiezuinig de huidige ARM-chips zijn belooft dat nog wat.
[/filosoferen]
:+
ARM concurreert al een tijdje met Intel en AMD. Er zijn weinig analisten die zullen beweren dat desktop computers het gaan winnen van smartphones en tablets.
Dat is geen concurrentie. ARM is nu nog voor een heel andere markt, de smartphones en tablets, maar ik denk dat dat niet lang meer duurt als je de plannen van ARM- en partners zo bekijkt. Ben erg benieuwd hoe zich dit verder gaat ontwikkelen.
Ze zullen er ook wel graag zogenaamde Smart-Tv's mee willen gaan uitrusten al denk ik dat dat niet iets is waar men op zit te wachten. Een televisie met internet en speciale apps. Mensen hebben eerder een apart apparaat bij de televisie en dat zal nog wel even zo blijven.
Daarnaast zullen desktops echt nog wel lang blijven bestaan naast alle laptops, netbooks, smartbooks, tablets etc.
Maar wie beweert dat AMD en ARM blijven concurreren? Vanuit AMD is het misschien slimmer om deze Mali samen met de Cortex A15 gewoon in licentie te nemen, dan pas kunnen ze het leven van Intel echt zuur maken!

Want Intel loopt nog steeds - ondanks verwoedde pogingen - hopeloos achter op ARM op het gebied van stroomverbruik, dat is duidelijk. En AMD loopt al bijna eeuwig achter als het op x86 aankomt - op Intel dan.
Wat denk je dat dr gaat gebeuren nadat Windows 8 icm ARM ondersteuning is uitgebracht?
De markt zal heel erg veel goedkope "PC's" zien bij zaken als Aldi, Lidle en al die andere discounters die voor weinig een "goede" PC weten te verkopen.
Deze dingen zullen goed instaat zijn je moeder en grootmoeder van een goede computer te voorzien en voor huiswerk en af en toe een filmpje kijken zullen ze ook geschikt zijn, maar dan houd het wel zo'n beetje op...

Vergeet niet dat de XBOX360 maar net aan DirectX9 verwerken kan (een PS3 is niet veel anders) en dat een PC in middels met DX11 gewoon de standaard is. Het zal wel steeds vaker zo zijn dat een ontwikkelaar van een computer game de ontwikkeling richt op een van de twee grote consoles en dus zal de PC versie er vaak niet beter uitzien dan de console versie terwijl dat met alle gemak wel kan.
Het grote probleem voor de PC is dat het maken van een game voor alleen de PC hele erg veel geld laat liggen omdat het niet moeilijk is de game naar een console over te zetten en je dan op eens een paar honderd miljoen extra potentiŽle klanten bij hebt. Dus voor veel games makers is het de moeite niet om het onderste uit de kan te halen op de PC omdat je simpel weg meer geld kunt verdienen als je het bij een goed genoeg game houd die overal op draait.

Als je naar de huidige stand van zaken op PC gebied kijkt is er eigenlijk maar 1 ding dat de ontwikkeling van hardware echt blijft voort duwen en dat zijn de games. Een grafische kaart uit 2000 kan net zo makkelijk word en alle andere 2D dingen op je beeld toveren als een kaart van vandaag de dag. Voor eigenlijk alles dat je met een PC doet tegenwoordig heb je echt geen SSD nodig. Er zijn een aantal niche markten maar over het algemeen merk je het gebruik van een SSD pas echt bij het opstarten en het laden van nieuwe game elementen... Een veel grotere harde schijf is helemaal niet nodig met 60GB kun je alle kantoor software draaien die je hartje begeert en heb je meer dan genoeg ruimte over voor voor de opslag van documenten de grootste verslindere van schijfruimte zijn de games. De meeste servers draaien met minder dan 100GB aan harde schijf ruimte omdat zakelijk gezien er simpel weg geen noodzaak is om alle servers van vele TB's aan opslag te voorzien.

ARM kan heel snel hele erg groot worden ook op de PC markt simpel weg omdat het merendeel van de PC's toch echt nog steeds op kantoren staat en dus geen games hoeft te kunnen spelen, maar waar men wel erg goed op de energie rekening let en dus als het even kan een machine koopt die zo min mogelijk energie verbruikt. ARM met haar architectuur is daar bij uitstek voor geschikt. Intel probeert het wel maar de jaren '70 architectuur van Intel is nu eenmaal een energie verslindend beest in vergelijking met wat ARM vele jaren later heeft ontwikkeld.

De kans is dan ook groot dat met de uitzondering van de echte game machines de meeste mensen binnen nu en een paar jaar een ARM systeem zullen draaien, niet alleen zijn de chips veel al erg goedkoop in vergelijking met de concurrentie maar ze gebruiken ook heel weinig energie, produceren dus erg weinig warmte wat nieuwe ontwerpen mogelijk maakt.
Denk maar eens aan de VIA systemen die je in een wandcontactdoos kunt inbouwen, dat zou in veel huizen een uitkomst zijn. Combineer dat met draadloos HD, en natuurlijk een draadloze muis en toetsenbord en je kunt je voor stellen dat voor veel mensen dit een perfecte computer zou zijn (de discussie computer in de woonkamer ja of nee...)
Ook zie je eigenlijk alle high TV's tegenwoordig met een ARM chip uitgerust worden en dus zal ook hier de markt van de PC door bedreigd worden, want er zijn erg veel huishoudens waar de PC alleen voor hyves, email en farmville gebruikt wordt, en dat kun je ook op een TV doen zeker als deze gewoon DX9 kan verwerken en waarschijnlijk niet al te lang daarna ook DX11 (wat wel eens de laatste DX zou kunnen zijn maar dat is een ander verhaal)
Klinkt leuk maar ps3 is al vrij oud ontwerp naar huidige maatstaven en ps4 komt er al aan. Weet dus niet echt wat je nou met deze infoirmatie moet zonder te weten wat het verbruik zal zijn.
Nou, vrij simpel: Een MALI stop je in een SoC die je in een mobiel of tablet stopt. Dus kwa stroomverbruik: Paar uur lang is zeker te doen, en mits 'ie aan een kabeltje hangt eeuwig.

Mobieltjes / tablets hebben HD-output, dus die kan je aansluiten op een HD TV-scherm. Mobieltjes hebben ook 'knoppen' (sommige dan)/ touchscreens en gyro-zooi, dus kan je ze gebruiken als controller. Voeg daar aan toe wat GPU / CPU-kracht, en je kan spelletjes spelen op het niveau PS3 op de smartfoon die je al hebt om te bellen / SMS'en / internetten, zonder dat het je ook maar een drol extra kost!
En toch is de CPU van de PS3 een ongeslagen koning (cell arch. met dank aan IBM)
euuhh... toch niet. Een moderne quadcore is stukken sneller dan de CELL met hier een daar een paar uitzonderingen, maar op dat gebied is eender welke grafische kaart dan weer veel sneller. de CELL was ongekend snel in 2006, maar ondertussen is er absoluut niets speciaal meer aan. Het enige voordeel dat je nu hebt is dat je een relatief goedkoop systeem hebt met toch redelijk wat kracht, maar dit wordt elk jaar minder en minder waar... als je een systeem een beetje slim samenstelt krijg je er veel meer performance uit per euro.

Het gaat hier trouwens niet om de CPU maar om de GPU, de GPU van de PS3 is gewoon antiek in computertermen. Je kan GPUs vinden die een macht van 10 sneller zijn, zowel in theorie als in praktijk. Okee, ze kosten meer dan die van de PS3, maar voor een "high end" gamesysteem zoals ze het willen verkopen is dat toch een beetje belachelijk. Een gemiddelde notebook GPU is al een pak sneller dan de PS3.
Toch lullig dat ze er dan zo waardeloos gebruik van maken. Een complete PC met gangbare onderdelen is op alle fronten sneller dan de PS3 als geheel. Dat die Cell dan zoveel sneller is als een x86 of PPC CPU, is totaal niet relevant als je het ding niet volledig kan benutten.

Beetje een Bugatti Veyron motor in een VW Polo - theoretisch is het bloedsnel, maar in de praktijk blijkt hij amper sneller te zijn als de concurrent.

Bovendien ontgaat de link met de Cell en de ARM Mali mij een beetje.
Mijn idee. 2016. Dan is de Playstation al meer dan 10 jaar oud.

Verder snap ik dan ook niet dat in het artikel enerzijds wordt beweerd dat men binnen 18 maanden zo ver is, maar dat men werkt aan chips die in 2016 op de markt komen.

En tenslotte mis ik een beetje in welk apparaat die chips moeten gaan draaien. Maar dat zullen wel smartphones en tablets moeten zijn.
ARM is ontwerp-boer, maar maakt zelf niet zoveel.

Als Renault voor Williams binnen 18 maanden een 1.6 liter geblazen V6 tekent voor de F1 (noem maar even wat), dan kan Williams daarna pas de rest van de auto ontwerpen, aansluitingen voor de motor voorzien, mallen gaan maken voor de rest van de auto, motor laten bouwen door Renault zelf, motorontwerp testen, bijstellen, in de nieuwe auto hijsen, weer testen en bijstellen, dan gaan ze meer personeel trainen, nog wat integratie doen, en dan pas wordt overgaan tot massaproductie. Nou ja, in het geval van smartfoons dan ;)
Richt...... over 18 maanden kunnen ze dat evenaren vergeet niet dat de Xenos in de Xbox360 een ontwerp van 8 jaar terug is. ( +-11 jaar geleden zijn ze daar aan begonnen emn 8 jaar terug kwam de xbox360 op de markt)

Inmiddels zijn GPU's van PC's vele malen sneller. Dus ik vind dit altijd een beetje lose uitspraken. Leuk dat ze nu die power hebben. Maar in mijn ogen ook best normaal..... Zo iets heet vooruit gang. Wat er nu qua GPU in AMD's Llano zit is ook al een heel stuk sneller dan wat er in de Xbox360 zit.
Maar de PS3 en XBOX360 zijn toch al erg verouderd? Kan iemand mij uitleggen wat er zo speciaal is aan het eindelijk evenaren van processoren die al een aantal jaar oud zijn?
de PS3 gebruikt een "Cell"-processor, die al enkele jaren juist als zeer modern en snel wordt gezien. In sommige computerclusters werden juist PS3's gebruikt, totdat Sony de boel dicht gooide.

De Xbox 360 is inderdaad wat minder modern, maar als ARM op het niveau van de Xbox 360 komt met een veel lager verbruik is dat alsnog een enorme voorsprong.
Het gaat hier wel over de grafische chip, niet de processor. Bij de PS3 is dit de RSX, een nVidia-chip die wat wegheeft van een Geforce 7800, de gpu van de Xbox360 is ongeveer even krachtig maar dan van ATi.

Ze spreken hier niet over de processor, kan zijn dat ARM denkt een Cell of 3 PowerPC-cores (=X360) te evenaren, maar daar is nu toch geen sprake van.
De 360 GPU is echter krachtiger dan de 7950 die in de PS3 zit, daarnaast is de 360 een Unified en de PS3 niet.
Het punt dat ARM probeert te maken is dat we instaat zijn om SM3.0 te doen op een telefoon wat een hele prestatie is. Zeker gezien de voorgaande GPU's vaak met moeite niet meer dan SM2.0 haalden. SM3.0 is het shader model dat zaken zoals normal mapping en advanced lighting groot heeft gemaakt.

[Reactie gewijzigd door NC83 op 4 juli 2011 14:36]

Daar bij moet nog worden gezegd dat de Xbox360 & de PS3 het meeste doen met de "CPU's" de GPU vreet meestal uit zijn neus.
Voor de ps3 geldt dat misschien, maar bij de xbox zeker niet waar.
Waarop baseer jij deze info?

Zover ik weet zijn console engines voor het grootste deel op processor kracht gebasseerd. De GPU's doen (naar mijn weten) vrij weinig, dit valt voornamelijk op bij xbox ports naar de PC. Bij deze ports heb je altijd een zware processor nodig, terwijl je met een veel oudere vid kaart ook nog weg komt.
De consoles van deze generatie hebben een veel krachtigere CPU dan GPU relatief gezien terwijl je voor games juist liever een krachtigere GPU dan CPU hebt. Het is daarom dat een paar jaar geleden toen veel mensen nog een dualcore hadden (2 threads, terwijl de consoles elk 6 kunnen) er problemen waren. De grafische kaarten waren vaak in orde omdat de grafische kaarten in de consoles niet zo sterk zijn, maar er is te veel focus op de CPU gelegd omdat daar bij consoles de meeste kracht zit. Dit zegt niet dat de GPU niets doet, dit zegt enkel dat de CPU meer doet dan de GPU. Logisch aangezien de CPU krachtiger is.

Een andere factor is dat CPU berekeningen moeilijker zijn om te optimaliseren. Iedereen kan de resolutie van shaders, textures en shadows verlagen enzo snelheid winnen. Het is veel moeilijker om bijvoorbeeld AI en physics te vereenvoudigen.
De Cell-processor is al een aantal jaren weer achterhaald door het gebruik van GPGPU's, die hetgeen wat de Cell-processor probeert te doen vele malen effectiever uitvoeren. De kracht van Cell is voor games trouwens iets dat moeilijk te gebruiken is, omdat gamecode niet altijd goed vertaalt kan worden naar code waar Cell voor ontworpen is (dit blijkt ook uit het kleine verschil tussen de X360 en de PS3).

Sowieso slaat dit artikel op gpu's: Mali is de gpu-serie van ARM. Daarom moet je kijken naar de gpu's die in de PS3 en de Xbox 360 worden gebruikt. Hoewel ik niet denk dat deze zomaar ingehaald worden qua brute kracht door deze mobiele processors (al zijn deze chips voor de huidige standaarden niet bijzonder krachtig), kunnen deze denk ik wel dicht in de buurt komen door verbeterde efficientie, en nieuwe technieken die ook bijvoorbeeld in DX11 gebruikt worden.

[Reactie gewijzigd door DCK op 4 juli 2011 13:53]

Hoewel ik niet denk dat deze zomaar ingehaald worden qua brute kracht door deze mobiele processors
Loopt u achter, want dit is al gebeurd. Immers, qua prestaties loopt ARM achter op concurrent PowerVR. Kijken we naar de PowerVR 6 serie (codename Rogue, samples o.a. SonyEricsson's Nova 9600 eind 2011):

Rogue_ 350M Poly/sec_13,0GPix/sec
PS3___ 250M Poly/sec_ 4,4GPix/sec
ed: Rotspaties...

[Reactie gewijzigd door kidde op 4 juli 2011 19:12]

Een gpu die in 2011 samplet (en ver in 2012 pas echt op de markt komt) is niet hetzelfde als 'het is al gebeurd'... Bovendien wil ik bestrijden dat ARM achterloopt op PowerVR: hun Mali T604 uit de Galaxy S II is op dit moment net zo snel als de PowerVR SGX 540 en de Tegra 2, zonder dat hier applicaties voor zijn geoptimaliseerd.

Als laatste moet ik zeggen dat de ruwe cijfers van de gpu's niet per se hetgeen waren waar ik op doelde. Deze statistieken worden altijd opgeblazen, en komen niet uit de verf door bottlenecks elders op de chip of in het systeem. Maar goed, het is toch indrukwekkend om te zien hoe hard het gaat!
[...]


Loopt u achter, want dit is al gebeurd. Immers, qua prestaties loopt ARM achter op concurrent PowerVR. Kijken we naar de PowerVR 6 serie (codename Rogue, samples o.a. SonyEricsson's Nova 9600 eind 2011):

Rogue_ 350M Poly/sec_13,0GPix/sec
PS3___ 250M Poly/sec_ 4,4GPix/sec
ed: Rotspaties...
Dat is niet vreemd.

PowerVR ontwerpt al videokaarten sinds 1996. Terwijl ARM pas in de Mali in 2007 aangekondigd heeft.

Er zal een tijd overheen gaan voordat ze het gat gedicht hebben.

Ik vind het wel gedurfd dat een CPU fabrikant het aandurft zelf een GPU te ontwikkelen. Volgens mij is het nog geen CPU fabrikant om een high-end (mobile) GPU te bouwen.

AMD heeft de kennis via ATI ingekocht. Intel heeft geen high-end GPU.

[Reactie gewijzigd door worldcitizen op 4 juli 2011 22:55]

"de PS3 gebruikt een "Cell"-processor, die al enkele jaren juist als zeer modern en snel wordt gezien."

En ontiechelijk moeilijk om fatsoenlijk voor te programmeren
@vectormatic totaal niet waar dus, als je alleen maar kan programmeren op alles wat windows heet wel ja :+

voor veel mac/linux programmeurs is het een eitje.

[Reactie gewijzigd door stewie op 4 juli 2011 13:25]

Ja nadat Sony/IBM hun Dev tools serieus hadden aangepast want toen ie uit kwam was het rot om er iets deftig uit te krijgen
nee hoor, veel programmeurs hadden gewoon zitten slapen.
maar voor iedereen die voor PPC linux/mac programmeerde was er niets nieuws onder zon, vanaf het begin niet.

nu zie je vooral dat ontwikkelaars meer moeite hebben om het onderste uit de xbox360 te halen :+ vooral first-party ontwikkelaars van Microsoft bakken er niets van vs Sony first party.

[Reactie gewijzigd door stewie op 4 juli 2011 15:08]

Consoles zijn geoptimaliseerd; 1 os en misschien 10-20 verschillende HW combinaties.
Een pc is dat absoluut niet; mac+lnx+win, en dan ontelbaar verschillende HW combinaties.

Vanwege de minimale diversiteit in HW bij consoles is het makkelijker om dat te optimaliseren. En dus behaal je eenvoudiger relatief betere performance uit die systemen. Maar dat ligt weer meer aan de aansturende SF. Ik denk dat 't bedoeld is als graadmeter.

althans, zo is mijn theorie ;-)

[Reactie gewijzigd door himlims_ op 4 juli 2011 13:15]

Dat maakt die ARM gpu niet specialer, want die gaat wss wel in verschillende configuraties draaien.
Het verschil is voornamelijk dat een playstation 3 + stroomvoorziening + lcd tv niet in je broekzak passen. Deze chip gebruikt zo weinig stroom en wordt daarnaast lang niet zo heet als de hardware van een ps3 dat dat nu dus wel kan.
Wow. Dus over 1,5 jaar is ARM in staat een processor te maken die vergelijkbaar is met een processor die al 5 jaar (11/11/2006 PS3) of meer dan 6 jaar (14/03/2005 XBOX360) op de markt is.
Als dat geen prestatie is!
[/sarcasme]
Dus eerst en vooral: wat een prestatie...
Maar het is bijlange nog niet zeker dat ze het wel halen. 18 maanden is nog wel even, maar om iets over 18 maanden op de markt te krijgen, zal je geen 18 maanden meer aan de tekentafel moeten zitten, denk ik zo.
Het is wel degelijk een prestatie, op dit moment is er geen chip voor mobieltjes die dat kan namelijk. Een 6 jaar oude (computer/console) kwa kracht evenaren...

Denk dat het bericht niet duidelijk genoeg is dat het hier om mobiele chips gaat waar dus beperkte stroomtoevoer is, beperkte hitteafvoer...
ligt eraan... volgens mij is het al mogelijk wii games op je android apparaat te spelen.
maar dat is natuurlijk flauw , de wii was\is niet bepaald high end :)


Ik vind het ook een leuke prestatie! de PS3 is nog steeds de snelste console van het moment, het is toch cool om dat ding in je broekzak te kunnen steken?
met een hdmi out connector heb je dan altijd je draagbare console bij :)

Maar, was de tegra3 niet al in staat om de PS3 te evenaren (op lagere resolutie, ok ok ;) )
Sorry, maar je kunt nog nauwelijks DS spellen op je Android spelen.
XDA heeft een beta emulator, maar deze toonde aan dat de hardware nog niet sterk genoeg was voor mario cart.

edit: heb even de post gezocht, het grootste probleem is de FPU, deze is nu nog veel te zwak.
http://www.xda-developers...-on-android-early-stages/

[Reactie gewijzigd door DCG909 op 4 juli 2011 13:33]

emulatoren zijn (bijna)altijd veel trager
Maar hoe wil je anders een Wii spel o.i.d. spelen op een mobiel? tenzei je het geport krijgt?
Een spel wat gelijk is aan een Wii spel wordt hier bedoeld. Je kan wel over emulatoren gaan praten maar het is en blijft dan de vraag of die wel gebruik maakt van de GPU

Zoals je kan lezen in jou link wordt daar nu gebruik gemaakt van GPU simulatie
Sjah het is ook niet eerlijk om iets te vergelijken met een emulator, ik verwacht dat hij games met de grafische kwaliteit van een Wii bedoeld

Hierbij het bewijs dat dit echt allang mogelijk is:
http://www.youtube.com/watch?v=LAaZ6tkZQFI

Ik heb deze zelf gespeeld op een tablet en het is echt bizar hoe mooi dit eruit ziet. Je kan het vergelijken met Infinity Blade alleen dan met daadwerkelijke gameplay ;)

Dus je hebt gelijk, je kan nog geen DS of Wii games via een emulator spelen maar je kan wel games spelen die betere grafics hebben
Ik zoek dit spel net op, maar wat mij opvalt is dat dit een spel is wat min of meer gebouwd is rond de Tegra2.

De meeste mobieltjes hadden (tot de dual cores) geen tegra twee, en hebben dus niet zo'n extreem goede gpu aan boord.

ps. ik moet wel zeggen dat het er wel mooi uit ziet.
Dat klopt helemaal. Het is een game uit de "Tegra Zone" dus ontwikkeld en geoptimaliseerd voor de Tegra2 soc...

Het is dan ook niet helemaal 100% eerlijk van mij om deze vergelijking te maken omdat dr nog weinig mensen op de hoogte zijn wat mogelijk is met de huidige soc's (maar dr is al heel wat mogelijk :D)

[Reactie gewijzigd door Mellow Jack op 4 juli 2011 14:29]

Nintendo 64 werkt hardstikke prima op Android:
http://www.youtube.com/watch?v=clv7wNRH2kY&hd=1

Geef de Nintendo DS emulator ff optimalisatie tijd. Dat hadden oudere emulators ook nodig die nu super smooth werken.
Volgens mij vergeten mensen de PlayStation Vita...
ik denk dat het wel degelijk een prestatie is, althans als dit bericht gaat over de mali-/arm-chips ontworpen voor mobiele toestellen (smartphones, tablets, netbooks...).
maw als dit over de mobiele mali's gaat wilt dat zeggen dat je smartphone binnen dit en 2 jaar grafisch even krachtig is als een ps3, wat toch knap is.
Ik vind het wel leuk bedacht van ARM, maar als je ziet wat ATi doet met haar performance per watt, is het evenaren van de prestaties van een inmiddels 6 jaar oude X360 en 5 jaar oude PS3 niet bepaald wereldschokkend.

Uiteraard is het wel zo dat voor een embedded-apparaat het behalen van deze prestaties indrukwekkend zou zijn. Maar evengoed denk ik dat AMD tegen die tijd een vergelijkbare apu heeft gemaakt.
Uhh we hebben het hier over een chip die in mobiele telefoons gebruikt gaat worden. In 7~8 jaar tijd hebben ze het dus voor elkaar gekregen om de performance van een apparaat dat eerst 150+ watt verbruikte en een grote koeler nodig had terug te brengen naar een chip, die in combinatie met de rest van het systeem, nog geen 1% daarvan gebruikt, minimale cooling nodig heeft, en alsnog (bij draaien van zware apps/games) een paar uur op een accu dan draaien.
Pfff, de PS3 GPU is een Geforce 7800. De geforce 7800GTX werd in 2005 al gelanceerd en had een TDP van 81 Watt. De PS3 GPU is hiervan afgeleid, met iets mindere specs en iets lagere clocks en een kleiner procedee en zal dus nog minder verbruiken. Dus ARM heeft er dus een jaar of 8 over gedaan om de performance van <81 Watt terug te brengen naar dat van een mobiele telefoon. Whooptiedoo! :O

[Reactie gewijzigd door Snoitkever op 4 juli 2011 14:08]

Naar het verbruik van de gpu in een mobiele telefoon. Dan praat je toch snel over een verbruik van zeg 2 watt en dus een verbetering van een factor 40.

Je kan alles wel gewoon vinden maar dit zijn grote stappen.
Echter er zit uiteindelijk dus ook 8 jaar tussen. Stel dat men de performance per watt ieder jaar had verdubbeld, dan was er een verbetering geweest van een factor 256. Bij een factor 40 heb we het dus ongeveer over een verbetering van 2,5 per 2 jaar. Niet echt iets buitengewoons aangezien we in de gpu wereld regelmatig een verdubbeling van snelheid per generatie hebben gehad, en de nadruk de afgelopen jaren vooral ook steeds meer op power efficiency is komen te liggen.
Als de kracht van een XBox360 of PS3 op grafisch gebied door ARM geevenaard kunnen worden, dan betekend dat dat je zometeen op je iPhone FullHD kunt gaan gamen, maar dat je dat nu kunt op een fractie van het gebruik van een PS3 of XBox360.

Het is wel degelijk een prestatie om die grafische kracht in een embedded/mobile GPU te kunnen behalen. Ik heb er alle vertrouwen in, dat ARM het gaat redden om dergelijke prestaties te behalen tegen een fractie van het verbruik
Het kan nu al en ik zie het al helemaal zitten om dit op grafisch hoog niveau te doen. Standaard een docking in je huis die is aangesloten op je TV en een controller, je komt thuis, tablet of telefoon in de docking en lekker gamen met die hap :D

[Reactie gewijzigd door Mellow Jack op 4 juli 2011 14:00]

De oplossing moet komen van een combinatie van technieken, zoals agressief power management en meerdere gpu's die bijgeschakeld kunnen worden waar nodig, stelt de chipontwerper.
Geeft mijn inziens beetje vertekend beeld. Het bijschakelen van meerdere gpu's resulteert in juist meer verbruik. Alleen als men meerdere gpu's gaat gebruiken op een lagere snelheid maar met totaal dezelfde rekenkracht als een enkele op hogere snelheid kan er daadwerkelijk gesproken worden van reductie in verbruik.
het idee is juist dat de extra gpu's uitstaan als je het niet nodig hebt, wat dus ongeveer 80% van de tijd is, en als je echt even flink wil gamen ofzo, dan gaan ze aan, dus dat is juist heel goed voor het stroomverbruik
Nee, da's goed voor het idle stroomverbruik. Als dan blijkt dat je, als je het ding eenmaal goed op z'n mieter gaat geven (je wilt toch niet voor niets zoveel performance in je apparaat), binnen een kwartier de accu leeg trekt dan kunnen ze besparen tot ze een ons wegen - je hebt er nog steeds geen klap aan.
Je moet dit dan ook niet vergelijken met een pc maar met je telefoon.
Denk dat als je over anderhalf tot twee jaar zelfde graphics op je telefoon hebt als dat je nu op je ps3 of xbox360 hebt, dan denk ik niet dat ze achter de feiten aanlopen hoor.
Eigenlijk wel, gezien het feit dat de aanstaande handhelds dat ook al voor elkaar krijgen - de PS Vita komt aardig in de buurt van de PS3, en de 3DS gaat grafisch gezien ook al over de Wii heen en die is niet eens bedoeld om superieure graphics te produceren. Ik zou het zelfs erg teleurstellend vinden als we dan over twee jaar onderhand nog steeds niet op dat niveau zouden zitten.
binnen 18 maanden. Dan blijf je natuurlijk wel een beetje achter de feiten aan lopen.
Daarnaast vind ik dit een beetje een loze kreet als je er niet bij kunt vertellen hoe je denkt dat je deze snelheden kan halen.
tja dat kan elke budget gpu tegenwoordig wel die dingen zijn zwaar verouderd...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True