Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties

ARM heeft de Mali T658-gpu aangekondigd, een nieuw gpu-ontwerp dat tien keer zo krachtig moet zijn als het huidige topmodel, de Mali 400. De T658 kan uit maximaal acht grafische cores bestaan en heeft ondersteuning voor DirectX 11.

ARM MaliDe T658-gpu maakt, net zoals de T604 die het bedrijf een jaar geleden aankondigde, gebruik van de Midgard-architectuur. De Mali 400, het huidige topmodel, dat gebruikt wordt in Samsungs Exynos-soc, is gebaseerd op de Utgard-architectuur. Het grootste verschil is dat Utgard losse pixel- en vertex-pijplijnen gebruikt, terwijl Midgard een nieuwe architectuur heeft die door ARM 'tri-pipe' gedoopt is. Elke shadercore beschikt daarbij over een texture unit en een aantal alu's, vier in het geval van de T658.

Bij de T658 kunnen maximaal acht van deze shadercores gebundeld worden, twee keer zo veel als bij de T604. Ook het aantal alu's is ten opzichte van de T604 verdubbeld. In een uitvoering met acht cores zou de nieuwe gpu tien keer zo krachtig zijn als de Mali 400 en vier keer zo krachtig als de T604. Absolute getallen over de rekenkracht van de T658 geeft ARM niet, maar gezien het feit dat de T604 met de helft van het aantal shadercores en de helft van het aantal alu's al 68GFlops haalt, moet 250GFlops voor de T658 binnen bereik liggen. Wat rekenkracht betreft maakt dat de T658 vergelijkbaar met een GT 530 van Nvidia.

De T658 heeft ondersteuning voor DirectX 11, OpenCL 1.1, OpenGL ES 2.0 en OpenVG 1.1. Fujitsu, Samsung en LG hebben al toegezegd het gpu-ontwerp te zullen gebruiken. Wanneer de gpu terug te vinden zal zijn in apparaten is nog niet bekend, maar vermoedelijk is dit pas in 2013.

Moderatie-faq Wijzig weergave

Reacties (38)

PS3 / Xbox 360-achtige prestaties worden mogelijk, maar dan wel op lagere resoluties. De mali-gpu krijgt een hoop ruwe rekenkracht in aantal gflops gezien, maar er komt meer bij kijken. Zo moet je ook de geheugenbandbreedte hebben, genoeg cache om optimaal gebruik te maken van alle alu's, etc etc.

Daarbovenop moet je ook een voldoende snelle cpu hebben om die geen bottleneck te laten vormen. Nu gaan de cpu-cores ook met grote stappen vooruit, dus dat zal waarschijnlijk geen probleem zijn. Met de fabricage-technieken die eraan komen, is het zomaar mogelijk dat je ps3-snelheden haalt eind 2013.
Ik denk dat vooral geheugenbandbreedte een probleem gaat vormen, de CPU's van de huidige high-end SOCs zijn eigenlijk al belachelijk krachtig voor wat ermee gedaan word. Trek je een vergelijking met desktoptechnieken, dan zie je dat de Fusion APU's vrij snel geheugen vereisen om optimaal te presteren.

Op mobiele apparaten heeft snel geheugen nog weinig prioriteit omdat het tot op heden weinig prestatieverbetering oplevert. Met zulke snelle GPU cores gaan we hier waarschijnlijk binnenkort verandering in zien, de eerste dualchannel smartphone is er al (LG Thrill) al maakt dat met huidige SOCs zoals gezegd nog weinig verschil. Als de core z'n benen kan strekken met voldoende rap geheugen, dan liggen current-generation console graphics binnen handbereik op smartphoneresoluties.

[Reactie gewijzigd door Singular1ty op 10 november 2011 11:29]

Ongelofelijk hoe snel die ontwikkelingen gaan als het gaat om grafische power. Kunnen we dan echt PS3 like achtige prestaties gaan verwachten op Tablets en in smartphones binnen afzienbare tijd?
Ik vind het wat overdreven eigenlijk. Als je ziet hoe goed de graphics op mobiele apparaten nu zijn kan ik me 10x zo snel nog niet helemaal voorstellen.
Ik vind het wat overdreven eigenlijk. Als je ziet hoe goed de graphics op mobiele apparaten nu zijn kan ik me 10x zo snel nog niet helemaal voorstellen.
Dat ligt er natuurlijk ook aan hoe je eea interpreteert.
Als je voor 1 animatie 100 CPUcycles nodig hebt, en door dit te optimaliseren en door een groter deel in hardware af te handelen, en je hebt er dan nog maar 10 nodig, dan is het 10 keer zo snel afgehandeld, ook al zie je het niet direct als 10 keer zo snel op je scherm.

Deze versnelling heeft als voordeel dat je CPU (of SoC) sneller weer in idle kan, en hiermee stroom bespaart. Je kunt 2 kanten op. Of meer frames, of de bestaande hoeveelheid frames sneller/efficienter afhandelen.
"Of meer frames, of de bestaande hoeveelheid frames sneller/efficienter afhandelen."

Of meer detail.
Dat is denk ik meer op papier, dit soort uitspraken blijken meestal van de marketing afdeling af te komen. Hoeft vermoedelijk niet 10x meer FPS te verwachten, zal hoogsten 10X meer theoretische rekenkracht hebben, of ze dat ook vertaald krijgen naar 10x sneller games dat geloof ik niet. Dat lukt op de desktop ook niet. Denk dat je met 5x meer FPS al redelijk blij moet zijn. Misschien dat sommige games er amper voordeel bij hebben omdat de cpu het tegenhoud, of de ram of zo.
Rekenkracht heeft verschillende dimensies. Het is afhankelijk van de applicatie welk soort berekeningen relevant zijn. Je moet dus opletten dat je geen appels met peren vergelijkt. Daarnaast spelen andere factoren als opslag, bussnelheid en software ondersteuning / API een belangrijke rol.
En daar naast moet je zeker niet naar FPS kijken omdat dit totaal onzinnige getallen zijn een scherm zo als in je mobiele telefoon kan nu eenmaal het scherm met maximaal 60Hz verversen ook wel 60x per seconde. Met een framerate van 160FPS of Frames per seconde zie je dus niets meer dan met een framerate van 60 frames per seconde. Je scherm is simpel weg niet instaat om het scherm vaker dan 60x per seconde te verversen en dus is het verschil simpel weg niet merkbaar. Vandaar ook dat een vsync optie in de meeste games ingebouwd wordt en de games dus simpel weg niet vaker dan de vsync (in dit geval 60x per seconde) een nieuw beeld naar je scherm sturen.

Daar naast moet je niet vergeten dat als ik eenmaal instaat ben om op een simpele wijze meer grafische pracht en praal op een schermpje te toveren ik dat waarschijnlijk ook zal doen. Dit houd dus in dat je met nieuwe games de frame rate niet om hoog zal zien gaan ten opzichte van de voorgangers simpel weg omdat er veel meer op het scherm getoond wordt dan ooit te voren.

En inderdaad daar naast zijn er ook nog vele andere factoren die de snelheid bepalen. Als ik 20 gigapixels per seconde kan verwerken maar mijn geheugen is instaat om niet meer dan 10 gigapixels aan data aan te leveren dan kan ik maar bijster weinig met de extra rekenkracht, simpel weg omdat ik de data niet snel genoeg kan aanleveren.
Zelfs als mijn geheugen dat wel kan als ik de textures niet snel genoeg van de flash af kan krijgen en in mijn geheugen kan proppen dan nog kan ik die GPU niet voldoende data voeren om deze bezig te houden.

Als we er van uitgaan dat de data toevoer op alle vlakken voldoende is dan is er inderdaad ook nog het probleem met de software die dit geheel aanstuurt deze moet ook instaat zijn hier gebruik van te maken. Het klinkt gek maar vele games hebben een natuurlijke limiter ingebouwd die voorkomt dat een game "te snel" draait. Een heel goed voorbeeld hier van is de oude Mortal Combat die we vroeger op de 386 draaide. Veel mensen laden de game van af een RAM drive om deze lekker snel te maken.
Als je dat zelfde op een nieuwe computer doet dan kun je de game niet meer spelen omdat met dat je begint de game al gewonnen heeft. De game heeft namelijk geen snelheidsbeperking en draait dus zo snel mogelijk wat in het geval van een moderne computer betekent dat een gevecht niet meer dan een paar milliseconde duurt.

Omdat moderne games eigenlijk altijd een limiter hebben (vsync) is er een van maar ook de game play is vaak beperkt tot niet meer handelingen dan een mens aan kan omdat een computer van nu misschien goed bij te houden is maar de volgende generatie al lastig is met een zelfde algoritme en de daar op volgende generatie simpel weg nooit meer te verslaan zou zijn...
Het vergelijken van rekenkracht is dus de enige echte optie, je kunt dit niet echt naar een tastbaar vergelijk vertalen omdat er zo veel factoren zijn om welke reden dan ook invloed hebben op de ervaren snelheid voor de speler dat je allen kunt zeggen dat de theoretische rekenkracht een x aantal maal groter is dan de vorige generatie. Alle andere tests zijn of wel subjectief of wel beperkt door een of meerdere externe factoren.
"Een heel goed voorbeeld hier van is de oude Mortal Combat die we vroeger op de 386 draaide. Veel mensen laden de game van af een RAM drive om deze lekker snel te maken.
Als je dat zelfde op een nieuwe computer doet dan kun je de game niet meer spelen omdat met dat je begint de game al gewonnen heeft. De game heeft namelijk geen snelheidsbeperking en draait dus zo snel mogelijk wat in het geval van een moderne computer betekent dat een gevecht niet meer dan een paar milliseconde duurt."

Dat spel is dan slecht ontworpen. Een behoorlijk spel wacht na het renderen op een waitable timer voordat en een swap(framebuffer) genereerd wordt en in de tussentijd moet de frame gerenderd zijn. Ook de A.I. en physics moeten gesynchroniseerd worden met een ( echte ) timer. Het maakt dan verder niet uit wanneer je een snellere cpu / gpu gebruikt.
EEF hieronder heeft groot gelijk, de chip zal wel 10x zo krachtig zijn, maar wanneer er meer kracht beschikbaar is willen developers ook meer spektakel op het scherm toveren, waardoor de fps mss aper zullen stijgen. In ruil krijgt de gebruiker dan wel vlottere animaties, rook effecten,...
Simpel, denk bijv aan meer en betere animaties en phyisics en mooiere textures

Games op de mobile kunnen er inderdaad wel al goed uitzien, maar echt onder de indruk ben ik nog nooit geweest
dit ook de reden dat ik geen mobiel koop voor games.
als je nou ECHT mooie games krijg die ook ECHT leuk zijn
dan koop ik mischien wel een smartphone voor.

denk aan goede games als c&c3 tirbium wars. of andere leuke goed doordachte spellen
ipv soort "mini" games tegewoordig (angry births) of flash achtige games (tiny wings enz.)
als je die wilt spele ga ik wel www.spele.nl
Mooie is pas als je mobiel dus ook HDMI 1080P output zal hebben.

Mooie aan Android is dat je met een Bluetooth controller gewoon kan connecten ( theoretisch via een bepaald profiel )
Of via de USB poort.

Dan zou je een portable console hebben :)
Dat kon ik een aantal jaren geleden ook niet toen in met mijn PS one een spel op de beeldbuis speelde. Nu hebben wij bijvoorbeeld tv´s met Max full HD en er zal een tijd komen dat dit verhoogt wordt. en ook de mobieltjes moeten dit volledig ondersteunen.
Het hoeft ook niet 10x zo snel. Deze nieuwe gpu kan bv op 10% van de kracht draaien en zodoende een enorme besparing op de accu realiseren.
Als je kijkt naar die demo van de Tegra 3 van gisteren (dat ook een ARM is) dan ziet het er naar uit dat het een heel eind in de buurt komt.
nieuws: Nvidia introduceert Tegra 3-soc voor tablets en smartphones

En Nvidia is natuurlijk niet de enige die dit soort ontwikkelingen doet, allerlei ARM SoCs worden voorzien van steeds krachtigere GPU's.
Bijzonder interessant dat dit brute rekenvermogen vrijkomt voor mobiele apparatuur; dit maakt het gebruiken van zwaardere 'professionele' toepassingen ook veel meer mogelijk. Denk aan CAD/3D, etc. Verder mag wifi-beveiliging wel weer bijgewerkt gaan worden, want met dit soort brute rekenkracht op mobiele apparaten is elk netwerk met een half dagje te kraken, en dat kan toch niet helemaal de bedoeling zijn..
Sneller dan laptop chips zullen ze toch niet snel worden neem ik aan.
De dreiging bestaat dus al een heel eind...
Waarschijnlijk niet... Dit komt omdat de accu duur toch nog een factor is in het hele gebeuren. Leuk een telefoon die net zo krachtig is als een PS3, maar als deze binnen een uur leeg is dan bel ik liever met me telefoon. Tablets kunnen grotere accu's aan maar dan alsnog is het de vraag hoe lang je gebruik kan maken van je tablet.
Ik zou liever zien dat ARM door ontwikkelt en dat ze kunnen concurreren met Nvidia and AMD op de pc. Een extra concurrent zou interessant zijn voor de consument ivm de prijzen. Vindt het nog steeds jammer dat Intel hun Larrabee in de kast hebben gestopt.
PowerVR mag zich wel zorgen gaan maken, die SGX gpu begint echt achter te lopen.
De SGX heeft ookal directx ondersteuning (nog geen dx 11) maar echt achter lopen valt nog wel mee want deze chips komen pas uit in 2013.
Valt wel mee hoor...

De SGX in de iPad2 heeft bijv. maar de helft van de cores die de SGX543MP bied, namelijk 2 ipv 4 :) En die GPU is al een pak sneller dan de Mali 400, en dat kan dus ook nog verdubbeld worden door die 2 cores en bij te zetten... De PS Vita heeft de 4-core variant trouwens (2x zo veel power als een iPad2 dus) :)

Dus dat zou ongeveer de helft zijn van de nieuwste Mali, die pas over ~2 jaar uit komt (en wanneer die in apapraten terug komt zal nog een half jaar tot jaar duren) :) Tijd zat dus.

[Reactie gewijzigd door watercoolertje op 10 november 2011 12:39]

WOW, voor een SOC is zoiets bloedsnel (als het ze lukt).
Ik denk niet dat veel mensen het erg zouden vinden als ze hun mobiel aan de stroom moeten hangen (een of andere speciale meegeleverde splitter voor stroom en beeld) en dan gamen maar op de tv :p
Dit soort SoCs hoef ik nog niet eens te zien in mobiele apparaten. Wat denk je van integratie in een settopbox of een TV zelf. De mogelijkheden die je daarmee creŽert zijn nagenoeg eindeloos.
ARM SoCs zijn zeker in combinatie met Android een geweldig leuke combinatie, die lang niet meer enkel is voorbehouden aan telefoons en tablets.
Ah geweldig. Met DX11 ondersteuning betekent dat dit ideaal is voor een W8 tablet. Hierdoor hoeven we ons geen zorgen te maken om grafische prestaties.
Dat iets DX11 ondersteunt betekent nog niet dat het de features ook daadwerkelijk goed kan benutten. (zou hier geen starcraft 2 op willen spelen :P)

Toch wel vet om te zien dat de prestaties op papier in de buurt van de geforce 530 liggen. Nu nog maar even afwachten hoe de peformance in de echte benchmarks is.
starcraft2 is voornamelijk CPU gelimiteerd
Ik heb het verkeerd verwoord, maar ik bedoelde meer dat het optimale eruit wordt gehaald ipv het gebruikelijke dx9.
Wat een ontwikkelingen! Ik zie echter geen informatie over het verbruik. Als dit mogelijk is met een zelfde verbruik of iets meer stroomverbruik is dit echt fantastisch, en hebben we binnenkort geen consoles meer nodig! Controller bij je mobiel en tv en gaan!
Is Directx11 alleen voor Microsoft of mogen andere OS zoals iOS of Android hier gebruik van maken?

Lijkt me een grote sprong voorwaards voor Windows Phone als ze graphics code van PC games kunnen porten naar WP Mango.
Directx11 werkt alleen op Windows. Het is microsoft's eigen framework.
alles wat je met DirectX kunt kun je ook met Open-Source via OpenGL en OpenCL.
het is meer om een idee te geven voor de normale mens (aandeelhouders)
sommige aandeelhouders horen OpenGL/OpenCL en denken dat het gratis is.
Absolute getallen over de rekenkracht van de T658 geeft ARM niet, maar gezien het feit dat de T604 met de helft van het aantal shadercores en de helft van het aantal alu's al 68GFlops haalt, moet 250GFlops voor de T658 binnen bereik liggen. Wat rekenkracht betreft maakt dat de T658 vergelijkbaar met een GT 530 van Nvidia.
Uhmm 2x68 = 136 Gflops dat komt nog niet eens in de buurt van 250Gflops.
De clocks zouden dan twee keer zo hoog moeten zijn om dat te kunnen halen.
Dus eerlijk gezegd lijkt 250 me veel te veel als de T604 dezelfde architectuur heeft en de helft van het aantal shadercores.

Ik denk dat het dan eerder 150 wordt ipv 250.
Allemaal geweldig maar ik krijg de indruk dat de research en development afdelingen van deze bedrijven vooral bezig zijn met hun eigen bestaan veiligstellen zonder dat ze werkelijk beseffen wat de markt echt nodig heeft.
"Wat de markt nodig heeft" hoor ik je nu denken !?
Sure tablets en mobieltjes mogen sneller en zuinig worden maar is bellen met een quadcore zoveel beter dan met een single core alleen maar omdat de comfort core uiteindelijk alsnog het meeste werk doet ? (Tegra 3) en je zo twee a 3 uurtjes meer functioneren krijgt via de langere energie output ?!
Als ik zie hoe stompzinnig de mensheid nu al is door het overmatige gebruik van hun handhelds word ik alleen maar pessimistischer .... Lees: Nog meer treinwagons vol mensen in hun eigen vierkante quadcore wereldje tot aan hun eindstation..
Denk je trouwens werkelijk dat gameconsole producenten staan te wachten op versplintering van hun afzetmarkt door dit soort invloeden ?!
Mobiel fabrikanten die hun koek willen opvreten ? Overigens nooit begrepen wat Łberhaupt de lol is om te mieren neuken op de vierkante centimeters van een "gamingtelefoon of tablet "
Daar komt bij dat ik als gamer van het eerste uur niet moet denken aan kleine schermpjes, kleine knopjes, en een bel apparaat meer dan een bel apparaat.
Ik ben echt niet alleen ..
Ongeacht wat de jongeren onder jullie zullen denken en zeggen is de grootste groep nog steeds mijn generatie en die hoort vooral verwend te worden met apparatuur waar men gelukkig en tevreden groot mee is geworden en dat zijn niet mini-telefoons, mini-computers- mini tabletjes etc.

[Reactie gewijzigd door Scherpmes op 11 november 2011 08:46]

DOOOOOOOOOOOOM!!! (ach ja, die gekke jongen mensen ook altijd :Y) :z )
mensen bellen tenminste niet meer zo asociaal in de trein.

ach mensen klaagde ook over jongeren in de trein met boeken in de jaren 70.
zelf ook nooit jong geweest zeker? who cares? de wereld word er echt niet slechter op.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True