Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties

Chipontwerper Imagination Technologies heeft de PowerVR Series7 aangekondigd, gpu-ontwerpen die onder andere voor mobiele apparaten zijn bedoeld. De snelste variant, de Series7XT GT7900, bevat 512 cores. De nieuwe socs zouden tot 60 procent beter presteren dan de oude.

De nieuwe Series7-architectuur, die codenaam Rogue heeft meegekregen, heeft twee varianten: Series7XT biedt maximaal 512 alu-cores, terwijl de energiezuiniger Series7XE-variant is ontworpen met 16 of 32 alu-cores. De chipontwerper claimt dat de nieuwe gpu-designs bij grafische benchmarks bij gelijke kloksnelheid en clusteromvang tot 60 procent betere prestaties bieden dan zijn huidige Series6-ontwerpen.

Volgens Imagination Technologies kunnen de PowerVR XT-gpu's niet alleen gebruikt worden voor midrange- en high-end-mobieltjes en -tablets, maar ook in settopboxen, consoles en servers. De gpu's zouden onder andere hdr-rendering en 'realistische' 4k-texturing mogelijk maken. Het gpu-ontwerp kan overweg met 10bits yuv-kleurruimte. De XE- en XT-gpu's ondersteunen verder beide OpenGL 4.4 en OpenGL ES 3.1. Ook Open CL 1.2, een standaard voor gpgpu-toepassingen, wordt ondersteund. Ook bieden de nieuwe gpu's virtualisatiefuncties en optioneel ondersteunt de XT-variant DirectX 11. Wanneer de eerste socs zullen verschijnen op basis van de Series7-gpu's is nog niet duidelijk.

De PowerVR-gpu-ontwerpen worden onder andere gebruikt door Apple voor zijn A-serie van soc's en door Intel voor sommige Atoms. Ook Texas Instruments, AllWinner en MediaTek hebben licenties op het gebruik van de ontwerpen.

PowerVR Series7XT

Moderatie-faq Wijzig weergave

Reacties (34)

Ik vraag me altijd af als ik dit soort berichten lees ten nadele van wat hebben ze die sprong naar 60% betere performance gemaakt. Meer power, meer area of kleiner procede? In het artikel staat dat deze series7 architectuur een betere PPA (performance, power, area) heeft (ook wel figure of merit), maar er staat dan weer niet hoeveel deze is. Zonder deze informatie kan je vind ik vrij weinig zeggen hoeveel beter deze nieuwe gpu serie nu eigenlijk is.
Inderdaad.. Als het energieverbruik met 61% is gestegen is het zelfs een verslechtering en is het geen kunst aan.
Aangezien ze het hebben over een betere PPA betekend dit dat een stijging van 61% energieverbruik niet aan de orde kan zijn (of de area moet opeens veel kleiner zijn geworden). Dus waarschijnlijk ligt het energieverbruik lager dan 60% meer, maar dan is natuurlijk de vraag hoeveel lager. Als het energieverbruik slechts 10-20% is gestegen ten opzichte van de vorige generatie, is dit een mooie sprong vooruit (als je de bron mag geloven zijn er "significant improvements" dus mag je dit getal verwachten). Maar als het meer tegen de 40-50% aan ligt dan is het niet veel bijzonders. Dan betekent het dat ze gewoon veel meer transistoren er tegenaan hebben gegooid en dat waarschijnlijk de overhead van ondersteunende/uitvoerende delen op de chip gunstiger is geworden.
Sneller dan de vorige versie... Maar hoe snel is hij in vergelijking met een Adreno?
Ze claimen 60% meer architectural performance. Dus dat is met hetzelfde aantal clusters op dezelfde node. Een van de beste vergelijkingen is met de (enorm snelle) iPad Air 2, die een A8X SoC heeft. Deze bevat een PowerVR GX6650 GPU, dit is een 6 cluster configuratie uit de 6XT serie. Het 6-cluster model van de 7XT serie, de GT7600, heeft dus al 60% meer performance als het op dezelfde node (20nm) wordt gebakken. En die GX6650 blaast niet alleen de Andreno 330 (GPU van Snapdragon 800/801) volledig omver, maar hij is ook veel sneller dan de Adreno 420 (GPU van Snapdragon 805). Hierbij worden deze wel op 28nm gebakken, dus het is architectueel geen eerlijke vergelijking. Echter zal Qualcomm pas weer een antwoord hebben met de Adreno 430 die in de Snapdragon 810 terecht komt.

Het kan nu echter hard gaan. Als volgend jaar de 14/16nm FinFet nodes worden uitgerold zal het Apple's design team heus wel lukken om een 8-cluster configuratie hetzelfde te laten verbruiken als de huidige 6 cluster configuratie. Dat betekend dus dat een Apple A9X mogelijk 60% meer GPU performance heeft door architectuele verbeteringen, en nog 33% extra door 8 in plaats van 6 clusters. 1,6*1,33 = 2,13 maal de performance, dus weer meer dan een verdubbeling. En dan hebben we het nog geen eens over de 16 core configuratie gehad.

Om nog even de vergelijking met andere GPU's te maken: Imagination claimt dat de 6, 8 en 16-core configuraties sneller zijn dan de Xbox 360 en PlayStation 3, waarbij de 16 cluster configuratie zelfs sneller zou zijn dan de Nvidia GT 730.

En dan heb je ook nog de extra features die ondersteund worden. Zo wordt bijvoorbeeld het Android Extension Pack native ondersteund, wat onder andere Tessellation toevoegd aan Android, net als alle moderne protocollen
All these new added hardware capabilities ensure we have the right functionality required to support the latest feature set of the most popular graphics and compute APIs, including OpenGL® ES 3.1 + AEP, OpenGL® 4.4, OpenCL 1.2 FP, RenderScript, and DirectX 11.
Anandtech heeft een erg uitgebreid artikel hierover: Imagination Announces PowerVR Series7 GPUs - Series7XT & Series7XE
In de Apple iPad Air 2 zit de PowerVR 6XT, dus +60% op de benchmarks. Nou ja ongeveer dan.
Als de bewering klopt dan is er behoorlijk veel mogelijk met deze GPU. De nieuwste serie die in de Air 2 zit is al niet misselijk. De vraag is alleen, waar ga je het voor gebruiken? Met metal kan men de GPU al direct aanspreken waardoor videobewerking ineens een stuk sneller gaat. Er is echter een grens met wat je kunt doen op een scherm tot 9,7".
Daarnaast, als dit beestje wordt ingezet bij Apple, is er dan verschil bij de games? Het loopt al allemaal erg smooth met hoge framerates. Dus de toepassingen zijn me niet duidelijk, terwijl de accuduur ongetwijfeld eronder gaat lijden.
Deze chip is te gebruiker bij iedereen die dat af wil nemen. Heeft niet zo veel met Apple te maken, tot voor kort gebruikte Intel ook PowerVR chips en ook Samsung heeft ze ook gebruikt tot ze naar de Mali zijn overgestapt.

Anyway het kan nu allemaal wel smooth lopen met de huidige games, maar met deze GPU's kunnen games nog veel mooier, er kunnen meer polygonen gebruikt worden, hogere resolutie textures. Het is niet voor niks dat veel krachtigere videokaarten in de consoles niet eens 1080p op 60FPS aan kunnen en een iPad (of andere tablets) met een hogere resolutie wel smooth op 60FPS kunnen draaien. Dat is gewoon doro het weg laten van complexe zaken...

Daarbij is deze chip natuurlijk niet voor schermen tot maximaal 9.7 inch :)

[Reactie gewijzigd door watercoolertje op 10 november 2014 15:52]

Het loopt al behoorlijk smooth, maar dat betekent niet dat het ook smooth zal blijven als er grafisch meer getoond wordt. Het aantal polygonen die tegelijk in beeld kunnen zijn erg beperkt, dan heb je nog technieken als pixel shading, anti aliasing, dynamic shading, tessellation, etc die al dan niet gebruikt worden in de huidige games om alles smooth te renderen.
In plaats van te pushen naar prestatie zou de beperking van de TDP ook een welkome aanvulling zijn. Tegenwoordig voldoet de GPU / CPU voor de applicaties en is er meer vraag naar een betere accuduur. Settopboxen met mobile processoren en Atom processoren werken al erg prettig en die vragen weinig stroom en produceren weinig hitte.

Net zoals de ontwikkeling van de Snapdragon 805 Soc een flinke accu-verbetering met zich mee bracht. Daar moeten ze meer naar toe! :)
TDP is voor vnl mobiel spul erg van belang, voor instap settop boxen zal het weinig verschil maken.
Je akkuduur gaat per milliWatt hard achteruit bij mobiel, maar een huiskamer doos heeft meer marge.

Overigens heeft het AMD front dit soort ultra low power GPU spul al jaren onder controle :)
productreview: AMD A4-1200 review door trm0001
Cinebench 11,5 OpenGL: 7,18 ,Geschat Idle: 200 milliWatt ,Load: 700 milliWatt.

[Reactie gewijzigd door trm0001 op 10 november 2014 15:19]

Er worden hier twee dingen door elkaar gehaald. TDP staat niet gelijk aan verbruik. TDP is de werk temperatuur waar in het ontwerp van de chip rekening is mee gehouden.
Meer stroom betekend natuurlijk wel een hogere temperatuur. Maar het geeft niet direct aan hoeveel Watt de chip daadwerkelijk verbruikt, maar hoeveel hij aan warmte kan afvoeren.
Het daadwerkelijke verbruik is natuurlijk ook afhankelijk van hoe snel je hem klokt. Als je het lager klokt (wat wel gebeurt in de mobiele wereld) scheelt dat natuurlijk ook stroom. Ondanks dat de TDP hetzelfde blijft.
PowerVR moet ook wel met iets goeds komen want de meeste chips zijn voorzien van Qualcomms eigen GPU. Alleen Apple een andere grote speler maakt gebruik van PowerVR. Allwinner en MediaTek maken niet echt high-end chips dus daarin verwacht ik deze nieuwe serie nog niet direct.
Allwinner heeft alvast wel al de PowerVR 6 serie geintegreerd in sommige high-end versies van hun A3x SoC's.
In het artikel hebben ze het ook over eeid-range uitvoering. Dus wie weet....
Dit Betekend dat we grafisch zware desktop toepassingen kunnen gaan verwachten op de nieuwe generatie mobieltjes. Als ze delen van battlefield 4 nu al werkend kunnen maken op de huidige chips dan juich ik de toekomst alleen maar toe.
Om vervolgens je telefoon elke 2 uur te moeten opladen, weinig juichen vanaf deze kant.
Dan speel je toch gewoon niet.. Het betekend namelijk dat all toepassingen die je nu doet, waarschijnlijk ook 60% minder energie kosten (bij wijze van). Dus vooral niet gebruiken :Y)
Inderdaad. Maar ik zit dan te wachten op een docking station in je monitor waar je battlefield op speelt, met een controller of keyboard en muis natuurlijk.

Heb je geen desktop meer nodig en iedereen heeft zn private pc bij zich die hij in elke willekeurige monitor kan stoppen.

Het hoeft niet alleen maar een mobieltje te zijn als je er ook meer mee kan.
Maar bv een Battlefield op de iPad kan je totaal niet vergelijken met Battefield op een desktop pc. Dat ze het werkend hebben gekregen, wil niet zeggen dat het a) er net zo mooi uit ziet b) de framerates nog acceptabel zijn.
Als je kijkt naar deze nieuwe GPU's met een maximale rekenkracht van 1 TFLOP, vallen al in het niet bij een redelijke middensegment GTX670 met 2,7 TFLOPS. En al helemaal niet bij de huidige GPU's in bv de iPad Air 2 met rond de 0,3 TFLOP.
Wie weet, maar ook de pc markt staat daarin niet stil. En een tablet kan nooit de performance halen van een desktop, omdat je nu eenmaal koeling nodig hebt voor bepaalde prestaties. Neemt niet weg dat het een hele prestatie is hoe gevorderd de GPU in tablets al is. Voor de casual gamer zeker meer dan voldoende.
Zeker. En voor de kantoorwerknemer die de hele dag tabellen staat in te voeren, of voor flexwerkers die na de pauze een andere werkplaats hebben, een werkmethode waar ik touwens geen voorstander van ben maarja. Zo zijn er wel meer situaties op te noemen. De stroomkosten kunnen voor een bedrijf aanzienlijk kelderen als ze zulke zuinige pc hebben, ook al zul je wel meer moeten stoken.

Over koeling gesproken, er zijn al materialen (welliswaar nog in ontwikkeling) die zelfkoelend zijn, en daarbij, als het verbruik omlaag gaat zal er zowiezo minder gekoeld hoeven worden.

Maarja "En een tablet kan nooit de performance halen van een desktop" hier hebt je natuurlijk gelijk in. Ik bedoelde ook niet dat die desktop helemaal zou verdwijnen (ookal zei ik het wel zie ik net xD), ik zelf ben nogal gehecht aan mijn PC en ik zou niet anders willen. Maar voor een kantoormedewerker o.i.d. lijkt het me wel een goed alternatief.
Als werkpc zijn tablets zeker meer dan geschikt. Momenteel zijn we bezig met het testen van Dell Venue's, als vervanger voor de laptops. En toch wel handig, te gebruiken als tablet, laptop als je er een toetsenbord aan hangt en zelfs pc als je de speciale dockingstation gebruikt, dan werk je met normaal toetsenbord/muis en beeldscherm. En ze gebruiken een stuk minder stroom dan laptops/desktops. Uiteindelijk gaan de monteurs ze ook krijgen, als vervanger van de iPad en PDA.

[Reactie gewijzigd door RebelwaClue op 11 november 2014 19:54]

Als ik kijk in wat dit chipje ondersteund zou het wel eens een goed ding kunnen zijn voor die streaming platforms. DX11 en open GL/CL ondersteuning.
Mediateks nieuwste Octacore MTK6595 heeft net al een nieuwe GPU, de PowerVR 6200.

Aangezien ze het ook een lange tijd met die Mali 450 hebben gedaan denk ik niet dat ze hun GPU's snel gaan upgraden.
Ik vind het geweldig hoe ze die GPUs van die SoCs toch zo efficient kunnen krijgen ten opzichte van de prestatie. Hopelijk valt het verbruik mee van de GPU. Vooral als je ziet welke stappen Nvidia heeft gemaakt, ben ik benieuwd wat andere spelers kunnen doen.

[Reactie gewijzigd door Killkenny op 10 november 2014 15:04]

Dus deze gewoon half zo snel maken waardoor hij zuiniger is.
Dan is ie no meer als snel zat en gaat de accu langer mee.
Al die mehzen en snelheid s gewoon nutteloos.
2x 1 ghz of 4x 640 mhz is meer dan we nodig hebben en een mid range gpu kan alle games gewoon draaien als de rom goed is.

Dus waarom hebben we alleen telefoons die 5x sneller zijn en 3x meer gebruiken als opties?
Dus waarom hebben we alleen telefoons die 5x sneller zijn en 3x meer gebruiken als opties?
Root dat ding, zet er een tool op om de mhz aan te passen en je hebt de ultieme SoC naar jou wensen. De rest van de markt wil gewoon sneller en dat is dan ook waar de fabrikanten zich op richten...

Zelf heb ik liever zo snel mogelijk met de kanttekening dat ie wel 1 dag mee moet :)
Er wordt ook nog te weinig gedaan op gebied van throttling heb ik het idee.

Er zijn aardig wat onderzoeken geweest maar een fixed snelheid van 400 of 1000 mhz scheelt echt enorm veel in verbruik (bron: http://www.cs.binghamton.edu/~zhangy/paper/hotpower13.pdf). Meer snelheid is leuk maar er moet nog veel meer gedaan worden met het gebruik er van. Misschien is meer energieschema's (Accuduur, Prestatie, gebalanceerd) één van de oplossingen.

Toch is het wel zo dat het scherm nog altijd 1 van de grootste verbruikers is. Vaak efficiëntiewinst bij een SoC minimaal t.o.v. een zuiniger scherm.
na wat ik gezien heb van tests is het verbruik als volgd:

3g gaming ,gpu gebruik > scherm op hoge stand > gps > cpu > mobiel netwerk > scherm op lage stand .

zo kan ik maar 4 uur gamen in 3D 6,5 uur in 2D browsen via 3g 7 uur 45 browsen via wifi met veel activiteit 8,5 a 9 uur, en een slideshow bekijken wel 14 a 16 uur afhankelijk van de gebruikte animatie.

scherm aan is dus niet een heel grote verbruiker maar zaken die ernaast komen wel.
zo haalf mijn lg 4x hd gemixed nog geen 3,4 uur scherm aan maar in 2d apps en tekst enz wel 5.5 uur en 2 dagen standby. maar zet ik de 3g uit en 2g ui haal ik ineens 21 dagen standby!
zon drainer is mobiel netwerk dus.


en ja throttling is een problem er zijn teveel apps die gewoond e mac van de cpu en gpu verbruiken terwijl ze dat helemaal niet nodig hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True