Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Imagination presenteert IMG B-gpu's met maximaal 6 teraflops aan rekenkracht

Imagination heeft zijn IMG B-serie met gpu's aangekondigd. Deze chips komen onder licentie beschikbaar en kunnen in chips van derde partijen worden geïntegreerd. Volgens Imagination haalt de gpu-serie tot 6Tflops aan rekenkracht, afhankelijk van het model.

De IMG B-serie is de opvolger van de huidige IMG A-serie, die in december 2019 werd geïntroduceerd. Ten opzichte van die voorgaande chips zou de gpu 30 procent minder stroom verbruiken en het chipoppervlak zou met 25 procent zijn verkleind, claimt Imagination. De IMG B-serie is de elfde gpu-generatie van het bedrijf. Volgens het bedrijf kunnen de verschillende gpu's in de B-serie onder andere gebruikt worden in mobiele apparaten, iot-producten, microcontrollers, automotive of andere apparaten. De chips komen beschikbaar als IP, wat wil zeggen dat de gpu's onder licentie beschikbaar komen en door derde partijen in hun producten verwerkt kunnen worden.

Afbeelding via Imagination

Met de nieuwe chips introduceert Imagination onder andere een nieuwe multicore-architectuur. Het bedrijf spreekt hierbij over 'decentralised multi-core'. In een soort whitepaper legt het bedrijf uit dat de verschillende cores afzonderlijk van elkaar kunnen werken, zonder dat ze afhankelijk zijn van een centrale chip. "In zijn simpelste vorm kunnen de verschillende cores ieder gezien worden als losse gpu's, maar met de mogelijkheid voor cores om gezamenlijk te werken aan berekeningen." De chips zijn 'losjes' aan elkaar gekoppeld, en delen alleen command- en tile buffer-lijsten in het gezamenlijke geheugen. Dit ontwerp kan ook worden toegepast in chiplets, meldt Imagination.

De IMG B-serie krijgt verder ook Imgic mee. Dat is een techniek waarmee afbeeldingen in framebuffers gecomprimeerd kunnen worden. Gebruikers kunnen hierbij kiezen uit vier verschillende compressieniveaus. Zo spreekt Imagination over een lossless modus en bijvoorbeeld een 'extreme bandbreedtebesparende modus'. In die laatste modus wordt de bestandsgrootte gemiddeld met 75 procent verkleind.

Imaginations 'decentralised multi-core'-ontwerp. Afbeelding via Imagination

Het bedrijf komt met vier verschillende subseries in de IMG B-serie, die ieder een eigen usecase hebben. Zo noemt Imagination de IMG BXE-serie. Die gpu's zijn voornamelijk bedoeld voor het aansturen van schermen en 'entry-level gaming'. De BXE-chip ondersteunt resoluties vanaf 720p tot 8k. Imagination komt ook met de BXM-serie, die een 'balans tussen fill rate en compute-prestaties' bieden. Het bedrijf stelt dat deze chips bijvoorbeeld geschikt zijn voor midrange-mobiele apparaten of UI-applicaties zoals digitale televisie en settopboxen.

De IMG BXT is verder de meest high-end gpu die Imagination in deze serie aanbiedt. De chip krijgt vier cores die gezamenlijk een rekenkracht van 6Tflops halen. Volgens een whitepaper wordt de BXT-gpu geproduceerd op een 7nm-procedé en heeft de chip een kloksnelheid van 1,5GHz. De BXT-chip beschikt over vier cores. Het bedrijf komt verder met een IMG BXS-gpu, die voornamelijk bedoeld is voor automotive. Die chip kan gebruikt worden voor infotainmentsystemen, digitale cockpits of human machine interfaces. Deze gpu voldoet verder aan de ISO 26262-standaard, zo meldt Imagination.

Door Daan van Monsjou

Nieuwsposter / Videostagiair

14-10-2020 • 10:29

13 Linkedin

Submitter: TheVivaldi

Reacties (13)

Wijzig sortering
Jammer dat ze de naam PowerVR hebben veranderd naar IMG. Bij PowerVR moet ik meteen denken aan zowel hun eigen API als de Dreamcast van toentertijd en mijn eerste Android telefoon de Samsung i9000(Galaxy S(1)).

Altijd een beetje de underdog gebleven met, soms, toch redelijk vergelijkbare prestaties tov de top.
Ik vind het ook nog steeds wel vreemd dat ze geen PC GPUs meer maken. Naar mijn denken hebben ze genoeg te bieden in die markt tegenover AMD en Nvidia. Misschien als de underdog van de underdog, maar dat ze die licenties ook voortzetten. Ik zou dan denken dat een klant als Apple voor diens laptops en desktops liever dezelfde GPU architectuur wil hebben. Dat denk ik tenminste dat dat zo was sinds ze naar x86 overstapten tot nu dus, met hun eigen chips (die ook Imagination gebruiken).
Kunnen ze wel concurreren met AMD en Nvidia? Een Nvidia's RTX 3080 haalt 30 teraflops en dan is 6 teraflops niet veel. Dat haalden AMD en Nvidia 6 jaar geleden met PC GPUs.
Een 3080 doet dit met bijna 300 watt op een plakkaat van een chip. De chip van Imagination is een fractie daarvan, die is omlaag geschaald voor de klanten die zij typisch hebben. De chip van een 3080 zou je ook onmogelijk in een telefoon kunnen stoppen.
Als ze in die markt zaten hadden ze gewoon voor die 30TFLOPs kunnen schieten, maar dat is natuurlijk maar speculatie. Ze maken hun huidige ontwerpen met een zekere markt in het oog, zoals auto's, telefoons en data centrales die allen iets nauwer naar energieconsumptie kijken dan de gemiddelde gamer.
Een Radeon VII kan ook bijna 30tflops halen en is in spellen toch beduidend langzamer. Tflops is een waardeloze vergelijking dus daar kun je beter mee ophouden. Wat Nvidia doet is een architectuur leveren die is toegespitst op wat spellen vragen en dat werkt. AMD had een architectuur die teveel afweek en daardoor wel heel futureproof was en in sommige OpenCL workloads idioot snel, maar bij release slecht uit de verf kwam. Een aantal van de fikse verbeteringen in de RTX3000 series waren al standaard in AMD's GCN. Maar de meest populaire kaart om mee te minen, was uiteindelijk een Rx470/Rx480 die sneller was dan welke Nvidia kaart van toen en de jaren erna. Ondanks dat het in spellen andersom was.

Er is dus best een kans voor een nieuwe GPU bakker als ze met de juiste gespecialiseerde ontwerpen aankomen en goed nadenken. Intel ziet die kans ook al met hun Xe series. De vraag is op welke markt richt je je eerst, GPGPU of spellen.
Een Radeon VII is maar 11-13 TFLOPS in single precision, dit is de metric waar je naar kan kijken voor de meeste spellen. In half precision (16-bits floating point) is dat in boost modus 27 teraFLOPs, dit is alleen nuttig in primitive shaders, deep learning en andere randvoorwaarden die dus niet genoeg in spellen aan bod komen om een significant verschil te maken.
AMD's GCN architectuur heeft 64 FPUs per CU, waardoor een shader dus optimaal zou werken als die dat helemaal kan vullen. Mocht dit minder zijn, wordt de GPU rekenkracht niet verzadigd. Bij Nvidia en RDNA is dit dus 32 per CU (uitzondering huidige Nvidia architectuur, maar die is even te gecompliceerd voor dit verhaal). Shaders kunnen specificeren hoeveel instanties per CU er worden gedraaid. Op basis van Nvidia's documentatie kozen een aantal ontwikkelaars (of met een Nvidia patch) voor 32. De helft van een GCN CU. Dat is een van de redenen waarom RDNA zoveel beter spellen draait. Soms kan het gewoon niet anders en krijg je overflow, stel er zitten 65 taken in de pipeline, dan op GCN heb je 63 FPUs die niet worden gebruikt. Op RDNA zijn dat er maar de helft; 31.
GCN deed die 64 taken uitermate goed parallel, maar dan moesten ze wel verzadigd worden.
De RX480 was efficient om mee te minen middels diens lage prijs, en redelijke energieverbruik en opbrengst. Als je meer neerlegde voor bijv. een 1070 duurde het gewoon iets langer om de kaart terug te verdienen, maar niet met veel, de 1070 was dus toch wel sneller dan de 480 met minen, maar ook duurder.
Een deel is ook gewoon de markt. GCN 2 had async compute wat nu dus een norm is, maar destijds werd het te weinig gebruikt. Dit werkte ook beter met AMD door diens bredere FPU bus, want meer taken konden in een keer op een enkele CU verdeeld worden onder diens FPUs. Nvidia had hier een hack voor die in eerste instantie gewoon het opdelen van de taken was in meerdere cycles, wat potentieel zelfs trager was, maar even dat terzijde. In essentie is gaming gewoon compute. Het is gewoon meer demanding in sommige instructies en memory modellen dan andere soorten compute. Nvidia probeert hun standaard enterprise compute ook te combineren met gamet d.m.v. o.a. hun DLSS, wat gewoon AI inference is, maar in spellen gepropt en verrassend goed werkt. Ray tracing is ook een oude workload, die veel meer met compute te maken had dan games tot nu.
Als hun GPU voldoende schaalt zouden ze best concurerend worden, aangezien dit een mobile GPU is die je bv. in telefoons aantreft. Als je hier dus een grotere GPU van maakt met een vergelijkbaar powerbudget die NVIDIA en AMD gebruiken ben ik benieuwd naar wat voor performance ze zouden kunnen leveren. Ter vergelijking de GPU in bv de AMD Ryzen 3400G leverd ongeveer 2 teraflops en zelfs dat is een grote GPU in vergelijking met die van Imagination.
Die 30 Tflops staat misschien gelijk met maar 20 Tflops van Turing. Je kan dus nooit die vergelijking maken, Ampere is minder efficient met het aantal TFlops wat hij heeft.
De PC sector is behoorlijk competitief ingesteld en alles is mogelijk iets te makkelijk te vergelijken. Ze kunnen met hun huidige line-up het hoofd boven water houden. Dus ze prefereren mogelijk een wat rustiger vaarwater.
Er is natuurlijk erg weinig vraag naar losse grafisch kaarten/chips met lage prestaties. Dit soort GPUs zitten natuurlijk al een tijdje in de CPU/APU gebakken voor zowel desktops als laptops. Denk niet dat OEMs erop zitten te wachten.
Straks krijgen we auto's die Crysis kunnen draaien.


Om te kunnen reageren moet je ingelogd zijn


Microsoft Xbox Series X LG CX Google Pixel 5 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True