Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: SiliconStrategies

SiliconStrategies bericht dat Imagination Technologies in 2003 terug zal komen met een update van de PowerVR videotechnologie. Het bedrijf maakt zelf kaarten noch chips, en toen STMicroelectronics (die de PowerVR series 3 technologie gebruikte voor de Kyro en Kyro II) zich terugtrok uit de markt voor videokaarten werd de ontwikkeling van series 4 stilgelegd vanwege gebrek aan kopers. In plaats daarvan heeft men extra aandacht besteed aan de mobiele versie van series 3 - PowerVR MBX - en heeft men de release van series 5 vooruit geschoven. De nieuwe technologie zal net als de vorige iteraties verschillen van die van nVidia, ATi en Matrox. Het tile-based systeem zal dit keer echter bestaan uit n primaire pipeline met daaraan losse hardware accelerators gekoppeld, die in of uitgeschakeld kunnen worden naar wens. Imagination hoopt volgend jaar een 0,13 micron ontwerp voor de core te kunnen leveren, maar het is onduidelijk of er al iemand is die een licentie wil nemen voor gebruik op een AGP-kaart:

Imagination Technologies logo "As well as class-leading functionality, there will be some unique features enabled by tile-based rendering," said Metcalfe.

Tile-based rendering is the approach Imagination has taken since 1996, when as VideoLogic, the company introduced its first series graphics chips. Tile-based rendering has advantages in terms of reducing image-processing complexity, according to Imagination.
Moderatie-faq Wijzig weergave

Reacties (33)

brum103:
deze kaart lijkt mij te gaan floppen,
want een kaart met "andere" technieken zal volgens mij niet worden ondersteunt door alle software makers.
Nonsens. De Kyro II die ik heb (gratisch van m'n broer :) ) wordt gewoon volop ondersteund. Ik heb nog niet n spel gehad dat niet werkte op mijn Kyro II. Dus met softwaremakers heeft het volgens mij betrekkelijk weinig te maken. Het is meer de architectuur zelf die ingewikkeld is, lijkt mij.
Het is iig niet vergelijkbaar met verschillende rendermethoden als Glide, OpenGL en Direct3D enzo. Drvoor moet software-ondersteuning zijn.
Alles werkt ja, maar er ijn ook wel wat problelem, voor SuperBike 2001 moest je een patch downloaden, en Giants werkt niet goed vanwege iets met de Z-Buffer.

Ik denk iig dat ik niet een Kyro III ga kopen, maar hierna een GeForce of een Radeon.
Ja, de Kyro II mist inderdaad wat features, maar als je je bedenkt dat het verschil met een GF2, behalve T&L minimaal is, goedkoper, en vaak ook nog sneller, dan was de keuze snel gemaakt. Dat ie nu door missende features die toen toch never werden gebruikt nu een paar spellen niet gedraaid kunnen worden, kan je niet zomaar er vanuit gaan dat de Kyro III (intussen zitten we in de post-GF4 tijdperk) dat ook niet goed doet.
Ik hoop het ook.

Laat ik zeggen dat ik "professioneel" (werk) al eens in aanraking ben gekomen met de mensen van Imagination Technologies. Heb er zelfs een rondleiding gehad, ken er zelfs wat mensen persoonlijk. Leuk bedrijf, maar nadeel is dat het nog steeds een start-up is, dus als ik artikelen op Anandtech lees over Nvidia dan vraag je je af hoe blijven ze bij.

Grote voordeel van IMG's tilerendering systeem is bandbreedte. Ze gebruiken minder geheugenbandbreedte dan de concurrentie. Echter als de market gedomineerd wordt door Nvidia en ATI die steeds snellere memory dan wel hogere clockrates dan wel bredere memory bussen gebruiken, koop je daar weinig voor.

IMG's kracht zit vooral in slimme oplossingen voor weinig geld. Budget markt ? Nee, ik denk dat ze het nog steeds ver in de mobiele markt kunnen schoppen. Quake3 op je mobieltje ? Tja, sommige mensen willen dat eens...
Op een gegeven moment zit je toch met grenzen van het haalbare.
DDR was een leuke oplossing om de bandbreedte-honger van Ati en nVidia te stillen. Maar wat volgt er nu?
Je zal nu met slimme oplossingen moeten komen.

Tile based rendering was zeker niet het snelste toen de PowerVR3 verscheen, maar had wel de beste prijs kwaliteit verhouding imho. Gewoon standaard SDRAM. Je GPU kan dus wel 2 keer zo snel als je gewoon DDR zou pakken. En als ie 2x zo snel zou zijn geweest dan had ie de GF2 er zeer zeker aan de kant gezet.
Ik snap niet dat ze het blijven proberen, het is toch al keer op keer bewezen dat title based techniek alleen niet genoeg is. Dit bedrijf zal het nooit winnen van ATi/nVidia/Matrox.

Ze zouden wel een slag kunnen doen in de budget markt, maar dan moeten ze de prijzen ook goed naar maken, of ze dat kunnen doen...
Tilebased rendering is absoluut niet ondergeschikt aan de technieken die op dit moment door nVidia en ATi worden gebruikt. Het grote nadeel van tilebased rendering is dat het (voor zover ik het begrijp ;)) enorm ingewikkeld is en dus moeilijk te implementeren.
3dfx (en later ook nVidia) heeft een hele smak geld betaald voor Gigapixel, een bedrijf wat bezig is met het ontwikkelen van tilebased render methoden. 3dfx had vertrouwen in deze technologie en was van plan het te gaan gebruiken in haar nieuwe producten. Op dit moment gaan er ook al geruchten dat nVidia (dat dus ook Gigapixel technologie van 3dfx heeft gekocht) de technologie in de toekomst wil gaan gebruiken.
Ik zeg niet dat de techniek ondergeschikt is, maar alleen de techniek op zich lijkt mij niet genoeg...

Andere video producten gebruiken veel meer verschillende techniek, voeg je daar ook nog eens Title Bases Rendering aan toe, ja dan ben je wel goed bezig...
laat maat zien wat ze kunnen, nvidia en ati stonden ook niet in 1 dag als top.

niet zo negatief zulke ontwikkelingen brengen technologie op.
Wat ik begrijp uit dit stukje, is dat ze niet echt een hele nieuwe techniek met zich mee brengen maar weer voort gaan breien op de techniek die ze eerst ook gebruikte, en gewoon redelijk geflopt is..

mij lijkt dat niet de slimste zet,

Als je kijkt naar ATi, de kaarten die ATi heeft geintroduceerd bevatten een hele hoop functies, een hele was lijst, een paar jaar geleden volgens mij zelfs meer als nVidia, maar ATi is in de laatste jaren flink bezig geweest, bestaande technieken goed verbeterd, en een hoop nieuwe technieken toegevoegd aan hun kaarten, en kijk waar ze nu zijn...

Ik zie dit PowerVR dus niet doen.
Je vergeet een ding, en dat is dat wat verkoopt niet altijd de beste technologie is.

Kijk naar de Gravis UltraSound...toendertijd technisch de beste geluidskaart die er was, en eigenlijk pas door de Audigy verbeterd (en die werkt vrij cpu intensief...dus eigenlijk voor gamers een kutkaart). Maar de Ultrasound was te goedkoop (jawel!), en werd nooit een standaard...omdat te weinig mensen hem kochten ('dat kan niet, zo goedkoop en dan zo goedkoop...moet vaporware zijn') en er dus geen stabiele ondersteuning voor kwam.
Kijk dan naar de allereerste Nvidia kaart: die had nog hardwarematig support voor curves (splines en volgens mij ook nog NURBS)...een veel betere aanpak voor realistisch 3d. Maar dankzij M$ (DirectX werkte toen slechts met polygonen) werd die techniek eruit gehaald, omdat niemand het ondersteunde.

Beetje lang verhaal, maar ook PowerVR hoort in dit rijtje thuis: hardwarematige LOS culling, een goede/betere techniek dan de huidige (of in ieder geval als aanvulling waardig) die niet ondersteund wordt.

PowerVR heeft gewoon een sterke technologie, die eigenlijk toegepast zou moeten worden (net als de NURBS van Nvidia, en zoals 3d kaarten eigenlijk ook fractal versnelling zouden moeten hebben [of over zouden moeten stappen naar voxels...over een paar jaar :)]), maar genegeerd wordt. Ze hebben alleen blijkbaar genoeg geld om een Microsoft uit te halen en het telkens terug te brengen totdat het geaccepteerd wordt.
Ja je hebt gelijk, PowerVR heeft een sterke techniek in handen, toch denk ik dat als ze slecht alleen hun kaarten op die techniek baseren, er nooit goede ondersteuning zal komen, laat staan dat ze doorbreken. Als ze nu eens zouden proberen om hun techniek goed te laten samen werken met de bestaande technieken, zoals ik hierboven ook al ergens zeg, dan ben je wel erg goed bezig in mijn ogen.
De reden dat Gravis kaarten nooit echt aansloegen was omdat in de DOS tijd spelletjes altijd Sound Blaster geluid ondersteuning hadden, en vaak Ad Lib. Een geluidskaart moest dan ook een Sound blaster kunnen emuleren, sommige lukte dat aardig met hardware emulatie, Gravis gebruikte alleen een software emulatie modus die ervoor zorgden dat de compatibiliteit met veel spelletjes erg slecht was.

Toen Gravis eenmaal de naam had van problematische kaarten waar de helft van de spelletjes niet lekker op draaiden was het met hun geluidskaartenafdeling snel afgelopen. Maar het waren behalve de soundblaster emulatie wel fantastische kaarten.
off-topic reactie op Mac D:
"Kijk naar de Gravis UltraSound...toendertijd technisch de beste geluidskaart die er was, en eigenlijk pas door de Audigy verbeterd (en die werkt vrij cpu intensief...dus eigenlijk voor gamers een kutkaart). "

De Audigy heeft al een tijdje met geupdate driver 0% CPU belasting in windows XP. In win98SE was dat al eerder het geval. De audigy eet CPU cycles als je b.v. een EAX advanced HD spel speelt zonder die nieuwe drivers. Met de nieuwe drivers heb je hardwarematige versnelling vna OpenAL en is het probleem verholpen...

de Live series daarentegen lusten tot 30 % van je CPU ...argh
Tja als je het bekijkt in de juiste tijdspanne Series 3 (kyro I en II) vs Gforce 2 vs Ati Radeon (2??), moet ik zeggen dat de Kyro II goed presteerde. Zelfs nu draait het trouwe beestje de spellen nog redelijk tot goed. En als ik dan kijk naar de prijs van een Kyro II of een Gforce GTS toen der tijd. Is voor mij de Kyro helemaal zo slecht niet.

Alleen jamme dat series 4 nooit het licht (zal) heeft gezien, waardoor de concurentie PowerVR voorbij ging.
De kyro series reageerden nogal grillig op games.

De sterke punt van deze kaarten was de redelijke doorschaling naar hoge resoos.
maar presteerden tussen Gf2mx tot Gf2U afhankelijk van game en reso.

Nu wordt T&L steeds belangrijker en blijkbaar is die tech moeilijk te rijmen met T&L en liepen de deadline mis met hun KyroIII

De nadeel van de kyro keuze was ook het antieke productie prosces en traag geheugen wat de architektuur voordeel weer te niet doen net alsof ze alleen maar wilden bij blijven ipv overtreffen.

Dus een slimme techniek wat weer gecompenseerd wordt door achterstand op andere vlakken.
Er is een tijdje terug een Kyro II SE uitgebracht, feitelijk een Kyro II met hardware T&L.
Dus ze zijn op de goede weg...
Volgende stap is dan programmeerbare shaders, en dat gaan we dus terugvinden in deze serie 5.

PowerVR loopt nu achter helaas, maar ik heb hun technologie altijd zeer interressant gevonden, voornamelijk omdat de fillrate zo verschrikkelijk veel hoger ligt.
In hun geval werd het gebruikt om met hele goedkope onderdelen (bv. 175 MHz SDRAM) een middelmatig tot goed presterende kaart af te leveren.

Maar als ze nu eens 'momentum' zouden kunnen krijgen... Stel je voor wat deze technologie kan doen als je het toepast voor high-end.
Lijkt me zeer interessant.
Anders hoop ik dat ATi of nVidia wat van hun technologie gaat toepassen.
DE POwer V3 was slechter dan de toen bestaande GPU's, de 4 heeft nooithet licht gezien en de 5 zal de concurrentie eens doen versteld staan? maarja misschien hebben ze wel iets heel goeds dat ze het aandurven. we zien wel
Slechter ?
In de meeste benchmarks trager bedoel je.
Maar als je dan kijkt, wat een goedkoop geheugen erop zat, en wat voor een rendement daaruit werd gehaald.

Het alleen renderen van dingen die je ook daadwerkelijk ziet op je beeldscherm, natuurlijk DE manier zoals het eigenlijk zou moeten(je wilt het immeers zo efficient mogelijk doen).
De PowerVR 3 kwam alleen net een half jaar te laat op de markt. En was toen al allang voorbij gestreefd door de bandbreedte monsters van nVidia.
Als je een voorbeeld nodig hebt: ATI
Het KAN wel hoor. 't Is alleen redelijk onwaarschijnlijk. Maar dat zien we wel als't zo ver is.
er zit in de ps1 ook een gpu van powervr

edit: ja dreamcast dus :) nec powervr
Je bedoelt de DreamCast zeker
Het is duidelijk dat jullie bitter weinig van de Kryo afweten... Powervr was een van de pioneers van de 3D.
EN ze hebben HEEL goeder kaarten. Enkel het geld ontbreekt. Ik heb persoonlijk De Kryo II waar ik erg verrast werd voor de prijs die ik hem gekocht heb. 125.
WAt betreft Nvidia. als ze die technologie ook zouden gebruiken (gigapixel) dan denk ik dat de meest onder jullie het met open armen het zullen aanvaarden. En zeggen Wooow superkaartje....mja mensen zijn mensen met hun voorkeuren en beinvloeding.
Mja... Ik heb een Kyro II en ik ben eigenlijk ferm teleurgesteld door dat kaartje. Zelfs met de 64MB aan boord kan ie niet tippen aan de Geforce2 MX 32MB in de andere pc.
Een onnozel spel als Half-Life kan ie niet eens fatsoenlijk trekken: 7.2fps :?
Dat kan toch niet h. M'n Voodoo2 + S3 Virge haalden daar met gemak 60fps.

Op DVD/DivX vlak doet ie het al stukken beter.
Van 3D Studio Max heeft ie ook geen koek gegeten |:(

Ik loop toch niet meer te springen om een Kyro of andere PowerVR gpu te kopen.
Stom dat 3dFX er de brui aan heeft gegeven :'(
?? dan heb je wel iets fouts hoor.
Ik zou nioet meer zeggen hoeveel ik in halflife had maar zeker geen 7.2. speelde toen op 1024x768.
Divx ook geen probs.
3d studio max daarentegen. is het kaartj eniet voor gemaakt. Wegens de manier dat die programma geprogrameerd is.
Hij verpicht nl. al de polygonen te renderen wat de tilebaserender tegenspreekt.
maar ja het kaartje is nooit bedoeld geweest voor zulke programma's
ken 1 persoon die dezelfde prob had als jij. maar hij had en powercolor kryoII. die zijn van super slechte qualiteit. Hun Bios sta verkeerd ingesteld. kunt beter de bios van vivid flashen; mar ja dat is ook niet aangeraden.
deze kaart lijkt mij te gaan floppen,
want een kaart met "andere" technieken zal volgens mij
niet worden ondersteunt door alle software makers.
maakt niet uit of die andere technieken door softwaremakers word ondersteund. Dit is een techniek op het harwarematige niveau, zolang de gpu compatible is met de directx api dan is er geen probleem
Huh? Net zoals de andere kaarten presenteert deze zich als een DirectX / OpenGL accelerator: voor programmeurs is ie (grotendeels, niet ieder kaart heeft zelfde features) hetzelfde als anderen, of je nu een tnt, geforce, radeon of kyro heb, want daarvoor zorgt een driver.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True