Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties, 751 views •
Bron: 3dconcept.ch

Het begint er steeds meer op te lijken dat de Kyro III een zeer geduchte concurrent voor huidige en toekomstige producten van nVidia en ATi wordt. David Harold van Imagination Technologies bevestigt in het huidige nummer van het Duitse blad PC Action namelijk dat deze kaart niet alleen T&L krijgt, maar ook programmeerbare pixel- en vertexshaders. Verder kon hij melden dat er vier pipelines aanwezig zijn op de chip en dat DDR geheugen ondersteund wordt. De kloksnelheid zal dankzij 0,13 micron technologie op 250MHz liggen en daarmee wordt een fillrate van één gigapixel bereikt, twintig procent meer dan een GeForce3 onder ideale omstandigheden kan halen. Ter illustratie: de huidige Kyro II met zijn 350 megapixels heeft in veel gevallen geen moeite om mee te komen met de GeForce2 Ultra. Kyro III wordt eind dit jaar verwacht en zal over een paar maanden nog worden voorgegaan door een soort Kyro II Ultra:

PowerVR Kyro logo Die Katze ist aus dem Sack. David Harold, Press-Relation Manager von Imagination Technologies, verriet gegenüber der deutschen Spielezeitschrift PC Action, dass die KYRO III GPU neben einer T&L-Pipeline und 4 Renderingpipelines auch Unterstützung für programmierbare Pixel- und Vertex-Shader bieten wird.

"So soll der KYRO 3 eine eigene Hardware-T&L-Einheit besitzen und auch die programmierbaren Pixel- und Vertex-Shader von DirectX 8 unterstützen", schreibt die Zeitschrift in der aktuellen Juli-Ausgabe.

Lees meer bij 3dconcept.ch.

Reacties (53)

Reactiefilter:-153052+142+212+32
Moderatie-faq Wijzig weergave
Ziet er goed uit, Deze kaart zou als ie niet het lot besterft van andere PVR kaarten(te laat op de markt komen) weleens een hit kunnen worden.

1GP Fill rate dat is 3x zoveel als de KyroII en dat zou betekenen dat ie in games als Serious Sam al qua fillrate 2/2.5 x zo snel is als een GF3, Tel daarbij op dat deze kaart ook DX8 ondersteund in HW en je hebt een killer kaart met een beter prijspunt dan de GF3. Ik schat dat we een release prijs van rond de 200/250 Dollar gaan zien. Wat meer dan de Kyro II(dan in ultra versie voor de lowend markt) maar nog steeds acceptabel.

Ik denk dat zelfs een GF3U moeite hiermee heeft en zal het zeker niet qua prijs opkunnen nemen tegen deze kaart.

FSAA4FREE, is een handheld feature en zal niet toegepast worden op desktop 3d kaarten, omdat het dan niet werkt(te weinig fillrate en bandbreedte d8 ik)
Maar tile rendering laat inderdaad makkelijker FSAA toe volgens bepaalde algorithmen.

Je moet overigens ongeveer 2maanden bij de release date optellen schat ik...
ST doet het verassend goed, men roept wel vaak dan nVidia heer en meester is maar de Kyro II doet toch aardig mee. Ik heb meer vertrouwen in de Kyro III dan in brouwsels van ATI (die hebben nog niet echt bewezen nVidia te kunnen verslaan).
Zelf ben ik onpartijdig en kies alleen wat de beste is voor de gebruiker. Verder speelt Kwaliteit/Prestatie/Prijs natuurlijk een groot rol.

Ongeveer 6 jaar geleden, had iedere videokaart maker al een snelle hardwarematige window accelerator zitten vooral bedoelt voor Windows 3.11 en werd tijd voor iets nieuws...

Met de komst van Window 95 zag ATI de toekomst zitten voor de MULTI-MEDIA en had door vroegtijdig aangrijpen + R&D een GROOT voorsprong tenopzichte van de koncurenten. ATI had als eerst( voor de groot publiek) hardwarematige video acceleratie op zijn kaart zitten voor AVI (toen wist niemand nog wat Mpeg-1 was). Sinds die tijd is ATI de marktleider op gebied van mutimedia (video Meg 1,2 en is bezig met de nieuwe DivX).

Een paar jaar later met de komst van 3Dfx werd de virtual reality of de 3D gamen geintroduceerd voor de PC. Niemand had verwacht dat het zo hyper kan gaan dat zelfs de introduceerder 3Dfx de sloot ingereed :'(

ATI zag veel te laat in, dat de nieuwe markt geleidt wordt door de hyper 3D performance. Deze inhaal wedstrijd is heel zwaar voor ATI, dat zien we duidlijk. Toch vindt ik dat ATI niet slecht heeft gescored. Hij kan de markt tenminste bijhouden.

Voor sommigen die niet weten:
Kyro heeft al jaren lang de ervaring van de Power VR en varianten daarvan, die in de arcade's (vooral gebruikt door SEGA )ook parallel kan werken! Even door zetten en Kyro kan zijn vruchten plukken :9 :9 :9

Dan is de tijd aangekomen dat alles weer rustig wordt rond de 3D gebeuren. Net als de video accelaratie van toen... Tot dat er weer iets nieuws is op de markt!
Misschien niet helemaal waar: 3D scenes kunnen gewoon steeds complexer worden, geen probleem. Het moment dat ze zo snel zijn dat ze elk atoompje kunnen renderen is toch wel erg ver weg, dus wat dat betreft hebben ze nog wel wat te doen. Misschien dat de software erg achter gaat lopen..
De ATI verslaat nvidia op een aantal punten, waaronder beeldkwalitiet en DVD playback, alleen niet als je naar pure snelheid kijkt.
Betere DVD playback???? Eh ook in windows 2000??? Want het lijkt mij dat je in windows 2000 geen Motion Compensation toch??? Dat was toch zo bij beide fabrikanten(Ati en Nvidia) en sinds we straks toch allemaal naar Windows XP gaan die het meest lijkt op windows 2000 qua kernel, heb je er dan straks ook niets aan.
Motion Compensation is niet het enigste wat de kwaliteit van dvd playback bepaalt.... :z
-Process full-frame rate, full-screen DVD or MPEG-2 video
-Hardware DVD saves the expense of buying a separate MPEG-2/DVD decoder card
-Integrated IDCT and motion compensation allows for DVD decoding with minimum CPU usage
-HDTV ready
Vele DVD software spelers werken via DirectX(media/show) dacht ik.

IDCT als extra en ik heb 'n ATI 64MB vivo 17" VLAK naast 'n Cardexpert twinview GF2MX 17"&14" en is toch een duidelijk verschil te zien tussen de twee 17"monitoren.
tegenover de GF2 wel ja.... maar de GF3 zou ik niet zeggen...
Eh, toch wel hoor :)
Inderdaad...en ja ik kan het weten,

heb hier Voodoo 5 5500, Geforce 2 MX, TNT2, Voodoo 3, ATi Rage Fury PRO, ATi Radeon 64MB DDR ViVo, Leadtek Geforce 3 (van een vriend)

de ATi geeft toch het lekkerste beeld op mijn 19" (1280x1024) en is snel zat!

in win2k haal ik 2600 marks (2001) met de radeon.. ook nog best lekker... :)
en dan zioen we wel wat er het beste is :)nvidia of kyro :)
of matrox
of ati
of s3
of sis
of intel
of .......
of Trident...

Deze wordt zo gauw vergeten. Toch heeft Trident best veel videokaarten uitgebracht zo wel voor 1x 2x 4x AGP met allemaal verschillende chippies nogwel!!!
(Ik heb er 1 en een vriend die andere)
maar toen die nieuw was liep tie al ZOO VER ACHTER, dat je net zo goed een kaart van 1 of zelfs 2 generaties terug van een ander merk kan halen. Dat was zelfs slim geweest, omdat de drivers ook ZEKER veel beter is, want slechter heb tot nu toe nog niet gezien watbetreft de drivers! :(
Als die kaarten zo verschrikkelijk slecht zijn, is het toch logisch dat ze vergeten worden, of ligt dat nou aan mij :?
Dat kaartenbakkers in het verleden slechte of langzame kaarten hebben gemaakt heeft niets te maken met de kaarten die ze nog kunnen gaan uitbrengen. Andersom is namelijk ook waar, kijk maar naar de vroeger prachtige diamond kaartjes. En wat is er nu? niets meer....
Als je het niews een beetje gevolgd hebt moet je in ieder geval weten dat S3 bezig is met een lekkere game-kaart. Wat het wordt moeten we nog afwachten, maar bezig zijn ze wel. En zo zullen er nog wel meer zijn....
ik vind de rest wat minder vergelijkbaar matrox is bijvoorbeeld veel meer gericht op het bedrijfsleven.. nvidia en kyro (en ati) zijn op dit moment lekker aan het concureren op het gebeid van "3d game" kaartjes. Vandaar dat ik het toch wel een goede vergelijking vind.
ST doet het verassend goed, men roept wel vaak dan nVidia heer en meester is maar de Kyro II doet toch aardig mee. Ik heb meer vertrouwen in de Kyro III dan in brouwsels van ATI (die hebben nog niet echt bewezen nVidia te kunnen verslaan).
zeker nog nooit een benchmark met een kyro II er in gezien ? presteert gelijk geforce II mx, soms beetje hoger, naar geforce II gts. Sorry hoor, maar dan loop je gewoon wachter. Radeon doet het net zo goed, en ati is NOG STEEDS de grootse videochip leverancier ter wereld.......
voordeel van ati radeon ddr is dat ie 'n iets minder doet in 16bit dan 'n gts maar in 32 bit dicht op de gts zit

maar de kyroII presteerd afhankelijk van resolutie kleurdiepte en game instelingen en game(engine)
en ook belangrijk processor (no-T&L) tussen 'n TNT2Ultra en G2 ultra in gemiddeld net boven of tussen de GFMx en GTS2

dus als je veel verschillende games speeld is de ATI/GF2GTS 'n betere keus
maar als je paar enkele games speel waar de KyroII beter is dan de rest in die prijs klasse dan kyroII
ik vond de prijzen niet noemenswaardig gedaald toen nvidia er min of meer monopolist werd.
maar conncurrentie is in ieder geval goed om ze te doen innoveren.
De prijzen voor high-end game kaarten zijn flink gedaald de laaste jaren...ik weet nog goed dat je 1300 piek moest betalen voor v2 sli, das incl inflatie zo'n 1400-1500 gulden nu, daar is nvidia nog niet overheen gegaan (hoogstens met de quadro)....en als je dan kijkt naar de relatieve prestaties van de huidige kaarten vind ik het nu toch echt een stuk beter dan vroeger...
Dit wordt echt een fantastische kaart. Zeker nu dat er een programmerbare T&L op zit. Alleen de ruwe kracht van de T&L opzich bleek niet zo sterk tezijn :?

Oh ja, en deze opmerking nog effe.
Ter illustratie: de huidige Kyro II met zijn 350 megapixels heeft in veel gevallen geen moeite om mee te komen met de GeForce2 Ultra
Ik dacht dat het eerder de Geforce2 GTS was dan de Ultra. Maar dat zecht natuurlijk nog niks over de Kyro3.

Nu nog hopen dat de prijs niet al te hoog gaat liggen. En dat ze hem niet hopeloos uit gaan stellen. Want dadelijk hebben NVidia en ATI hun volgende kaarten al klaar liggen.
Denk ook dat dat veel eigenlijk enkele moet zijn. ook nog onder bepaalde instellingen.
mooi :) goeie specs en inderdaad een concurrent dus voor NVidia :) en dus hopen dat de prijzen daardoor gaan zakken ! :P
Eind dit jaar en DX8 funtionaliteit, hopelijk ook volledig, klinkt goed in de oren maar wanneer komt die radeon II en de G3Ultra?
Dan wordt het spannend, keuze uit kyro-III, radeon-II, G3 en G3-Ultra. :9
Ben benieuwd of de radeon-II op tijd komt, hoor er nu nog weinig van.
met zo'n kyro 3 die een gigapixel kan verwerken heb je wel een ontieglijk groot vermogen. sinds de kyro met tilebased rendering werkt kan je het vergelijken met een immideate mode rendering van 3 gigapixel (immediate mode zoals geforce tnt radion etc....) kan je het wel voorstellen 3 gigapixel dat is drie keer zo snel als een geforce 2 ultra..... en over de gts gesproken de kyro 2 overtreft de soms als de t&l engine niet zozeer gebruikt word.... en dan vooral op de hogere resoluties.... en sinds tile based rendering geen bottle neck heeft op de memory bandwith kan het aardig overgeklokt worden ...... zeker als ze de s3 texture compression techniek gebruiken dus dat belooft wat.. ;)
sinds de kyro met tilebased rendering werkt kan je het vergelijken met een immideate mode rendering van 3 gigapixel

Dat zegt PVR inderdaad, maar als je in de praktijk van een overdraw van 3 uit kon gaan, zou dat betekenen dat de Kyro II met 175 mHz geheugenbandbreedte een 175*3 = 525 mHz geheugenbandbreedte brute force renderer bij zou moeten kunnen houden, dus een overclockte GF2U, en dat blijkt 'ie in de praktijk toch echt niet te halen.

en sinds tile based rendering geen bottle neck heeft op de memory bandwith kan het aardig overgeklokt worden

En wederom heb je het mis. Ten eerste clockt PVR zijn chips en geheugen synchroon, en zijn de chips nauwelijk te overclocken. Bovendien is het onzin dat hij geen geheugen bottleneck heeft. Omdat chip en geheugen synchroon geclockt worden, is het een niet te snel voor het ander, maar dat betekent niet dat je met een tilerenderer geen problemen met de geheugenbandbreedte hebt. Hij heeft net als een brute force renderer bandbreedte nodig, maar gaat er wel efficienter mee om. Dit houdt alleen in dat je later in de problemen komt met de geheugenbandbreedte, maar niet dat het tekort is opgelost.

Ik vraag me trouwens af wat PVR na de Kyro III wil doen op dit gebied. Met 4 ns geheugen hebben ze wel zo'n beetje de limiet bereikt, lijkt me. Misschien on-die cache of anders meerdere processoren op een kaartje (kan met de Kyro II ook al).

Oh ja, en 'sinds' is niet Nederlands voor 'since'
Dat zegt PVR inderdaad, maar als je in de praktijk van een overdraw van 3 uit kon gaan, zou dat betekenen dat de Kyro II met 175 mHz geheugenbandbreedte een 175*3 = 525 mHz geheugenbandbreedte brute force renderer bij zou moeten kunnen houden, dus een overclockte GF2U, en dat blijkt 'ie in de praktijk toch echt niet te halen.

De KyroII houdt in onder andere Serious Sam 'n normaal geklokte GeForce2 Ultra bij. Daar de KyroII geen T&L heeft, heb je 'n redelijk snelle proc nodig.

Daarnaast reken je verkeerd. Je moet je schermresolutie pakken, vermenigvuldigen met de refresh-rate en het aantal handelingen dat per pixel wordt verricht. Bij de KyroII zijn dat drie handelingen:
1) lezen pixel
3) lezen textures (x aantal textures)
3) schrijven pixel
4) RAMDAC leest pixel
Bij de GeForce2 zijn dat er:
1) lezen pixel
2) schrijven pixel
3) lezen textures (x aantal textures)
4) herhaal 1, 2 en 3 (overdraw)
x) RAMDAC leest pixel.

Spellen hebben tegenwoordig 'n gemiddelde van ongeveer 4 textures en 'n overdraw van 2.5. 1024x768x32x85Hz heeft dus 'n bandbreedte van:
1024x768x32x85 = 2.139 GBit/s = 267MB/sec per stap nodig.
Er uitgaande dat bij 85Hz je toch niet meer dan 85fps kunt zien.

KyroII (2.8GB/sec):
minimaal : stap x 4 = 1.07 GB/sec (297 fps max)
4 textures : stap x 7 = 1.87 GB/sec (134 fps max)
maximaal : stap x 11 = 2.94 GB/sec (80 fps max)

GeForce2 (3x overdraw, 128bit DDR@200Mhz => 6.4GB/sec):
minimaal : stap x (3x2+3x1+1) = 2.67 GB/sec ( 216 fps )
4 textures: stap x (3x2+3x4+1) = 5.08 GB/sec ( 108 fps )
maximaal : stap x (3x2+3x8+1) = 8.29 GB/sec (65 fps)

Dit zijn dus enkele theoretische waarden. Ik heb voor de duidelijkheid de hoogst haalbare fps bij 85Hz tussen haakjes erbij neergezet.

Er zijn nog maar weinig spellen die gebruik maken van 4 textures. De overdraw ligt gemiddeld op 2.5 dus deze berekeningen komen allemaal in het voordeel van de KyroII uit.

Ik heb ook geen rekening met de fillrate gehouden, ik ga er van uit dat beide GPU's niet fillrate limited zijn. Theoretisch gesproken loopt de KyroII 'n GeForce2 GTS er gewoon uit. Zij het niet dat de meeste spellen minder dan 4 textures hebben. Ook de overdraw is gemiddeld maar 2.5x. En daar de core van de KyroII fillrate limited is ten opzichte van de GeForce2 GTS, wordt het moeilijk om bij 2-3 textures en 'n overdraw van 2.5x de snelheid van 'n GeForce2 GTS te halen. Dus in de meeste benchmarks komt de GeForce2 GTS er beter uit.... En toch heeft in mijns inzien de KyroII meer toekomstperspectief dan 'n GeForce2 GTS.

Gezien de specs van de KyroIII, heeft ImgTech en ST goed begrepen dat de filrate omhoog moet (4 in plaats van 2 pipe-lines) en dat ze T&L moeten ondersteunen om met de highend kaart van nVidia (GeForce3) te kunnen concureren.
Ik snap niet waarom nVidia niet eerder alle mogelijke geheugen-besparende technieken heeft toegepast. Als ST de marketing in orde heeft wordt die Kyro III met goede driverondersteuning gewoon all-round een beste kaart. (zeg maar een nVidia-achtige kaart, maar dan met die hoopgevende technieken).
Daar hadden ze geen mensen meer voor. Ze hebben waarschijnlijn de team al opgesplits een om pijplijnen te gaan bouwen en team b is dan op zoek naar de 's werelds snelste rammetjes :*)

~nVidia kan toch wel tegen een grapje he?~

Effe serieus, het is inderdaad waar hoor wat boven staan, maar nVidia is ook relatief JONG, jaja bijna de jongste van allemaal. De tile-base technologie werd al jaren aan gewerkt, maar die is niet van nVidia daarom.
De performance van tile based add on kaart M3D bijvoorbeeld was toen niet zo concurrerend dus was die ontwikkeling richting toendertijd niet interresant genoeg als nu toen was de memory bandbreedte nog voldoende voor de rauwe performance en werd er nog niet in de hoge resoluties gespeeld en was 32bit rendering ook niet zo populair. 3dfx low resoos en 16bits
Als ze dat moeten implanteren, kost dat geld. En als ze toch alleenheerser zijn (wat ze dus enigzins hebben onderschat, gezien Ati en ST), dan is er geen reden om dat erin te doen. Dat betekent minder productie kosten en dus meer winst.
Dat heeft ook met de development cycle te maken als ze dat hadden willen doen om nu te releasen moetsten ze toch zeker twee a drie jaar geleden mee gestartzijn 'n bestaande architektuur verbeteren scheeld veel tijd en kosten maar soms moet je gewoon opnieuw beginnen TNTx naar Geforce1/2 naar GF3

Dus 'n heel nieuw design om de 6maanden is nagenoeg onmogelijk.

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True