Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties
Bron: PCPop

PCPop, een vage Chinese site, heeft als eerste een review van de ATi Radeon LE. Van dit kaartje is nog geen informatie te vinden, op een paar Usenet berichten na. Als je de foto vergelijkt met de huidige Radeon SDR/DDR versies zie je dat het inderdaad een andere kaart betreft. De vraag blijft natuurlijk of we kunnen geloven wat we zien en lezen .

Daar de meesten geen Chinees kunnen kun je via Babelfish een vertaling van de review lezen (evt. nog een keer op "translate" klikken). Een aantal features zijn duidelijk leesbaar. Deze Low-End versie beschikt over 32MB DDR geheugen op een 128 bit bandbreedte wat een totale doorvoer van 5.3GB/s zou moeten leveren. Op zich is dat raar: dit zijn dezelfde specs als de "gewone" Radeon met 32MB. De kloksnelheid is ook gelijk aan de 166MHz van de OEM Radeon.

Maar waar zit nou het verschil? Een aantal regels geven aanwijzingen dat de LE een vereenvoudigde of zelfs helemaal geen HyperZ heeft, wat de kosten zou drukken:

Radeon LE : On the chip simplified the Hyper-Z electric circuit[break]En nog een stuk verderop het volgende:[/break]cancelled Hyper-Z this part of electric circuit, achieved reduced the cost the effect.[break]Echt veel duidelijker wordt het helaas niet. De Radeon LE zou gepositioneerd gaan worden tegenover GeForce2 MX gebaseerde kaarten. Nog even de specs van beide kaarten.

 DatapadTypeBandbreedteMegapixels
Radeon LE128bitDDR SGRAM5,3GB/s333
GeForce2 MX64/128bitDDR/SDRAM2,6GB/s350

Duidelijk mag zijn dat de ATi kaart veel meer bandbreedte tot zijn beschikking heeft. In de benchmarks blijkt dat de ATi Radeon LE in de hogere resoluties en kleurdiepte uitloopt op de MX chip. Dit verschil wordt nog erger als 2x Full Screen Anti Alias wordt gebruikt om de beeldkwaliteit op te krikken.

Voor de overclockers onder ons hebben ze het kaartje van z'n standaard 166/166 even opgeklokt naar 180/175. De resultaten hiervan waren vooral weer merkbaar in de hogere resoluties.

Al met al verslaat de Radeon LE dus de GeForce2 MX in de benchmarks. De vraag is nu of het ATi lukt om deze kaart voor een concurrerende prijs op de (Nederlandse) markt te zetten aangezien momenteel de goedkope Taiwaneese nVidia kaarten steeds meer verkrijgbaar zijn.

ATi Radeon LE 32MB DDR

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (26)

Voor de overclockers onder ons hebben ze het kaartje van z'n standaard 166/166 even opgeklokt naar 180/175.
Ik dacht dat mem en core niet asynchroon overgeklokt konden worden bij een Radeon?
edit:

De radeon draait inderdaad synchroon. De OEM (en de LE) op 166/166 en de retail (niet de LE dus) op 183/183. Ik had het dus mis :7
Dacht ik ook, maar ik zag een screenshot met deze instellingen.
Met powerstrip beta 3 kan je de core en geheugen snelheid asynchroon klokken.

Alleen toen ik het probeerde met ook maar een mhz verschil kreeg ik al lockups. (191/190 bijv)

Maar het moet mogelijk zijn, want ik zie veel meer asynchroon geklokte Radeons op inet.
Altijd vreemd gevonden dat NVidia MX niet ondersteunt met 128-bit DDR geheugen. Nu moet je kiezen uit 128-bit SDR of 64-bit DDR en da's even snel (hoewel Creative dan met grote letters "DDR" op de doos zet). Uiteindelijk is memory bandbreedte hetgeen de kaartjes tegenhoudt.

Waar blijven eigenlijk de GPUs met on-die cache? Ik vermoed eigenlijk dat dat geen verschil maakt, omdat de GPU toch hele brokken geheugen wil lezen, en dan helpt zo'n cache niet.
Sterker nog: een MX DDR op gelijke MHz is langzamer dan een SDR
http://www.iamnotageek.com/cgi-bin/reviews.cgi? name=cagf2mx&p=1
Dat komt omdat de Creative kaart 64 bits 143 mhz DDR SDRAM heeft, terwijl een standaard MX 128 bits 166 mhz SDR SDRAM heeft. Het datapad is bij die "DDR" versie dus gruwelijk verkleind (gehalveerd), waardoor die "DDR" MX-kaart een kleinere geheugenbandbreedte tot zijn beschikking heeft. En geheugenbandbreedte is nu juist wat die Geforce2MX tegenhoudt om superprestaties te leveren ;(

En Nvidia heeft de MX opzettelijk gehandicapt, omdat hij met 128 bits DDR geheugen een rechtstreekse concurrent van de Geforce2 GTS zou worden :7
Als je die link ff had gevolgd had je kunnen lezen dat ze beide kaarten op _dezelfde_ snelheid hebben laten lopen (dus beide op iets van 190MHz ofzo). Theoretisch hebben _dan_ beide kaarten dezelfde bandbreedte: 64bit DDR en 128bit SDR.

Maar de SDR is dan toch sneller dus.
Waar blijven eigenlijk de GPUs met on-die cache? Ik vermoed eigenlijk dat dat geen verschil maakt, omdat de GPU toch hele brokken geheugen wil lezen, en dan helpt zo'n cache niet.
Zijn de Bitboys uit Finland daar al niet een paar jaar mee bezig met hun XBA Vapourware :) Die hebben een concept bedacht met embedded DRAM en dat levert behoorlijk wat bandbreedte op. Kijk maar op http://www.bitboys.com/xba.html
hmmm.. Ik krijg toch wel het vermoeden als een ver-eenvoudigthyper-z circuit het enige is wat ze veranderen dat ie wat duurder gaat worden dan de MX.

maar dat ie sneller word ben wel ik wel erg zeker van! :) en dat is mooi want dan wordt nvidia nog ff duidelijk gemaakt dat ze niet de enige speedking op de markt zij,en dat is goed voor ons!
Het kan natuurlijk ook nog zo zijn dat deze kaart en "gewone" radeon's betreffen waarvan de hyperZ unit kapot is. Een soort van vergelijk met de pentium 3/celeron waarvan een gedeelte van het cache geheugen niet funtioneerd.

In dat geval zal deze kaart niet al te duur uit moeten vallen.
Zeggen de termen "punt", "komma" en "hoofdletter" je iets?
mike, ja ! dat zegt me wel wat !

interpunktie !

enne winblowsjoezur,
je vergat elsa en matrox....
Als ik het goed begrijp, is het aantal pixels wat hij kan produceren dus niet heel veel anders dan de GeForce MX. Maar met deze bandbreedte zou hij volgens mij wel veel meer "leuke grappen"aan moeten kunnen. Waarschijnlijk is hij dus nog niet eens zo veel sneller, maar wel veel mooier. :) En die kwaliteit is nou eigenlijk een beetje het probleem van de MX. Ik hoop alleen dat als ze zulke kleine wijzigingen doorvoeren, de prijswijziging t.o.v. de gewone Radeon wel zo groot is, dat hij met de MX kan concureren.
Het aantal Mpixels wat deze kaarten aankunnen is totaal niet interessant zolang het geheugen de beperkende factor is. Zelfs al zou de core van de MX 700 Mpixels/s kunnen doen, dan is hij nog precies geen reet sneller.

Dus dat de Radeon LE twee keer zoveel geheugenbandbreedte heeft, is pas echt interessant. Even in de gaten houden wat dit dingetje gaat kosten.

En dat een MX zo'n slechte beeldkwaliteit heeft, is ook niet helemaal waar. Een goedkope knaken-MX heeft een mindere beeldkwaliteit. Een Hercules of een Elsa heeft dat zeker niet omdat deze opgebouwd worden uit kwalitatief betere componenten.

MetalStef
OK, echt slecht zijn ze natuurlijk niet, maar ik zit bij mijn vader steeds naar een Matrox G400 max te kijken. Da's toch net iets anders.
Vind je ASUS ook onder de goedkope knakenboeren vallen?
Heb de 7100 geprobeerd, en de beeldkwaliteit op 1152x8honderdnogwat en hoger is bagger :r . Die is dus terug naar de winkel.
Ik heb nu een Radeon (32mb SDRAM) en de beeldkwaliteit is dik in orde.
Hey, das een leuk kaartje, ik was eigenlijk op zoek naar een goedkope Geforce, maar zo'n kaartje als dit maakt een grotere kans!

Weet iemand toevallig wat dat Hyper-Z eigenlijk inhoud? Er staan namelijk vaak wel termen in zo'n stukje en er komen er steeds meer. Maar ik heb er nog nooit echt een uitleg over gezien waar ze voor dienen.

(Misschien leuk voor T.Net: Maak een lijstje met allerlei termen uit de hardware-wereld en leg uit wat het doet.)
ATi is weer de goede kant :D ik denk dat mijn volgende 3dkaart een Radeon gaat worden

ikheb nu een RivaTNT @ 115/120 mhz en haal daaremee 50/60 fps in Q3 op 1024x768@16 ook al niej verkeerd alleen beeldkwaliteit is wel wat minder....


wel jammer dat er op die Radeon geen cooler zit allen en heatsink... maarja zelf is dat ook wel te regelen ]>
De ATI is weldegelijk Asynchroon over te clocken!!!!
Met POWERSTRIP is dat zo gepiept maar of ie stabiel draait dat is het volgende!

Ik heb die van mij (Radeon 32 DDR) stabiel draaien SYNCHROON op 173.3Mhz! :9 :P

http://www.tweakfiles.com/video/powerstrip.html
Het kan aan mij liggen, maar is dit niet de Radeon VE? :7 Die heeft ATI aangekondigd als budget kaart (Value Edition) Bovendien zijn ze iets van plan met Hydravision waardoor ze ook Dual Head ondersteunen: Dan hakken ze pas echt in op de markt van G400DH en GFMX Twinview.

Aangezien deze kaart nog niet gereleased is kan het best zijn dat deze LE versie een voorproef/testmodel is. Duidelijk mag zijn dat het i.i.g. geen DualHead versie is. Ik vind hem niet echt interessant dus. Maar ik wacht met smart op de Radeon VE Hydravision :9
Ik vraag me af wanneer ATI deze kaart hier op de markt gaat gooien. Binnenkort komt nVidia met hun GF3 (of hoe hij dan ook maar mag gaan heten) en zullen de prijzen van de GF2 kaarten allemaal wel gaan zakken. Als ATI dan pas met deze kaart komt zijn ze wel mooi te laat. Ik hoop iig dat deze kaart niet te lang op zich laat wachten. De MX is zeer populair en een beetje concurrentie kan geen kwaad.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True