Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties
Bron: X-Bit Labs

X-Bit Labs heeft een ATi Radeon LE kaartje in haar bezit gekregen, een versie waar nog zo gek veel over bekend was. Uit deze review blijkt dat-ie grotendeels gebaseerd is op een Radeon 32MB DDR, maar op een aantal punten is hij wel wat geknepen. De core chip is gewoon hetzelfde, maar de kloksnelheid werd verlaagd naar 148MHz. Daarnaast is HyperZ standaard disabled, wat echter eenvoudig door een registry-hack te verhelpen is. Uiteindelijk is het dus niet bepaald moeilijk om de kaart met wat simpel tweakwerk naar een hoger niveau te tillen .

In de praktijk bleek dan ook dat de performance-verschillen tussen de twee Radeons minimaal waren, terwijl de LE-versie wel 50 dollar goedkoper is. Met deze kenmerken kan het volgens onderstaande conclusie een echte GeForce2 MX killer genoemd worden:

RADEON LE, a cheaper version of the regular RADEON DDR, has turned out pretty competitive. With some minimal improvements introduced (we mean enabled HyperZ in Direct3D and overclocking up to the level of RADEON DDR), the new card keeps up with its elder brother and overtakes its closest rival, GeForce2 MX, in 32bit color mode. ATI's recent drivers have also become notably better.

Finally, RADEON LE is sure to rock the positions of GeForce2 MX in the Low-End sector, unless RADEON LE is a contingent product and ATI gives up manufacturing it in future (even via Chinese manufacturers).
ATi Radeon LE benchmarks

Het is wel te hopen dat de kaart ook in ons continent leverbaar wordt, er zouden geruchten zijn dat alleen de Chinese markt de Radeon LE zou ontvangen... Meer informatie lees je in de review.

Moderatie-faq Wijzig weergave

Reacties (28)

Nog een verschil hier niet genoemd, is dat op de Core van de DDR een fan zit en op die van de LE alleen een heatsink. Verder is de kaart dus bijna helemaal gelijk en zal dus ook best wel op 184/184 willen draaien (of nog hoger, mijn 32mb DDR gaat tot maximaal 195/195).

btw. voor het overklokken hoef je geen powerstrip meer te gebruiken, op rage3d is er een util genaamd setclk, en 2 van de 4 tweakers hebben deze optie tegenwoordig ook ingebouwd :)
Misschien domme vraag, maar hoe is het beeld van ATI kaarten tegenwoordig. Die kaarten van 2 jaar terug waren nooit zo denderend vergeleken met 3Dfx. Iemand met ervaring graag reageren en vooral vergelijkingen geven met andere kaarten.

bvd
Beter dan die van de GeForce1/2/3, en ongeveer even goed als de Matrox. :)
Wow, is dat echt zo??
In dat geval ga ik 'ns goed op zoek naar deze Radeon LE ofzo ... :9 :9

(Sinds de TNT2 heeft NVidia namelijk inderdaad geen kaarten meer gemaakt die een fatsoenlijk scherp beeld kunnen projecteren op m'n 22" buis..... en ik ga dus fijn geen duur + onscherp ding kopen ofzo :( )
Vindt ik maar onzin hoor, die onscherpte legt volgens mij niet aan de chip maar aan de gebruikte componenten.

(Megafranz is erg blij met zijn Elsa Gladiac MX 1600x1200 op een Hitachi en klaagt niet over scherpte)
Ik moet dit weekend een Duron 800 systeem opvoeren. Hierin zit ook een Asus V7100 kaartje, niet een van de slechtsen zou je zeggen. Echter, vind ik dat op mijn 15" panasonic beeldscherm de Viper2 die in mijn eigen systeem zit veel beter beeld geeft.

Ook heb ik een Savage4, daar kan je echt niet mee aankomen op 1152x864x32, zo vaag is die. Zo erg is die Asus dus niet.

Al met al: redelijke beeldkwaliteit, maar er zijn betere kaarten.
edit: postingproblemen...
[dubbelpost]
Heb je het dan over 2D of 3D beelden?
Ik denk niet dat deze zo heel erg interessant is voor ons als Tweaker. Ikzelf hou niet van beperkingen, en zal dus ook best wel iets meer willen betalen voor de volledige Radeon DDR. Ook zal de performance in het echt toch ook wel beter zijn, alhoewel X-Bit Labs anders beweerd. De nieuwe kaart zal wel alleen in de middenklasse en kantoor computers worden ingebouwd. Het enige wat ik zo prettig vindt aan de Radeon is dat het beeld echt heel scherp is in vergelijking met de GeForce, waar ik na 2 uur gigantische koppijn heb.
Tweaken is toch juist met de minimale middelen het maximale bereiken :?
Als deze kaart nu (bijna) gelijk is aan zijn grote broer en alleen door een reg.setting is gemankeerd door ATI, ben je toch gek om de duurdere versie te kopen ?
tweaken is toch met goede dingen (die niet peperduur zijn) meer dan het maximale te bereiken ????
In de benchmarks van de review bij 3Dmark 2000 blijft de Geforce2MX beter, maar ik denk dat dat te wijten is aan directx 7. Aangezien de radeon voor directx 8 is geoptimaliseerd en 3DMark2000 DX8 niet ondersteund. ;(

:)Ik denk dat de Radeon LE in 3DMark 2001 beter presteerd dan de Geforce2MX.

[typefoutjes]
Niet door dx7, maar doordat de Radeon bijna net zo snel is in 32bits als in 16bits, dus eigenlijk dat de 16bits snelheid slecht is vergleken met de MX, in bijna alle 16 bits benchmarks in deze review is de MX sneller. (hé, nu ik nog eens kijk is de Radeon af en toe sneller dan de MX in 16bits, dat zie je toch niet vaak :+ )
Ik weet niet hoor maar volgens mij word het lastig om van de GF3 een budget versie te bouwen, want de verschillen van de GF3 en GF2 zitten hem bijna alleen in features, dus als je die gaat strippen hou je een GF2 over, waarschijnlijk dus ook de reden dat ze nog nix hierover gemeld hebben en wel over een MX200 en 400. Of ik moet er helemaal naast zitten maar dan hoor ik dat graag
Hier heb je inderdaad gelijk in, dat het verschil in de features zit. Dit betekent niet minder dan dat het ontwerp van de chip weer complexer is geworden. met ik geloof 54 miljoen transistoren.
Hierdoor is het productieproces ingewikkeld en kostbaar en dit is dus reden voor de extreem hoge prijs van de GF 3.
Mag ik u er even op wijzen dat de Radeon SDR al de rug van de MX aan het schoppen is in 32 bits mode. (zie het grafiekje Quake arena) Ik snap dus niet waarom je NOG een budget versie zou uitbrengen. Maarja Laat ATI maar schuiven, ik vind het allang mooi dat ze en betere 2d kwaliteit leveren en betere 3d snelheid t.o.v. de MX tegen een zelfde of lagere prijs. (En de SDR heeft ook nog een Video Out, met HW mpeg2 decoding)
Wat ik wel weer jammer vindt voor de radeon is dat de MX 'sjes er al zolang zijn dat deze kaart gewoon veel te laat komt om enige weerstand te kunnen bieden.
Over een aantal maandjes komt er een Geforce 3 mx en dan ?? moet de radeon 2 ?? er eigenlijk al zijn maar zoals de geschiedenis zich nou uitwijst zal dat niet lukken en zal ook die kaart te laat komen.
Natuurlijk zullen ze wel verkocht worden maar winnen van nvidia gaat zo niet lukken (niet dat dat moet maar wil je blijven bestaan lijkt het me wel handig om in ieder geval een gelijkwaardig produkt op de markt te zetten op het tijdsstip dat je concurrent dat ook doet) en zo blijft nvidia lachend geld verdienen.

Ik hoop dat ATI dit wel doorheeft en met een inhaalslag bezig is anders vrees ik het ergste.

Verders geen commentaar.
Geforce3 MX!!!! die zal nooit komen de opvolger van de Geforce2 MX wordt de geforce 2 MX 200 en 400.

:7 zie http://www.nvidia.com/Home.nsf/nvidianews2.html
Misschien niet de 3mx, maar er zal heus ooit wel een budget versie komen van de gf3.
Als nvidia merk dat Readon veel budget kaartjes verkoop tov MX kaartjes dan knijpt NVIDIA de gf3 wel en maken ze daar een bdget kaartje mee, zo stom is nvidia ook niet. Maar als de 2 MX blijft verkopen gaan ze echt niet een veel betere budget kaart maken, anders verkopen de duurdere kaarten niet meer

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True