Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties
Bron: Tom's Hardware Guide (D)

Het Duitse filiaal van Tom's Hardware Guide heeft een review gebakken van de ATi Radeon VE videokaart. Dit beestje beschikt over Hydravision, ATI's implementatie van het DualHead-gebeuren van Matrox en het TwinView-gebeuren dat we op diverse nVidia kaarten tegenkomen. Er kan dus meer dan één display op deze kaart worden aangesloten, waarbij de refresh-rate van beide beeldschermen overigens niet gelijk behoeft te zijn. HydraVision beschikt - afhankelijk van het kaarttype - over een aantal mogelijkheden:

* VGA + VGA
* VGA + DVI (voor een analoog of digitaal Flatpanel)
* VGA + DVI + Video Out (TV-uitgang)
* VGA + Video Out (TV-uitgang)

Voor wie nu denkt dat deze kaart kostbaar is: Tom geeft een prijs van DM 269 aan, en daarmee is 'ie dus heel concurrerend geprijsd als je kijkt naar de Matrox G450 of de Leadtek GF2MX TwinView. De prestaties van de kaart liggen ook op een behoorlijk niveau: het 3D-gedeelte is ruwweg vergelijkbaar met dat van een GeForce2 MX. Bovendien blijkt het Hydravision dual-monitor systeem in de praktijk prettig te werken, en Onkel Tom is dan ook uitermate goed te spreken over deze 'kleine' Radeon, zeker met de prijs/prestatie-verhouding in het achterhoofd:

Für den Einsatz im Dual-Monitor-Betrieb bietet der Radeon VE ein hervorragendes Preis-/Leistungsverhältnis. Mit 269 DM ist dieses Produkt deutlich billiger als die Mitbewerber. Obwohl bereits Nvidia und Matrox seit langem über dieses Feature verfügen, ist ATi als Nachzügler eine gute Abstimmung zwischen Hardware und Software gelungen. [...] Der Test zeigt, dass sich die Usability der Software positiv von den Konkurrenten NVidia und Matrox abgrenzt. So ist die Bedienung intuitiv gestaltet, sodass auch Anfänger schnell die Funktionen erlernen.

In punkto 3D-Performance lässt sich nicht eindeutig bestimmen, wer vorn liegt. In einigen Benchmarks ist es der GeForce2 MX Twinview, in anderen wiederum der Radeon VE. [...] Zudem spendierte ATi dem Radeon VE im Vergleich zu seinem großen Bruder ein paar Funktionen für den Dual-Monitorbetrieb.

Als Pionier für Dual-Monitor-Grafikkarten muss Matrox sich nun warm anziehen. [...] Weder im Preis noch der Performance kann die Millennium G450 Dualhead mithalten. [...] Für Hersteller von Twinview-Karten mit dem GeForce2 MX ist es zumindest leichter, auf die neue Marktsituation zu reagieren: ein Preisnachlass.
ATI Radeon VE

Wie het precies wil weten hoeft alleen maar deze link te volgen.

Moderatie-faq Wijzig weergave

Reacties (30)

Het is wel leuk dat meerdere fabrikanten nu aan DualHead gaan, dan kan het misschien door meer programma's/spellen ondersteund worden. Denk bijvoorbeeld aan een RTS met links je speelveld en rechts de map en inventory ofzo. Er zijn mij nog te weinig spellen die het gebruiken, al is het er toch al een tijdje (Matrox...). Maar ik denk, nu de "grote drie" alledrie een DualHead oplossing hebben, developers ook eens naar deze functie gaan kijken. Niet iedereen heeft 2 monitoren, maar toch zal het interessant zijn voor de mensen die het wel hebben, en dit worden er nu dus steeds meer en meer...
vind ik niet echt handig omdat de afstand tussen 2 dingen op 1 scherm niks is en tussen 2 schermen ongeveer 10 cm. dat is klote met heen en weer kijken, en vooral als je net supersnel je basis op moet bouwen ofzo. je kan beter 1 grote nemen dan 2 kleine, in dat geval dan.......
In windows heb je daar in ieder geval echt geen last van, voor (web)designers is het echt heerlijk, ene monitor je tools, andere monitor je werk gewoon fullscreen.
Dat werkt heel wat prettiger :)
Ja iedereen kent de voordelen van een twin-view kaartje wel. Kunnen we ons dus beperken tot de prestatie's van deze nieuwe ATi telg. Ziet er op zich netjes uit en hij ontloopt niet zoveel met de MX kaart. Dus het feit dat hij een stuk goedkoper is komt dan mooi uit en lijkt de keus makkelijk... gaan voor de ATi dus.

Klein minpuntje misschien is dat ATi (nog) wat achterloopt op NVIDIA. De mx is al een aardige tijd op de markt terwijl deze VE dus nog maar net gereleased is.

Maar goed ATi is back in business d8 ik zo...
Tja ik weet het niet hoor. Enerzijds heeft ATI een leuke kaart gemaakt waarbij de performance best wel aardig is, mooi stukje software erbij, dat is dus allemaal best wel dik in orde. Hier zal heus wel een markt voor bestaan.

Wat ik nu zo jammer vindt is dat al die mooie chipsets zo uitgekleed worden om dual display voor elkaar te bakken. Wat mij persoonlijk zou interesseren is een dualhead kaart met 1 dikke performance poot (main monitor) die performt zoals de "dikke" ;) GPU's t momenteel doen (GF2 GTS/Radeon DDR64 etc). EN een tweede poort die de dual display mogelijkheden biedt zoals deze Radeon VE.

Praktisch gezien is deze VE het nu gewoon net niet, evenals de andere dual monitor kaarten. Voor mij in ieder geval reden om toch nog eens serieus te kijken naar 2 gescheiden kaarten (1x dikke radeon en een of ander PCI tweede kaartje). Weet alleen niet of hier dikke nadelen aan zitten.... :(
't nadeel aan 2 kaarten is:
2e kaartje waarschijnlijk geen (goede) 3D
of je moet veel geld uitgeven maar da's weer een nadeel.
meer nadelen: 't kost je een PCI slot en niet te vergeten een IRQ.
Ook kun je lang niet alle kaartjes hiervoor gebruiken.
V3 pci bv heeft toch vrij redelijke 3d-performance, meer dan een 2e monitor nodig heeft over t algemeen lijkt me
[quote]bij de 1e radeon waren er ook geruchten dat ie allemaal sneller en beter zou zijn, en dat hebben ze gelogen![/qoute]

Dat ligt er helemaal aan wat je onder beter verstaat... Qua 2D is de Radeon I inderdaad 100 keer beter dan de GF2ultra... Wat de GF2ultra op 3D gebied voor heeft is marginaal als je het schandalige 2D beeld van het ding boven de 1280*1024 ziet. En da's toch geen rare resolutie voor zo'n dure kaart.

En nu on topic;
Stoere kaart, en voor 250 piek? Goeie... 2D in de buurt van de G450 en 3D in de buurt van de MX. Eindelijk iets van beide!

Nu maar hopen dat die drivers van ATI net zo veelbelovend als dit kaartje worden.
Lijkt me een leuk kaartje als je geen hardcore gamer bent en toch redelijk goede prestaties en dual monitor wil draaien. Alleen jaamer dat er nog zo weinig is met een DVI aansluiting... Die DVI zit op een aantal TFT's en sommige beamers, maar ja die heeft de gemiddelde tweaker niet naast zijn monitor staan...
Okee er zijn ook andere varianten, maar het mooiste is een kaart waarop je 1 "normale" monitor kunt aansluiten en 1 monitor/DVI-apparaat/tv...
Er staat dat er ook een versie komt met twee VGA aansluitingen...
Is die witte aansluiting dan geen connector waar je een verloopstukje op moet zetten (waarschijnlijk meegeleverd) om er een VGA-uitgang van te maken?
Ik dacht dat ik zoiets al op meer kaarten had gezien..
Volgens mij zal die ook op de Radeon All-in Wonder ofzo :)
Tarin: Het verloopstukje wordt standaard meegeleverd. Volgens Anandtech
Also included in every package is a Genic DVI-I to VGA converter that allows the card's DVI port to power any standard 15-pin monitor.
Zie pagina 3 van hun review
Wel weer een leuk kaartje voor de HTS-ers die graag met 2 monitoren willen werken.
Waar ik alleen op zit te wachten is de opvolger voor de Radeon :( nVidia heeft op dit moment gewoon de beste prestaties in huis en dat is niet goed voor de markt.
Ik bedoel, een kaart van $699? Dat gaat toch helemaal nergens meer over........maar ja, dat heet in het nederlands monopolie :( :(
Ik denk dat het op zich wel mee valt. (de prijs dan) als je ziet hoe advanced de huidige kaarten zijn en de volgende generatie zal worden is het logisch dat de prijs ook omhoog gaat. Vooral het 3d gedeelte neemt bijna alle berekeningen voor zijn rekening terwijl dit vroeger de CPU moest doen.

De GPU op de kaarten tegenwoordig zitten net zo complex in elkaar als een CPU en er moeten steeds nieuwe snufjes uitgevonden worden om het sneller te krijgen. Duur geheugen enz enz.

Kijk maar een naar een Radeon 64 en een GTS 32/64 zelfde prestaties en ongeveer dezelfde prijs. Dus met de prijs van NVIDIA "valt het nog mee". Ik denk dat de opvolger van de Radoen ook zeker niet goedkoop zal zijn en iets onder de prijs zal zitten van NVIDIA's GeForce 3.
Offtoppic

Waar ik ook een beetje ziek van wordt is dat altijd wordt gezegt dat hardcore gamers alleen maar Nvidia kaarten willen hebben :(

Ik ben een hardcore gamer maar ik boycot Nvidia omdat ze 3DFX heeft dood gemaakt.
3DFX heeft toch bij mij het hardcore gamer gevoel in mij opgeroept. Daarom koop ik uit respect geen Nvidia Video kaart.

Dus geef mij maar ATI of kyro
Ja je kunt het ook anders zeggen:

3DFX is na de keuze om zelf de kaarten te gaan maken niet meer zo succesvol geweest als voor de tijd. De tijd van de Voodoo 1&2. Ze verkochten minder kaarten en gingen er gewoon aan onder door. Ook wel concurentie. NVIDIA heeft de kennis van 3DFX gered en past deze nou toe in hun eigen kaarten. Alleen maar goed dus. Dus als je een kaart van NVIDIA koopt koop een dus ook een klein beetje een 3DFX product.

* 786562 Rene
Je bent er wel van overtuigd dat nvidia 3dfx techniek gaat gebruiken. Denk maar dat er veel techniek verloren gaat en dat een beetje ervan gebruiken. Wat denk je dat zij niet ver vooruit plannen? En als het dan zo ver is dat ze 3dfx techniek kunnen gebruiken is het verouderd... :'(
Tja, maar je koopt toch dingen waar je beetje van overtuigd bent.
Niet omdat je het "merk" niet mag.
3dfx heeft ook jarenlang iedereen Glide half opgedrongen .. dat "kwaad" is nu eindelijk uitgeroeid.

Zelf ga ik geen ATI prut halen vanwege de slechte windows2000 drivers. Tja en bij NVidia zit dat nagenoeg altijd wel snor (qua drivers)q.
Al die introducties van die dualhead kaartjes begrijp ik niet. Volgens mij is die markt helemaal niet zo groot. Is het niet eens tijd voor een Poll?
Dual monitoren is mooi, vooral als je webpages bouwt (links de source, rechts het uiteindelijke gebeuren, en zoals al gezegd bij spelletjes, op de ene monitor info en op de andere vrolijk spelen :)
Begint een standaard te worden en waarschijnlijk kost het de producent niet zoveel meer om er een tweede uitgang op te zetten.
VGA + VGA
VGA + DVI (voor een analoog of digitaal Flatpanel)
VGA + DVI + Video Out (TV-uitgang)
VGA + Video Out (TV-uitgang)
Wat ik me afvraag is of het ook mogelijk is om 2x VGA te gebruiken én TV-out. Ik heb nu nog 2x VGA-kaarten. Matrox lijkt volgens de reviews het gamen onmogelijk te maken en Twinview het werken op hoge resoluties (2x21" mon.). Dit zou dus wel een goede mogelijkheid bieden, maar ik wil wel mijn DivX-jes kunnen doorsluisen naar de woonkamer!
EHh nee zoals je in het rijtje kunt zien staat er geen VGA + VGA + Video Out bij. Je kunt natuurlijk wel 1 x CRT 1x TFT en Video out pakken. Maar dat wordt wel wat prijzig zo'n TFTtje..
Ik meende dit kaartje voor 250 piekjes bij EuroPC te hebben gezien...Vet goede deal dus :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True