Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: HardOCP

Hoewel over het algemeen de high-end videokaarten de meeste aandacht krijgen in de media, kiezen veel computergebruikers toch voor een goedkoper model. HardOCP heeft daarom een tweetal videokaarten bekeken die verkrijgbaar zijn voor onder de 80 euro.

De twee videokaarten zijn voorzien van gpu's afkomstig van de twee belangrijkste spelers in de videokaartenmarkt: ATi en nVidia. De GeForce 7300 GT neemt de strijd op voor nVidia, terwijl de Radeon X1300 XT de eer van ATi moet verdedigen. Beide chips worden geproduceerd op 90nm en ondersteunen DirectX 9.0c, Shaders Model 3.0 en ddr2- of gddr3-geheugen. De videokaarten die zijn getest, onderscheiden zich van de competitie met dezelfde gpu door een hogere kloksnelheid dan gebruikelijk. Bovendien zijn de twee videokaarten nog niet beschikbaar.

Het nVidia-kamp wordt vertegenwoordigd door de Zogis GeForce 7300 GT Turbo 256MB. Zogis is een nieuwe speler op de markt van videokaarten en wordt gedistribueerd door PowerColor. Zogis maakt alleen videokaarten, en alleen videokaarten met een nVidia-gpu. De GeForce 7300 GT Turbo 256MB werkt op een kloksnelheid van 500MHz, 150MHz boven de referentiekloksnelheid van 350MHz. De videokaart maakt verder gebruik van 256MB gddr3-geheugen op een kloksnelheid van 700MHz (1400MHz ddr), terwijl de meeste andere GeForce 7300 GT-videokaarten ddr2-geheugen op een kloksnelheid van 533MHz gebruiken. Een dual-link dvi-aansluiting, een 15-pin vga-connector en een hdtv-poort zorgen voor de overdacht van de videosignalen naar een monitor of tv. Een actieve koeler zorgt voor voldoende luchtstroom over de gpu; veel andere GeForce 7300GT-videokaarten zijn echter passief gekoeld.

Zogis GeForce 7300 GT Turbo

De Sapphire Radeon X1300 XT vertegenwoordigt het ATi-kamp en is, evenals de Zogis, nog niet verkrijgbaar. De videokaart van dit bedrijf, dat alleen ATi-chips gebruikt voor zijn videokaarten, maakt gebruik van een X1300XT-gpu op een kloksnelheid van 575MHz, 75MHz-boven de referentiekloksnelheid van 500MHz. Het 256MB-grote gddr3-geheugen werkt op een kloksnelheid van 690MHz, 290MHz hoger dan de kloksnelheid op de meeste X1300XT-videokaarten. Net als de Zogis-videokaart heeft ook deze kaart een dual-link dvi-connector, een 15-pin vga-connector en een hdtv-aansluiting. Ook deze videokaart wordt door een koelblok met fan van koeling voorzien.

Uit de bespreking van beide videokaarten blijkt dat ze goed presteren voor hun relatief lage prijs. Uiteraard zijn het geen kaarten die topsnelheden leveren in moderne spellen, maar populaire games zoals World of Warcraft zijn op zeer acceptabele snelheid met veel detail te spelen. Wat betreft overclocken is er niet veel ruimte meer, maar zelfs zonder aanpassingen aan de koeling is er nog een beetje extra snelheid uit te persen. Uiteindelijk wordt de Zogis tot winnaar van de vergelijking uitgeroepen, omdat hij iets beter presteert, minder geluid maakt en iets betere overklokprestaties levert.

Moderatie-faq Wijzig weergave

Reacties (71)

Het is Zogis.

net een minuutje later:p

Ziet eruit en klinkt als een leuk budget kaartje, maar wacht liever op de budget modellen van de 8 serie. Kijken of de 8600 (GT) misschien hetzelfde presteerd als m'n huidige 6800 GT, als ie dan zuiniger is, is dat mooi, kan ik wat energie besparen door de kaart te vervangen. Zal ook gaan schelen qua temperatuur in m'n kast, schat ik dan. En ruimte + kabels.
Kijken of de 8600 (GT) misschien hetzelfde presteerd als m'n huidige 6800 GT, als ie dan zuiniger is, is dat mooi, kan ik wat energie besparen door de kaart te vervangen. Zal ook gaan schelen qua temperatuur in m'n kast, schat ik dan. En ruimte + kabels.
Komt wat vreemd op me over. Je koopt dus een andere kaart voor die voordelen. (Begrijpelijk, ik heb dezelfde kaart) Maar wil je dan geen snèllere kaart? Ik bedoel, als je toch het geld ervoor uitgeeft. Ik neem trouwens aan dat de '8600 GT' wel sneller dan een 6800 GT.
Het ironische is dat het bedrag aan electra dat je hierdoor bespaart lager is dan de aanschafprijs van een 8600GT, dus uiteindelijk ben je duurder uit. Althans, aangezien je zegt dat energiebesparing de voornaamste reden voor je is om de kaart te vervangen. Je moet de 8600GT minimaal een jaar of 3 gebruiken wil je je energiebesparing terugwinnen, maar dan kun je net zo goed een snellere kaart kopen, mooie spellen spelen en dan maar een paar tientjes meer electra betalen.

Aan de andere kant is een GeForce 8 kaart natuurlijk wel veel sneller dan je 6800GT, dus je gaat er sowieso flink op vooruit qua prestaties. Mijn 7900GT is al een enorme vooruitgang t.o.v. m'n 6600GT, laat staan jouw upgrade van GF6 naar GF8.
Ik zou daar niet zo zeker van zijn. Bv. een 6600GT is ook maar nauwelijks of niet sneller dan een Radeon 9800XT, een kaart die 2 generaties ouder is.

Je vergelijkt hier high-end met (weliswaar 2 generaties nieuwere) mid-end, maar er is en blijft een immens verschil tussen beide klasses.

Bron:
http://www.behardware.com/art/imprimer/533/
"The 6600 GT is 5% faster than the 9800 XT"
5% He? Dat zijn ze bij anandtech bepaald niet met je eens, klik hier.
Geflatteerd resultaat, gebaseerd op slechts een spel hoor ik u roepen? Precies mijn punt.
Ik tel nog altijd 1 generatie tussen de 9800 en de 6600. Wie kan mij helpen herinneren welke generatie kaarten dat is?
9800XT is maar 1 generatie ouder, ten tijde van de radeon 9xxx series was nvidia in de 5xxx serie
Err...de 6600GT was een mid-range kaart van Nvidia, de 9800 was het topsegment van ATi en het prijsverschil tussen die twee bij introductie was navenant als ik het mij goed herinner.

Kortom, voor minder geld kreeg je (iets) betere prestaties.
@Tijger

Toen de 6600GT het middensegment was bij nVidia, was de 9800 niet meer de topkaart van ATi hoor. ATi's middensegment was de X700/X800 en hun echte flagship was de fameuze X850 XT Platinum Edition die iedereen wilde hebben, maar niet kon betalen. En de X850XT PE kon je qua prestaties niet bepaald vergelijken met de 6600GT. Dan moest je echt een 6800GT Ultra tevoorschijn halen.

Toen de 9800 Pro bij ATi de topkaart was, was de topkaart van nVidia de Geforce FX5950.
Ten tijde van de X850XT PE was er niks van nvidia dat even snel was. Tis maar met de 7800 kaartjes dat ze de snelheidskroon hebben gepakt.
Tussen de 9800XT en de 6600GT zit een generatie. Het prestatieverschil is vrij klein, meestal in het voordeel van de 6600GT. De 9800XT is van zijn generatie een high-end kaart, de 6600GT is van zijn generatie een mid-end kaart.

Zoiets zie je nu weer met de 7600GT welke beter presteert dan een 6800GT.

Als je deze lijn doortrekt denk ik dat de 8600GT ongeveer gelijk zal presteren aan een 7900GT of misschien wel ietsjes beter. Maar dat is maar afwachten. Maar in ieder geval zal de 8600GT de 6800GT helemaal wegblazen als ook de 7600GT sneller is dan de 6800GT. Het lijkt mij niet waarschijnlijk dat een 8600GT niet veel beter dan een 7600GT zal presteren ;)

Even iets anders: ik heb ergens benchmarks gezien waar ze een 6600GT vergeleken met een standaard geklokte 7300 GT en de 7300GT bleek beter te presteren dan de 6600GT. Deze overgeklokte 7300GT uit het artikel zal dan waarschijnlijk ook prima in staat zijn om de nieuwste spellen op 1024x768 met medium detail te kunnen draaien
Dit artikel is een beetje onduidelijk, Er wordt meer aandacht besteed aan wat er in de videokaarten zit dan wat ze daadwerkelijk presteren. Of ligt dat maar aan mij?
Dit artikel is dan ook maar een samenvatting van het artikel op HardOCP. Als je daar naar toe gaat dan heb je daar een uitgebreide test waar alles in staat wat je zou willen weten.
Daar vind je dus met gemak wat ze precies presteren.
Is het nou Zugis of Zogis?
Beide namen worden meerdere malen gebruikt :?
Het moet in alle gevallen Zogis zijn, zie ook: http://www.zogis.com/index.htm :)
Kan iemand mij het nut uitleggen van die SLI connector op een 7300GT kaart? Lijkt me niet dat SLI veel aan die prestaties veranderd en dat je met een 7600GS/GT of X1650XT goedkoper en zuiniger uit bent...
Als ik het goed heb onthouden presteren 2 7300GTs behoorlijk beter dan een enkele 7600GT. Bovendien is dit vaak een goedkopere oplossing. Correct me if I'm wrong :)
En een enkele 7300GT met GDDR3 geheugen is al sneller dan een 7600GS, laat staan deze overklokte zogis.
Sommigen kopen de extra kaart er pas op termijn bij. Ben je wel vaak relatief een stuk duurder uit, aangezien een kaart na een tijd slechts beperkt verkrijgbaar is.
Tegen de tijd dat die mensen er een tweede kaart bij prikken is de kaart vervangen al een stuk goedkoper geworden. Overigens moet je bij een SLI opstelling ook de extra kosten voor het SLI moederbord EN het hogere stroomverbruik niet vergeten. Dus nogmaals, wat is het nut?
True. Maar, wanneer je een uitgave over een langere tijd kunt uitsmeren, is het voor veel mensen makkelijker te behappen dan een dergelijke aankoop in een keer te doen. Dat je uiteindelijk naar verhouding duudrer uit bent, ben ik met je eens, maar doet niets af aan het eerste.
Maar goed, wellicht zal ook de standaard mogelijkheid die er moet zijn, er deel van uitmaken. Het zal nvidia ook wel niet veel extra kosten om deze mogelijkheid erop te zetten.
Kan iemand mij het nut uitleggen van die SLI connector op een 7300GT kaart?
Volgens mij is SLI niet aktief op die kaart, maar gebruiken ze of een reference design en laten de SLI componenten weg (goedkoper), of ze zijn nog van plan een model met SLI uit te brengen met die componenten erop voor een hoger bedrag (weer goedkoper om maar 1 kaart te produceren).

Ik vraag me eerder af wat ze met HDTV bedoelen, de S-Video naar component verloop stekker, of de dual link DVI die theoretisch (met juiste kabel/dure monitor) HDTV resoluties aankan. Bij HDTV stel ik me eerder HDMI als stekker voor, straks met Vista's alomvattende DRM regime heb je dat nodig als je niet met slechte kwaliteit video/helemaal geen video wil blijven zitten.
Dat klopt niet, HDCP over DVI kan ook prima, HDMI is gewoon DVI + audio over één kabeltje, niets meer niets minder.
Dat klopt niet, HDCP over DVI kan ook prima
Helaas klopt dat wel. HDCP kan theoretisch inderdaad over DVI, maar daarvoor moet er een HDCP crypto ROM aanwezig zijn op de kaart, en dat is voor zover ik weet niet het geval voor bovenstaande kaarten.

ATI zegt zelfs: "Currently there is no commercially available HDCP content. ATI's Radeon® X and Radeon® 9550 series of GPUs are capable of processing HDCP signals ("HDCP ready"), however ATI does not presently manufacture any graphics cards which are HDCP ready. Some third parties manufacture graphics cards containing ATI GPUs -- you can inquire of them which models, if any, -- are HDCP ready."

Nota bene het woordgebruik, ook in de laatste zin: HDCP ready. Dat komt dus neer op: we zijn er klaar voor, mits de extra crypto chip meegeleverd wordt (wat we zelf niet doen en aan derden moet je het maar vragen). Dit is net zoiets als de electronicaboer om de hoek 'HD-ready' apparaten als volwaardige 'HDTV' verkoopt.
Beetje rare tests, ze gebruiken verschillende instellingen bij hetzelfde spel, en baseren zo een opzich wat subjectieve conclusie...
Nee, juist een hele goede test. (veel beter dan andere tests)

Alleen wat anders dan je normaal gesproken gewend bent.

Als je echt objectief wilt testen, dan moet je één factor gelijk houden, en bij de andere factor het verschil bekijken.

Je bent gewend dat het verschil in snelheid wordt gemeten, en dat de beeldkwaliteit dan (zogenaamd) gelijk wordt gehouden.
Zij houden echter de snelheid gelijk, en kijken dan naar het verschil in beeldkwaliteit.

Er zijn een aantal redenen waarom ze dat doen:
1) zo werk je meestal zelf ook. Je hebt voor jezelf een bepaalde minimale framerate die je acceptabel vind, en daarbij kies je dan de beste beeldkwaliteit die je kunt krijgen. Deze methode laat je dan goed zien wat je kunt winnen.
2) Dezelfde snelheid kun je objectief bepalen en dat kun je dus goed als constante gebruiken, waarbij je de beeldkwaliteit varieert. Dat is veel beter dan andersom, aangezien de default beeldkwaliteit bij ATI en Nvidia zelden gelijk is.

De prakijk bij de meeste andere reviews is dat zowel de snelheid als de beeldkwaliteit niet gelijk is. Een goede review zou eerst moeten vaststellen welke beeld instellingen bij ATI en Nvidia een gelijkwaardige beeldkwaliteit opleveren, en zou dan pas de framerates moeten gaan meten.
Ja en nee..

het is meer een test hierdoor van "Hoe veel kan je verwachten van een budget chip!" oftewel..niet op cijfers een benchmark maar echte bruikbaarheid!
Een punt dat ik mis is het afspelen van HighDefinition materiaal en/of hoe de belasting van de CPU is.
Nvidia kaarten zouden met gemak HD moet afspelen omdat dat hardwarematig is opgenomen en met behulp van Purevideo moeten afspelen (extra software krijg je niet bij sommige kaartenbakkers en moet je apart bijkopen). Ati heeft ook iets soortgelijks.
Heb nu een 6600GT en kan er niet echt veel meer spelen met 1024x768 op hoog detail. Ben daarom ook van plan om een nieuwe kaart te halen, alleen het probleem is dat ik geen PCI-express heb. Ik wou wel een geforce 8-serie kopen, maar vraag me nou af of er nou een AGP variant komt van de 8600GT. Ik hoop wel dat het zo is, want anders moet ik weer bijna een nieuwe PC kopen.

Weet iemand of de 8-serie überhaupt op AGP komt?
Even ingaand op je vraag:

Ik denk echt dat AGP nu stervende is hoor. Ze hebben laatst nog een X1950 pro uitgebracht en ik denk eigenlijk ook wel dat dat het laatste voor AGP was.
Denk dat je toch gewoon goedkoper uit bent als je ineens een nieuw moederbordje pakt. Ouwe hardware levert altijd wel wat op en de nieuwe AGP kaartjes zijn toch altijd een pak duurder dan hun PCIe tegenhangers...
Het nadeel van "gewoon" ff een nieuw moederbordje met PCI-E is dat je dan meestal ook verplicht bent om je DDR om te ruilen voor DDR2. Eventueel is een CPU upgrade ook nodig als men nog op Socket A of 478 zit.

Een 8600GT op AGP is dan voor deze mensen nog een uitkomst.
Hoeft niet. Shop eens rond bij Asrock, mijn 775Twins HDTV R2.0 ondersteund DDR en DDR2. Ik kan zelf kiezen wat mijn Conroetje gebruikt. Als je een 939 bordje upgrade, die hebben altijd DDR en bij AM2 hebben ze altijd DDR2 (maar wie koopt er nou een AM2 met AGP...)

En als je nog een socket A of 478 CPU heb, denk je echt dat zulke CPU's voordeel hebben bij een Geforce 8 of ATi X2xxx serie kaarten? Die trekken die dingen toch niet...
Oh deze zijn mooi passief te koelen, met een beetje positieve inzet. Alleen vraag ik me af waarom ze zich toch altijd zo vastklampen aan die analoge uitgang... Waar is dat ding toch goed voor :?
Ik wil niet lullig doen, maar ongeveer 9 op de 10 (ofzo) computers gebruikt nog steeds een analoge ingang. Het is maar een doorlus, dus ook niet veel duurder dan convert stekker.
Laat ik het anders stellen: wat is handiger: alleen analoog (wat gemaakt moet worden) of digitaal en analoog (digitaal is er al). Dat laatste is echt alleen een kwestie van een ander connectortje erop plakken.
onderandere voor mijn Xerox 17" panel?
Met analoge input? Nog nooit gehoord van DVI->RGB verloopstekkers? Die zijn juist uitermate geschikt voor de oude CRT monitoren en budget TFT panels.
Ow, da's simpel. Zo kunnen ze mensen met twee high-end TFT's een dure kaart door de strot rammen die ze niet nodig hebben. Pure marketing :)
Er worden nog steeds monitoren verkocht met analoge ingang. En ik wil zelf ook niet een nieuwe monitor moeten aanschaffen bij een nieuwe kaart.
Dit zijn gewoon perfecte kaarten om de goede oude old skool games zoals ,
cs 1.6
Q3
en paar andere old skool
en wat ook word gezegd wow kun je er goed op spelen

En als je niet te veel geld ervoor wilt uitgeven
Al die vermelde games (behalve wow mss) kun je makkelijk op de hedendaagse geïntegreerde chipsets spelen.

Dit soort kaartjes zijn ideaal voor de gamer op budget, alle recente games voor een spotprijsje.
Q3 op 125fps zonder dips (en dat heb je nodig als je een beetje serieus speelt) is toch niet _zo_ mals hoor. Met een config waar je niet meteen door gekickt wordt door punkbuster haal je dat niet met een gpu die geheugenbandbreedte moet delen met de rest van het systeem.
Wow kan al op een Geforce 2 32Mb, 512Mb ram en een een Athlon of Pentium 3 1Ghz draaien op Low setings :P . Heb het zelf gezien, het ziet er niet uit :+ .
Je zou er van verschieten hoeveel gamers er op dat soort configuraties spelen vandaag de dag.

Niet iedereen heeft het geld en de middelen om zijn pc steeds high end te houden....
kijk, dit soort videokaarten moet je hebben niet te duur, redelijk acceptabel voor games en relatief stil ;)
weet iemand of die zogis ook uitkomt in AGP versie?

topkaartje :D
Wat je zegt klopt niet. Er is nu een agp versie van de X1950 te koop voor ongeveer 200 euro die op dit moment de snelste AGP kaart is die er te krijgen is. Daardoor heeft die 7800GS AGP zijn bestaansrecht verloren. De prijs die daarvoor werd gevraagt was inderdaad belachelijk.

Zoek naar de powercolor X1950 pro in de nieuwsberichten en pricewatch.

N.B. hij heeft ook nog eens echte HD-video versnelling voor de meeste formats. Dus alle vooruitgang is nog prima te krijgen voor een oude interface en dat tegen een acceptabele prijs.
Wat wat mij betreft eens achterwege gelaten mag worden is de snerende toon waar sommigen mee menen te moeten reageren, terwijl er gewoon een vraag gesteld wordt. Je hebt een punt uit te dragen, maar dat kan ook op een normale manier.
Overigens weet ik dat XFX een 7300 GT AGP-kaart heeft. Maar of die zo hoog geklokt is als deze Zogis???

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True