Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: X-Bit Labs

Bij X-Bit Labs is een review verschenen waarin de FireGL V7350 workstationvideokaart getest wordt. Deze kaart is gebaseerd op de R520-chip die we al geruime tijd kennen uit de X1800-serie. De specificaties van de FireGL V7350 zijn ruwweg gelijk aan die van de Radeon X1800 XT, maar in plaats van 512MB geheugen is er 1GB werkgeheugen op de kaart geplaatst. Wanneer 1GB geheugen niet nodig is, is de goedkopere FireGL V7300 met 512MB geheugen een alternatief. De nieuwe generatie professionele videokaarten van ATi is een flinke stap voorwaarts ten opzichte van de vorige generatie.

De FireGL V7350 is echter niet de onbetwiste snelheidskoning, de nVidia Quadro FX 4500 blijkt vergelijkbare prestaties te leveren. In sommige tests wint de FireGL V7350, maar in andere tests moet de kaart zijn meerdere erkennen in de Quadro FX 4500. De prestaties van de FireGL V7350 in 3ds Max zijn uitmuntend, maar in Maya en Autocad stelt de kaart teleur. De reviewer raadt daarom aan om een keuze te bepalen aan de hand van de prestaties in de, voor de potentiŽle koper, belangrijkste applicatie.

ATI FireGL V7350
Moderatie-faq Wijzig weergave

Reacties (38)

Iedere keer weer dezelfde opmerkingen en dezelfde uitleg.

Deze kaart is absoluut niet bedoeld voor games en presteert op dat vlak zeer slecht.

Deze kaarten zijn gespecialiseerd in OpenGL.
In bepaalde takken wordt er steeds meer DirectX gebruikt maar in de engineering-industrie is het nog altijd OpenGL wat de klok slaat (AutoCAD, Pro/E, SolidEdge,...)

Deze kaart is vooral een inhaalslag op het gebied van de OpenGL prestaties.
De fireGL's liepen voor op de Quadro's wat betreft DirectX maar hun OpenGL prestaties waren een pak slechter.
Ze komen steeds meer in de buurt van de Quadro's.

Waarom deze kaarten een fortuin kosten en zo laat komen hangt samen.
In een workstation betaal je voor stabiliteit en goede weergave.
Als in een spel een balk slecht wordt weergegeven merk je dat vrijwel niet, als je in ontwerpen slechte weergave hebt kan dat veel tijd en geld kosten.
Ook wil je niet dat je systeem opeens vastloopt of crasht want dat is tijd en geldverlies.
Een andere reden waarom deze kaarten veel kosten zijn de drivers die zijn aangepast per programma en kaart en een ingenieur gaat zich niet bezig houden met het testen van verschillende drivers.

De voornaamste reden van dit alles is de test cyclus die drivers en kaart moeten doorlopen voordat deze vrijgegeven wordt.
Is er hardwarematig eigenlijk ook een verschil tussen game-kaarten en workstation-kaarten? Of is het puur de software die het verschil maakt?
En wat is het verschil? Gewoon een paar bitjes anders in het register, of is het een totaal aangepaste core?
Het grootste verschil is software maar sinds enkele jaren zijn er toch een paar hardwarematige verschillen.

Over het algemeen zijn de hardwarematige verschillen te vinden in geselecteerde cores, betere componenten, betere RAMDACs enzo.

Het klopt dat er met de huidige generatie nog redelijk mee is te gamen (dankzij verbeterde DirectX implementatie)
De laatste keer dat ik heb proberen gamen op mijn workstation was toen er een Wildcat inzat.
Zeer goed in OpenGL maar DirectX beleef beperkt tot versie 7 :D
Wat zou je willen selecteren in cores? Dat doe je alleen als je hoger wilt gaan klokken dan normaal, en dat komt totaal niet ter sprake bij workstation kaarten.

Betere componenten wordt natuurlijk al snel geroepen omdat je dat toch bijna niet kan controleren. Ik heb er nog nooit enig bewijs of zelfs maar indicatie voor gezien. In ieder geval kan dat al zeker niet het prijsverschil verklaren.

Betere ramdacs is hier ook geen sprake van omdat de ramdacs ingebouwd zitten in de core.

De enige hardware verschillen die ik bij deze category kaarten ken, zijn de hardware verschillen die er op gericht zijn om het onmogelijk te maken workstation drivers op normale game-kaarten te draaien. (anders kan je leuk wat geld besparen door de veel goedkopere en identieke game-kaarten te kopen)

Let wel, ik heb het dan steeds over de categorie workstation kaarten die gebaseerd zijn op game-kaarten.

Een wildcat of zo is een compleet andere categorie. Dat is echt compleet andere hardware.
Puur software.

(er zijn ook workstation kaarten met echt andere hardware, maar die zijn weer veeel duurder dan deze categorie kaarten)
Inderdaad. Behalve dat het leuke is dat je met deze kaarten juist nog wel prima kan gamen, zij het niet zo snel als met de game varianten. Ik heb zelf een aantal 2dehands quadro's gehad, en daar viel prima mee te spelen, en daarnaast nog relaxte 3dsmax drivers ook.
Vraagje. Ik zie dit soort kaarten wel eens bij webshops staan vergezeld van een godsgruwelijk schandaaaaalig hoge prijs. Wie is eigenlijk de markt voor deze kaarten en voor welke toepassingen heb je ze eigenlijk nodig? Ben ik gewoon even benieuwd naar :)
Professionele OpenGL developers, aangezien die dingen daar gruwelijk snel in zijn.
Valt wel tegen. In 3D studio max zijn zowel de FireGL als de Quadro stukken sneller in DirectX mode. Gegeven dat Creative de handdoek in de ring gegooid heeft lijkt DirectX ook voor de profesionele markt the way to go.
Daarbij komt ook dat deze kaarten duur lijken maar de programma's waarmee gebruik van deze kaarten die zijn pas duur.
voorbeeld: Game § 50 dan een 1800XT voor § 400
deze kaart 2000 dollar beetje goede cad kost toch ook zo'n 2 a 3000 euro voor een bedrijf. Nog wat anders en de kosten van de kaart doen er niet eens meer toe.
Niet OpenGL developers :P die kunnent het wel af met een tnt2'tje. OpenGL kunstenaars gebruiken dit.

Denk hierbij aan die prachtige feature films: Gollum en de cave troll, X-men, fantastic 4, alles wat niet echt kan moet gemaakt worden, en om zoiets een beetje handelbaar te houden heb je deze kaarten nodig om het weer te geven.

Denk ook aan architectuur waar grote gebouwen en constructies worden ontworpen in CAD programma's zoals AutoCAD. Ook die gebruiken openGL.

Als je veel geld kunt verdienen met je videokaart, moet je er ook veel voor betalen. Overigens ook voor de software, maya begint op 1200 dollar en de volledige versie heb ik wel gezien voor 6000. CAD programma's durf ik niet eens te bespreken. Er is ook een facial robot programma (om gezichten mee te animeren) dat bijna 100 000$ kost. Het is een dure film, hoe denk je anders dat die feature films in de miljoenen kosten.
Waarom niet een profi kaart gebaseerd op de X1900? De marge is hoog genoeg en het was een manier geweest voor ATi om eindelijk eens een tijdje de snelste te zijn in OpenGL-land. Nu blijft het stuivertje wisselen in vergelijking met de Quadro 4500..
Workstationkaarten hebben strengere eisen en het duurt dus langer om ze op de markt te krijgen. Performantie is daar trouwens een rekbaar begrip. De kaarten zijn zo duur dat men niet ieder jaar aan upgraden denkt. En door kleine hardware- en software-aanpassingen zijn ze zowiezo vele malen sneller dan hun desktopvarianten in CAD toepassingen.
Voor zover er al hardware aanpassingen zijn, zijn die er om te voorkomen dat je de workstation drivers op gewone game-kaarten kunt gebruiken.
Het grote verschil zit 'm namelijk in de drivers.
De applicaties hebben hele specifieke eisen, en door de drivers daarop in te stellen kun je zeer grote prestatiewinst behalen.
Het is maar de vraag of de X1900 voor de workstation markt wel zoveel gunstiger is.

Daar zijn andere zaken belangrijk dan de zaken die voor spellen belangrijk zijn.
Zo zijn bij een workstation kaart de pixel shader prestaties veel minder van belang, terwijl de vertex shader prestaties juist veel meer van belang zijn.

Maar het voordeel van de X1900 tov de X1800 in spellen is nou juist de extra pixel shader prestaties.

Overigens zal de R600 wat dat betreft heel interessant gaan worden voor de workstation markt, aangezien je dan de volledige kracht van de kaart efficient kan inzetten, terwijl nu toch een flink deel verloren gaat, omdat het "maar" aftreksels van game-kaarten zijn.
Wat zijn de verschillen tussen DirectX en OpenGL ? Welke kan mooiste beelden op scherm toveren ?

En welk merk is beste in DirectX ? ATI of Nvidia ?
OpenGL is meer gericht op de workstation markt. (daaruit ontstaan)
DirectX is gericht op de gamers-markt.

Beiden zijn gewoon API's om grafische kaarten aan te sturen. De mooiste beelden hangt uiteindelijk af van de mogelijkheden van de kaart.

Bij opengl heb je de mogelijkheid om je eigen extensies te creeren. Daardoor kan je eigenlijk altijd alle mogelijkheden van de kaart gebruiken. (maar je moet wel je applicatie er op aanpassen)

Bij DirectX zit je vast aan de mogelijkheden in de betreffende DirectX versie. Maar 99.99% van de spellen zijn voor DirectX gemaakt, en daardoor zijn de mogelijkheden van de spellen al afgestemd op de mogelijkheden van DirectX.

Van oudsher is ATI wat beter in DirectX en Nvidia wat beter in OpenGL.
Mijn ervaring op het professionele gebied is dat Nvidia nog steeds beter is op het vlak van OpenGL en beeldkwaliteit.

Het verschil OpenGL en DirectX ligt grotendeels in de implementatie van de programma's.
Ik werk bijna uitsluitend in OpenGL en dat levert zeer goed werk maar ik denk dat OpenGL voor games minder wordt gebruikt.

Je moet altijd kijken naar welke kaart je hebt en wat je ermee doet.
Op een kaart met slechte OpenGL implementatie ga je werken in DirectX.
Heb je een kaart speciaal voor OpenGL dan werk je best met OpenGL
Laat ik het zo zeggen, ik heb hiervoor een nvidia Geforce2GTS gehad, nu nog steeds een radeon 9800 pro, op mijn werk hebben we ook enkele ATI's en ikzelf heb een nvidia.. mijn volgende kaart thuis wordt dus weer een nvidia, want de drivers van ATI zijn gewoon kut.. multimonitor is gewoon slecht geimplementeerd, zonder control center niet makkelijk in te stellen, met control center gaat het gewoon helemaal fout.. Met mijn nvidiakaart heb ik nergens last van, de drivers werken perfect zonder dat ik lang bezig ben om alles weer goed in te stellen.. Oh en de drivers van ATI kunnen niet fatsoenlijk overweg met een monitor die bv tot 1280x1024 85Hz is en daarboven 60Hz je kunt dat niet per resolutie instellen.. Bij de drivers van nvidia had ik daar geen last van..
En heb je het al aangemeld bij ATI?
Al die zaken kunnen gewoon met de prima ATI drivers. Klinkt als configuratie probleem. Als eens keurig alle drivers ge-uninstalled zoals beschreven in de readme's van de drivers?
wat ik me afvraag is hoe deze kaarten in spellen presteren? er word wel gezegd dat hij in 3Dmark uitmuntend presteert, maar waar waarom is de score er dan niet bij vermeld?
Als je goed had gekeken in de review had je dat gezien:
http://www.xbitlabs.com/i...i-firegl-v7350/3dmark.png

Verder zijn deze kaarten daar niet voor gemaakt.
Ze zeggen ook niks over 3Dmark, ze hebben het over 3ds Max!
omdat je daarvoor de kaart niet koopt. Snap ook niet zo goed waarom ze sws iets over 3dmark zeggen maar goed......
omdat dat irrelevant is voor een developer
ATi komt met een nieuwe firegl, waar blijft nvVidia quadro gebaseerd op de G71?
Wordt er gewacht op de G80 core of moet de kaart nog worden gepresenteerd?
Het is ATI die achter zit hoor. R580 is al een tijdje uit. NVIDIA had de NV70 gebaseerde Quadro voor deze R520 gebaseerde FireGL.
Deze kaarten zijn opzich niet zo zeer voor in een enkele workstation.

al worden ze ook wel zo gebruikt, maar dan zullen ze niet echt ruim boven game kaarten uitkomen.

Maar deze kaarten worden dan ook voornamelijk in renderfarms gebruikt.. Om zo vfx scenes voor films te renderen.

Deze kaarten kunnen overweg met een enorm hoge polycount realtime, maar ze zijn niet helemaal geschikt voor gamen, al kan dat natuurlijk best :D
Deze kaarten zijn bedoeld voor een echte workstation.
En dan bedoel ik de echte benaming van een workstation.
Op een workstation wordt er gewerkt met zware tekenprogramma's die nauwkeurige beelden op het scherm moeten brengen.

Verwar een pc (personal computer) niet met een workstation

In een renderfarm zit er meestal een on-board Rage XL met 8 MB geheugen.
De grafische kaart heeft geen invloed op de prestaties van het renderen.
Deze bakken hebben vooral baat bij processorkracht en veel RAM.
Een renderbak dient enkel om een mooi plaatje/animatie te maken en deze dan over het netwerk aan te bieden aan de workstation.
Hoe verhoud dit zich nu met zijn broertje de X1800? Ik snap namelijk niet dat deze kaart zo verschrikkelijk duur moet zijn (Zelfs als je de 512MB versie neemt) Zowel de geheugenchips als de core zijn bijvoorbeeld al langzamer geklokt dan de X1800 varianten.

Wat kunnen deze kaarten (beter) dan de gewone game kaarten?
Voor de kaart betaal je dat geld ook niet, alleen je betaald vooral voor de drivers die meegeleverd worden. Deze zijn extra geoptimaliseerd voor cad en dergelijke.
Hiep hoi, §400,- voor de kaart § 1000,- voor de drivers. Je zou bijna zeggen, waarom maakt er dan niemand goede drivers voor de X1800 en verkoopt die los voor § 500,-
Omdat ze closed source zijn (zowel de chiparchitectuur als de drivers)
alsof je die niet ergens van het internet kan plukken :Z
Niet iedereen is zo crimineel als ons tweakers. Daarbij heb jij tog niets aan die drivers is de markt dusdanig klein dat je idd gaat betalen voor de driverontwikkeling. Lijkt me niet meer dan normaal. Overigens moet je als bedrijf maar eens proberen een zaakje te draaien met van het internet geripte software, ze gooien de boel zo dicht als ze erachter komen.

En eindelijk snap ik die godsgruwelijk schandaaaalige prijzen. Niet meer naar omkijken, heb tog niks aan die kaarten :)
moet het woord 'andere' tussen 'in' en 'tests' volgens mij. Maar is er voor dit soort commentaar niet een draadje op het forum? :)
Sorry ben nogal nieuw hier en ik had wat meer van deze dingen gezien hier dus ik dacht dat dat zo moest.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True