Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties

ATi heeft de professionele FireGL-videokaarten die het bedrijf vorige maand nog aankondigde vandaag officieel gelanceerd. De pro-lijn begint met de 299 dollar kostende V3600 en loopt op tot de V8650, die 2800 dollar moet opbrengen.

ATi FireGL-logoHet instapmodel van de FireGL-reeks is de V3600 die bedoeld is voor werkzaamheden als eenvoudig cad-werk. De kaart wordt geleverd met 256MB geheugen, 120 shaders en een 128bit-geheugenbus die een bandbreedte van 16GB/s biedt. De op de RV630Pro gebaseerde budgetkaart moet 299 dollar kosten.

Direct daarboven is de V5600 gepositioneerd, die als verbeteringen 512MB geheugen met een bandbreedte van 35GB/s biedt en een gpu die gebaseerd is op de RV630 XTX. De prijs van de V5600 ligt rond de 600 dollar. Voor nog betere prestaties is er de V7600 met 512MB geheugen via een 51GB/s, 256bit-geheugenbus en 320 shaders. Deze kaart kost ongeveer duizend dollar.

Voor wie ook dat nog niet snel genoeg is, zijn er de FireGL V8600 en de FireGL 8650 die met respectievelijk 1GB en 2GB aan geheugen via een 512bit-geheugenbus worden geleverd. Dankzij deze snelle interface is de geheugenbandbreedte maar liefst 128GB/s. Beide kaarten worden met 320 shaders geleverd. De 8600 kost 1900 dollar en aan de 8650 hangt een prijskaartje van 2800 dollar.

Alle kaarten ondersteunen Windows Vista, DirectX 10, OpenGL 2.1, Shader Model 4 en duallink-dvi. Daarnaast bieden de V7600, V8600 en V8650 een hd-componentuitgang.

ATi FireGL V8650 2GB
Moderatie-faq Wijzig weergave

Reacties (29)

De gpu is gewoon het zelfde.
De bios is anders ingedeelt. (maar nog steets het zelfde)
De drivers doen de rest .

Maar dat minimaal verschil.
De hardware zelf bestaat uit het beste onderdelen omdat de kaarten meestal ful load draaien (de pc staan meestal niet uit)
De hardware moet dus meer dan 100% betrouwbaar zijn.
Je betaalt ook voor de drivers (mog er een probleem zijn dan wordje geholpen door de team van ati\amd)
De pc versie driver voor games word dus minder aandacht besteet (problemen worden wel opgelost als er meerderen last van heb maar je betaal er niet voor.)
GPU hetzelfde...

Bios iets andesr

Drivers doen gewoon wat nodig is...


Is het bios dan niet te hacken? Ben benieuwd of dat zou kunnen werken.. maar geen gek op deze wereld die een kaart van 2800 $ koopt om hem proberen om te toveren tot een gamekaart van 400 $ :)
Het is niet alleen te hacken, het wordt al jaren veelvuldig toegepast door diegene met een beperkt budget, en toch optimaal gebruik willen maken van wat een profi kaart kan bieden.

Persoonlijk was voor mij de laatste een GeForce FX5900XT @ Quadro FX3000. Dit omdat ik de rauwe snelheid van de GPU niet gebruik, en de budget Quadro's steeds meer in mijn eigen budget vallen.

Maar goed. Google is je vriend. Op WiKi kan je ook redelijk wat terug vinden, wat je met een drivermod zou kunnen berijken tussen ATI Radeon & FireGL, en nVidia Geforce & Quadro.
Maar met zo'n dikke radeon 2900 xt sta je daar als er een probleempje is. Als er bv een bug is in de samenwerking met bepaalde, specifieke software die je nodig heb. Met zo'n professionele kaart kun je dan gewoon ati/amd contacteren en ze moeten dan kijken of het probleem niet op te lossen valt terwijl ze met de radeon 2900 xt wel eens zullen kijken als er een paar 100 klachten binnenkomen.

En ik dacht ook eens gelezen te hebben dat de kost hier vooral in het onwikkelen van de drivers kruipt en niet in de hardware. Er moet een groep programmeurs worden ingezet die speciale drivers moeten ontwikkelen en de kost daarvan wordt maar verdeeld over een kleine groep. Terwijl met de radeon 2900 xt de kost van het driver ontwikkelen maar een klein kost is per kaart omdat er zoveel van verkocht worden.

En voor gewone video bewerking ben je misschien goet af met een radion 2900 xt maar als je modellen moet renderen met een industrieel doeleinde zul je wel meer zijn met een kaart die hiering gespecialiseerd is.
idd, dat vraag ik me igg ook af. Die topkaarten zien er gewoon uberkaarten uit. Zeker als je kijkt naar het aantal shaders... Maar wat maakt deze kaarten nu verschillend ivm de 'normale' kaarten? Sneller processor in 2D bewerkingen??
GPU, Architectuur, Drivers etc.. is allemaal ge-optimalizeerd voor het 3D renderen.
Daarom is deze kaart stabieler en sneller in het verwerken van gegevens in programma's zoals Maya en CAD.
De fanatieke gamer heeft aan zulk soort dingen niet veel.
Voornamelijk de driver, ook al zitten er qua geheugen, kloksnelheid etc vaak ook lichte verschillen met de 'gamer'-kaarten, en zijn er soms features beschikbaar die de 'gamer'-kaart niet heeft (zoals bv lijn-antialiasing).
Maar de basis van de GPU is gelijk. Je moet het een beetje zien als een Core2 en een Xeon. In feite dezelfde technologie, maar voor een ander toepassingsgebied.
Kijk dat bedoel ik nu.
Je heb 100% gelijk zit geen verschil in aleen de bios en de bijbehoorende drivers :P
Waar de normale kaarten firmware hebben die geoptimaliseerd is voor games met bijbehorende berekeningen zijn deze geoptimaliseerd voor CAD en 3dmax achtige applicaties. Uiteraard is vanwegen de andere firmware de driver ook anders en niet geoptimaliseerd op het meeste FPS maar op bijvoorbeeld het beste render resultaat ect.

Omdat deze firmware geschreven wordt voor een kleinere afzetmarkt die vooral uit bedrijven bestaat zijn de kaarten duurder dan hun normale tegenhangers. De hardware kant van de kaarten is nagenoeg het zelfde als die van de normale versies.

[Reactie gewijzigd door reb65 op 18 september 2007 23:27]

Is zo'n topmodel eigenlijk ook iets voor (iets te fanatieke) gamers, of zijn deze kaarten gespecialiseerd voor andere dingen en totaal nutteloos voor gamen?
deze kaarten zijn gespecialiseerd voor open-gl dacht ik, bij direct3d werkt het dacht ik niet zo goed, ze zijn er ook niet voor gemaakt.
je zou het kunnen zien als dit, ze kunnen veel dingen in een keer maar niet snel
game kaarten kunnen minder in een keer maar ze kunnen veel sneller renderen

[Reactie gewijzigd door oddish2211 op 18 september 2007 22:46]

Dit is gewoon een workstation versie van de HD kaarten. Maar deze zijn beter geschikt voor de professionele markt zoals CAD-programmas. Weggesmeten geld als je hiermee wilt gamen. Voor de professionele markt zijn het schitterende kaarten.
Ik heb zelf een FireGL V5100 (gebaseerd op de X800 serie) en geloof me, hij presteert echt heel behoorlijk in DirectX. Ik heb er UT2003, BF1942, van alles mee gespeeld, 1280, full opties, geen problemen. Met nieuwere games is het waarschijnlijk wat minder, maar ze werken toch echt best goed.

De nVidia Quadro kaarten zijn echter wat minder - artefacts en ook vage errors/crashes (heb 2x FX-1400)
UT2003 en BF1942 zijn beste oude games ik vindt niet dat je dat kan vergelijken.
Wat doet bijv. Half-Life 2, Bioshock, Supreme Commander, Far Cry, Enemy Territory: Quake Wars, Lost Planet en Command & Conquer: Tiberium Wars..

btw. BF1942 was(en is nu nog steeds) zeer afhankelijk van je interne geheugen.. :+
Far Cry draait bij mij op een Go 7300 en een radeon 9800pro op maximaal met goede framerate, dus is het niet echt geschikt meer als je Far Cry gebruikt. Zelfde geldt voor HL2.
HL2:Ep1/2 zijn wel goede middelen denk ik, met de vernieuwing and all...
Volgens mij heeft dit weinig met open gl te maken. FireGL is gewoon de naam van professionele lijn van ATI/AMD net als Nvidia de Quadro lijn hiervoor heeft.

Idd de direct3d ondersteuning zal wel minder zijn op deze kaarten omdat dit een serie api's is ter ondersteuning van games niets meer en niets minder en dus niet wordt gebruikt door de applicaties van designers. Het primaire verschil zit hem in de optimalisatie voor berekeneningen die vaak voorkomen in 3d editing softwaren en CAD programma's

[Reactie gewijzigd door reb65 op 18 september 2007 23:09]

Heb je (of iemand anders) enig idee hoe deze zich tegenover elkaar verhouden? (Fire vs Quadro)
Zit namelijk te overwegen om er een aan te schaffen. Mn mobo heeft een nVidia chipset (nForce). Zou dit verschil kunnen maken?
Volgens eerdere testen vegen de nieuwe FireGL kaarten de vloer aan met de huidige Quadro's die gebaseerd zijn op de G80. Vooral de midrange met 320 shaders is superieur, dat komt omdat ATI alle 320 shaders kan laten werken voor bepaalde berekeningen.

Hoe dit is met de goedkoopste FireGL kaarten met 120 shaders weet ik niet.
Hoe zit het met de 2D programma's dan? Hebben die hier ook baat bij of ligt het dan meestal aan het geheugen en cpu?
Wat ik er van weet zijn ze niet zozeer heel snel, maar vooral heel stabiel, zodat ze geschikt zijn voor professioneel gebruik. (door 3d-modellers, ontwerpers etc)

Een beetje vergelijkbaar met ECC geregistreerd geheugen :)

[Reactie gewijzigd door Kul op 18 september 2007 22:45]

Wat is het verschil tussen de ATI fireGL en Nvidea Quadro in de prestaties?
Ik weet dat de Nvidea Quadro in de drivers veel extra dingen heeft voor speciale programma's zoals inventor van autodesk. Hoe zit dat bij ATI?
Deze kaarten zijn zeer geschikt voor zware rendering zoals in de film industrie of industrieel ontwerpen (auto`s, boten, vliegtuigen etc)

Ik lees niets over een CrossFire opstelling? Door 2 van deze kaarten te bundelen kan je enorm veel power krijgen. En veel schermen aansluiten wanneer dit nodig is.

1 ding begrijp ik niet van deze kaarten. Waarom laten ze lucht van achteruit naar binnen zuigen dat is per slot van rekening warme lucht wat de kast verlaat en zo weer terugkomt?

De koeler had beter andersom neer gezet kunnen worden zodat de uit de warme lucht uit de kast word geblazen en koude lucht van de intake naar achteren gaat.

[Reactie gewijzigd door loodgieter op 18 september 2007 23:32]

Dat lijkt me een plaatje van de vorige FireGL serie die gebaseerd is op de X1800/X1900 kaartjes...
ik weet niet echt of dit nou echt zijn voordelen heeft voor video bewerking. volgens mij is een ontwikkelaar goedkoper uit als hij zich zelf een dikke geforce 8800 Ultra of radeon 2900 xt koopt. als je naar de prestatie kijkt dan
nieuws: GeForce4 Ti omtoveren in Quadro4

Zou dit ook werken met die nieuwe FireGL? :+
Ook nVidia komt uit met meer professionele kaarten Sinds 12 september 2007

http://www.beyond3d.com/content/articles/90

Komt vast ook snel op de frontpage te staan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True