Meer details over ATi's FireGL X1

Na eerdere berichtgeving over de vermoedelijke specificaties van de Fire GL-serie, ATi's antwoord op de Quadro van nVidia, maakt The Inquirer nog meer details bekend. De X1-videokaart krijgt een core-snelheid mee van 324MHz en het geheugen, dat een grootte heeft van 128MB, loopt op 267MHz. De FireGL Z1 krijgt dezelfde snelheden mee voor de core en het geheugen, alleen wordt er twee keer zoveel geheugen bij geleverd. De plug-in die erbij geleverd wordt, zorgt voor een real-time gerenderde scene uit deel één van de film "Lord of the rings":

ATI FireGL X1 and Z1 will be clocked at 324MHz for the core and 276MHz for the memory. The memory clock is actually slower than the one ATI use on Radeon 9700 PRO – 310MHz. ATI claims that these cards will use better memory chips from high end gaming cards but these chips will have higher performance latencies that will compensate lower memory clock compared to high end Radeon versions.
ATi Fire GL X1 box
*klik*

Door Robin Vreuls

Doktersteam

26-12-2002 • 23:32

38

Submitter: Soar

Bron: The Inquirer

Reacties (38)

38
37
32
11
1
0
Wijzig sortering
De X1-videokaart krijgt een core-snelheid mee van 324MHz en het geheugen, dat een grootte heeft van 128MB
Waarom klopt dit niet met het plaatje? :?
Ik bedoel dus: het plaatje geeft aan dat de X1 256MB geheugen heeft, de tekst zegt dat de Z1 256MB geheugen heeft...
Wat klopt er nu? :?
ze hebben t over 128Mb en op de doos staat 256 Mb :)


/ontopic Wat heb je in godsnaam aan die Plugin die een lotr scene renderd?


Verder denk ik, dat zowel Ati's FireGL als Nvidia's Quadro t afleggen tegen de Matrox Parhelia


Ati en Nvidia moeten zich niet mengen in de prof. markt net zoals Matrox zich niet in de "games" markt moet mengen
Verder denk ik, dat zowel Ati's FireGL als Nvidia's Quadro t afleggen tegen de Matrox Parhelia
Misschien qua aantal mogelijke monitoren die je aan een kaart kan hangen, maar echt niet kwa performance, zeker niet sinds ATi met de 9700 (Pro) is gekomen.

Daarnaast is de laatste Quadro serie (Quadro 4) de eerste Quadro die ook hardwarematig verschilt van de Geforce serie. Dat was eerst niet zo, met een beetje soldeerwerk en een andere driver werd een Geforce een Quadro.

Dat is nu dus niet meer zo, de Quadro 4 is echt een verschillende kaart met bijbehorende prestaties. Zo zal de kaart in games niet veel sneller zijn als de Geforce 4, maar qua renderen, en vooral correctheid van de resultaten, zal de Quadro veel beter zijn.

Hetzelfde zal gelden voor deze nieuwe ATi, de snelheid in games zal niet veel hoger liggen, maar het renderen zal veel beter gaan en daar worden dit soort kaarten voor gebruikt.

Niet zoals de Matrox kaarten gebruikt worden iig, voor videobewerking ofzo. Matrox kaarten worden voor zover ik weet niet gebruikt voor het betere 3D renderen, vooral niet omdat de OpenGL performance een tijdje geleden bij Matrox echt niet goed was.
Renderen heeft niets met de videokaart te maken, althans niet bij professionele 3d beeldverwerking. Het enige wat daar bij komt kijken is pure CPU kracht (en hoeveelheid geheugen bij grote scene's) omdat renderen niet realtime gebeurt.

Bij 3d spellen moet juist alles wel realtime op het scherm gezet worden en daarvoor zijn de zo bekende game videokaarten.

Waar deze kaarten dan wel voor nodig zijn?
Bij modelleren van de objecten/scene's wordt of opengl of directx gebruikt om de 'wireframe's' op het scherm te krijgen. Hoe meer kracht je videokaart levert hoe makkelijker je alles vloeiend kunt aanpassen/ronddraaien/previews kunt bekijken.

Videogeheugen is natuurlijk handig om complexe scene's snel te laden.

Het renderen zal echt niet sneller gaan. Misschien alleen als je die plugin gebruikt waar ze het hier over hebben, maar het lijkt me zeer sterk dat deze plugin betere realtime beeldkwaliteit levert dan een 'echte' render die je CPU bijvoorbeeld een uur bezig houdt.
Een kaart als deze is JUIST bedoelt om dingen in real-time te kunnen doen, en niet een hele boerderij zware PC's. Deze kaarten zijn dus voor CGI workstations om maar een voorbeeld te noemen. Workstations waarmee je realtime dingen in 3D op het beeld kan toveren, en correct. En wireframes maken valt ook gewoon onder renderen hoor.

Als alles gerendert werd zoals jij zegt dan zou een bedrijf als 3DLabs nooit bestaan hebben
Anoniem: 48318 @Beaves27 december 2002 01:21
"Renderen heeft niets met de videokaart te maken, althans niet bij professionele 3d beeldverwerking. Het enige wat daar bij komt kijken is pure CPU kracht (en hoeveelheid geheugen bij grote scene's) omdat renderen niet realtime gebeurt. "

Renderen HAD niets met videokaarten te maken. 32-bits precisie is te weinig voor het echte werk. Maar met 128-bits precisie kaarten ga je natuurlijk niet een cpu laten doen wat een gespecialiseerde videokaart veel sneller kan.

met deze kaarten proberen ati de renderwereld te laten overstappen van multi-cpu bakken naar videokaart bakken.
Renderen heeft niets met de videokaart te maken, althans niet bij professionele 3d beeldverwerking. Het enige wat daar bij komt kijken is pure CPU kracht (en hoeveelheid geheugen bij grote scene's) omdat renderen niet realtime gebeurt.
fout, bij non-realtime 3D rendering wordt óók de grafische kaart gebruikt hoor. Het zou NOGAL idioot zijn als dat niet zo was, de GPU op de hedendaagse videokaart is speciaal gemaakt voor de berekeningen die komen kijken bij het renderen van 3D beelden.
Bij dit soort berekeningen is een GPU véél efficienter als een CPU, ook al is die misschien tien keer zo traag (qua kloksnelheid)
Nee renderen gebeurt nog altijd via de CPU. Een GPU kan namelijk nog niet zo een hoge AA aan. En niet alle effecten kunnen gedaan worden met een GPU.

Wel kunnen deze kaarten gebruikt worden voor het sneller weergeven van de ontwikkelomgeving. Je kunt dus al in je viewports een beter en gedetailleerder realtime resultaat zien. Dit heeft als voorbeeld dat je dus je globale animatie kan afspelen zonder te renderen.

Het echte renderwerk zal nog voorlopig wel uitgevoerd blijven worden door de renderfarms.
Zie GoT :
gathering.tweakers.net/forum/list_messages/679340/0//
Het gaat hier over renderkaarten die het echte renderwerk overnemen van de cpu. Het positieve van dit soort kaarten is dus dat ze snel zullen renderen, maar aan de andere kant wel snel verouderd zijn en niet alle plugins ondersteunen zoals FinalRender/Brazil enz.
De FireGL is helemaal niet zo een render kaart. Deze renderkaarten die jij bedoelt zijn gewoon processoren die geoptimaliseerd zijn voor bepaalde berekeningen zoals raytraces. Deze kaarten geven niets realtime weer, de FireGL kaart is gewoon 100% een weergave kaart en heeft niets met renderen te maken.
Verder denk ik, dat zowel Ati's FireGL als Nvidia's Quadro t afleggen tegen de Matrox Parhelia
Heb jij enig idee voor wat voor markt die kaarten bedoeld zijn? De Quadro is een professionele OpenGL kaart in het instapsegment. Professionele 3d applicaties dus, iets waar Matrox al jaren alleen maar van kan dromen. Al vanaf de Millenium 2 proberen ze het gat te dichten, maar tot nu toe lopen ze wat snelheid betreft echt hopeloos achter de feiten aan.
Anoniem: 38083 @GA!S27 december 2002 10:12
Ik zie weer eens een hoop geschreeuw over Matrox, maar weten jullie wel dat Matrox ook kaartjes bouwt, waar nVidia en ATi alleen van kunnen dromen ?
Oftewel, kennen jullie de Matrox Corona en de Matrox Genesis ?
Is inderdaad een ander segment en andere prijsklasse, maar voordat de andere spelers zoiets kunnen zijn we een aantal jaartjes verder...

Gaan weer weer naar de topic:
De FireGL's zullen wel weer naar verwachting zijn. Zoals altijd presteren ze buitengewoon goed in OpenGL en hebben de beeldkwaliteit van ATi. Daar is nVidia nog steeds hard aan het werken, naar het schijnt willen ze zelfs Matrox hierin gaan overtreffen.

Zou Matrox nu stil zitten, of zouden we nog eens iets van ze horen ? De Parhelia was toch een beetje een tegenvaller, denk ik...
Ik zie weer eens een hoop geschreeuw over Matrox,
Wil je soms gaan beweren dat Matrox qua 3d prestaties zich kan meten met de concurrentie? Of heb ik niet begrepen waar deze draad over gaat...
Daar is nVidia nog steeds hard aan het werken,
De beeldkwaliteit van de Quadro's is altijd al goed geweest. Die is namelijk afhankelijk van de gebruikte electronica op de kaart en daar wordt bij de Quadro's niet op bezuinigd in tegenstelling tot sommige low-budget GeForce klonen.
Dit gaat over proffesionele 3d renderkaarten, niet over 2D, waar matrox heel erg goed is. In 3D, zowel voor gamers als professineel speelt Matrox vrijwel GEEN rol.
Ter verduidelijking, de X1 zal 256 mb ram hebben en zal agp pro 50 zijn, en de Z1 zal 128mb ram hebben en zal AGP 8x zijn...

Waarom het van the Inquirer halen als je de juiste gegevens gewoon van de site van ati zelf kan halen...
/ontopic Wat heb je in godsnaam aan die Plugin die een lotr scene renderd?
de kracht van de kaart demonstreren. LotR is nou eenmaal een film met heeel veel special effects, dus een goede demo voor dit soort kaarten.
Waarom klopt dit niet met het plaatje?
Ik bedoel dus: het plaatje geeft aan dat de X1 256MB geheugen heeft, de tekst zegt dat de Z1 256MB geheugen heeft...
Wat klopt er nu?
Dat is waarschijnlijk een wat ouder plaatje.

Volgens het bericht op The Inquirer krijgt de FireGL X1 128MB geheugen en de FireGL Z1 zou 256MB geheugen krijgen. Het is dus mogelijk dat er voorheen gedacht werd dat de FireGL X1 256MB zou krijgen.

Verder kan je in dit artikel op anandtech lezen dat er toen gedacht werd dat de FireGL X1 inderdaad 256MB aan boord zou krijgen. Een knip uit het artikel van anandtech:

"...the FIRE GL X1 is complemented by 256MB DDR memory..."
'k zou zelf nog meer zeggen, de Z1 is met een 9500pro core, de X1 met een 9700pro kern...

en die XL en GL klopt niet hoor, want het slaat wel op de OpenGL standaard, en niet op een commerciële afkorting
Huh, de radeon 9500pro, en de 9700pro was toch dezelfde core, alleen verschil in bits naar het geheugen toe, de ene was 128 en de ander niet, als ik me niet vergis
de ene was 128 en de ander niet, als ik me niet vergis
uit:
http://www.tweakers.net/nieuws/23764/?highlight=9700+9500+pipelines
Voor computeraars met een kleinere beurs is er de Radeon 9500, die zal beschikken over vier pipelines. De 9500 Pro zal worden geleverd met acht pipelines, evenveel als de 9700 en de 9700 Pro. De core en het geheugen draaien op dezelfde snelheid als bij de 9700, maar de kaart beschikt slechts over 64MB RAM. De toegangsbus is bovendien versmald van 256 bit voor de 9700 naar 128 bit voor de 9500 en de 9500 Pro.
Dan zal het verschil tussen de Z1 en de X1 dat ook wel zijn naast het veschil in grootte van geheugen (dat zeggen ze);
De FireGL Z1 krijgt dezelfde snelheden mee voor de core en het geheugen, alleen wordt er twee keer zoveel geheugen bij geleverd.
Op die site staat wat info over SPEC OpenGL Performance Characterization Project www.specbench.org/gpc/opc.data/vp7/drv-perf.html

En hier staat wat info over de Lord of the Rings

The Maya plug-in that will enabler you card to render one of the scenes of Lord of the Rings will be delivered by ATI but just the plug-in, not the scene because of copyright.

http://overclockersclubcanada.com/newspro1/EpupZZZulZjyVOVSEi.html
De plug-in die erbij geleverd wordt, zorgt voor een real-time gerenderde scene uit deel één van de film "Lord of the rings":
Plug-in... Wat moet ik maar daar precies bij voorstellen :?
En om welke scene gaat het dan, de aftiteling? :P
'The Maya plug-in that will enabler you card to render one of the scenes of Lord of the Rings will be delivered by ATI but just the plug-in, not the scene because of copyright. '

Zo ken ik er nog wel een paar |:(
Het kan best dat deze te koop is of enkel door de makers van Lord of the Rings wordt uitgegeven.
ATi zou er geen baat bij hebben om evt te betalen aan LOTR en dit door te verrekenen in de consumentenprijs.
Wat zou deze kaart bvb kunnen in een "toekomstig" spel als DoomIII ?

Deze lijkt me wel een stapje dichterbij om games te kunnen spelen met een realisme als in finalfantasy aan iets van 60 fps :P
aangezien games veel vragen omtrent texturen enzo, en vooral Doom 3, met da speciaal soort bump mapping procedure, en zo'n videokaarten vooral gericht zijn op polygon-heavy scenes, denk ik niet dat het zo'n vaart zal lopen met doom 3... Maar natuurlijk, het is gebaseerd op 9700pro core, dus echt slabakken zal het ook wel niet doen
www.schneider-digital.de/
deze leverancier/groothandel verwacht dat de X1 128mb op 27 Decemeber in grote heveelheden leverbaar is.

Prijzen volgens deze leverancier:
X1 (9700 GPU) 256MB DDR= E 1154,00 inc.
X1 (9700 GPU) 128MB DDR= E 922,20 inc.
Z1 (9500 GPU) 128MB DDR= E 690,20 inc.

X1 =:
GPU = R9700
Pixel x texel = 8x4
256 bit DDR
128 bit Framebuffer
AGP 4x/8x(128mb model) of AGP Pro8x (256mb model)
24bit Pro RGBA Color

Z1 :
GPU = 9500
Pixel x Texel = 4x4
256 bit DDR
128 bit Framebuffer
AGP 4x/8x
24bit Pro RGBA Color
Jemig 1154 euro voor een videokaart? ze worden steeds duurder, waar is die tijd gebleven dat je voor 10 euro een goede kaart had...maar 256 mb met een 9700 GPU is natuurlijk wel relaxed..
tering, lees ik dat goed?
8x4 architectuur?
houdt dit dan in 8 pipelines, en 4 texture units per pipeline?

in dat geval: wat een polygonen-duwer! de normale radeon 9700 heeft 8x1!
Zijn deze kaarten ook te verkrijgen door een "gewone radeon te modden", zoals in het geval van de geforce 4 / quadro?
Verder denk ik, dat zowel Ati's FireGL als Nvidia's Quadro t afleggen tegen de Matrox Parhelia
Ati en Nvidia moeten zich niet mengen in de prof. markt net zoals Matrox zich niet in de "games" markt moet mengen
Waar haal jij deze "wijsheid" vandaan? De huidige Quadro4 XGL750 met 128 MB is nogal wat rapper dan de Matrox hoor. Bovendien heeft nVidia de Powerdraft drivers van Elsa overgenomen, welke perfect zijn afgestemd op de te gebruiken applicatie.
ach dat is gewoon onzin vroeger was alles beter :o toen betaalde je ook gewoon een paar honderd gulden voor een nieuwe kaart, ja je kon een niet zo nieuwe kaart kopen voor 20 gulden zo kijk maar in de rommel bak daar liggen nou tegenwoordig ook wel tnt's voor dat geld, en voor ongeveer 3x zoveel heb je nog een ati 7000. of een gforce 2
Waarom ook steeds het nieuwste van het nieuwste kopen...

mijn GF4MX kost 80 Euro en daar kan ik gewoon ALLES mee spelen. Binnen een jaar koop ik wel een GF4 Ti4600 aan dezelfde prijs ipv 300 Euro...
Goede zaak dat ATI zo aan de weg timmert, voor ons maar ook voor de techniek. Dit laatste gaat ook sneller door concurrentie, dat vergeten vaak veel mensen.

Op dit item kan niet meer gereageerd worden.