Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties
Bron: DragonSteelMods

Diamond Multimedia heeft een Radeon HD 2900XT uitgebracht met 1GB gddr4-geheugen. De videokaart is daarmee de nieuwe recordhouder op het gebied van omvang van het videogeheugen.

Diamond Radeon HD 2900XT 1GBDe Diamond Radeon HD 2900XT 1GB maakt gebruik van een 512-bits brede geheugeninterface op 1,65GHz voor de communicatie tussen de gpu en het videogeheugen. De kaart is voorzien van een hdmi-poort, waarmee hd-video en 5.1-surround geluid verstuurd kunnen worden. Een dual-link dvi-poort vormt de tweede video-uitgang. Onduidelijk is nog of de R600-gpu door Diamond is overgeklokt ten opzichte van de standaard frequentie van 742MHz. Naast de verkoopprijs is nog onbekend welke winst wordt behaald met de geheugenverdubbeling, maar uit eerdere benchmarks met een 512MB exemplaar blijkt dat de HD 2900XT zich prima staande kan houden ten opzichte van nVidia 8800GTS-videokaarten.

Moderatie-faq Wijzig weergave

Reacties (113)

lomp.... lomper.... lompst

toch blijf ik me afvragen wat het nut is van die extra 512 mb. Dan moet je wel een behoorlijk hoge resolutie draaien wil je de volle gigabyte vol krijgen, en misschien is de core dan de bottleneck (of de processor, geheugensnelheid etc.)

de 320 mb van de 8800 gts is voor de meeste games rond 1600*1200 al voldoende. de 640 mb was overkill en voor mensen met een 28" scherm kunnen ook wel wat duiten bijleggen voor een 8800 gtx.

Ben benieuwd wat de xtx variant laat zien. Deze komt toch standaard met een gig aan geheugen?
texture geheugen heb je niet alleen voor je resolutie op het scherm, toch? De resolutie van de texture zélf is toch juist voornamelijk bepalend voor hoeveel textures je in één cycle in je vram kan proppen? En dus equals meer geheugen op je videoplank hogere resolutie textures equals betere GFX met dezelfde instellingen en resolutie?

Of heb ik het ergens verkeerd begrepen?
Daar heb je helemaal gelijk in, sterker nog de maximale resolutie van je scherm word 100% bepaald door de ramdac, wat zoals het word zegt zelf al een combinatie is van een ram en een dac die het signaal omzet om naar de monitor te exporteren. Dat is iets heel anders dan je videogeheugen. Videogeheugen bepaald de hoeveelheid textures en de resolutie ervan en het aantal triangles/ploygonen ed. In feite dus de hoeveelheid detail die je op je scherm kan krijgen. Ook is het voor een kleiner deel van belang voor al je shaders en bij de hoeveelheid shaders die deze kaart heeft zal dat ook niet meer geheel te verwaarlozen zijn.
Goed en fout.

Vroeger werd je maximale resolutie en kleurendiepte bepaald door de hoeveelheid videogeheugen. Simpel rekensommetje: om 1280x1024 op 16-bit kleuren te tonen heb je gewoon minimaal 1280*1024*16 /8 = ~2,5mb videogeheugen nodig.

Tegenwoordig zitten we met de hoeveelheden geheugen al niet meer naar max resolutie e.d. te kijken, dat is toch wel 'covered'. Nu wordt het inderdaad (voornamelijk)gebruikt om textures in te zetten. Hoe meer videogeheugen, hoe meer (uncompressed) textures er in kunnen. Wat snelheid danwel beeldkwaliteit ten goede komt.

Gebruikt een programma (spel) nu op maximale instellingen (beeldkwaliteit) 500mb dan heeft van 512mb naar 1024mb videogeheugen gaan (vrijwel) geen zin.
1280x1024 op 16-bit kleuren te tonen heb je gewoon minimaal 1280*1024*16 /8 = ~2,5mb videogeheugen nodig.

Errr, en in 3 dimensies?
hetzelfde een pixel is een pixel en het is nog steeds een plaat waar je tegenaankijkt van pixels.
Op de achtergrond word er veel gedaan met het geheugen ( berekeningen etc. Daarna word het weg geschreven naar eens stuk geheugen op de vid kaart en word er opdracht gegeven om die buffer te tonen.
Errr, en in 3 dimensies?
het beeldscherm blijft plat/2d hoor. 3d is puur een optische illusie
En ik vindt het lomp om dergelijke aannamens te maken zonder benchmarks of enig ander bewijs. Daarbij game ik op 1920*1080. Bij dergelijke resoluties ben ik toch erg benieuwd hoe deze kaart presteerd tegenover 512 of 640mb varianten.
Precies.
Voorbeeldje: Op deze pagina http://www.legionhardware.com/document.php?id=645&p=3 is het prestatieverschil te zien tussen een 320 MB en een 640 MB variant van een 8800 GTS.
En sinds wanneer kun je 'teveel' geheugen hebben, right? ;)
Als er een kaart is die 'teveel' geheugen mag hebben is het zeker een topkaart, niet zo'n budget kaart waar men doodleuk 256 of 512MB op zet.
Toch zou ik, mocht ik geld over hebben voor highend videokaarten mooi een 512MB versie halen en het geld dat ik bespaar alvast opzij zetten voor de opvolger.
Zoek eens in het archief naar wat mensen riepen bij de eerste 512MB, 256MB en 128MB kaarten. Inderdaad: "wat is het nut van dat extra geheugen". Ondertussen weten we wel wat het nut is. Game developers slagen er continue in meer geheugen te gebruiken dus meer is uiteindelijk altijd beter. Wel kun je je afvragen hoe snel de ontwikkelaars deze gig zinvol weten te gebruiken en of een 2900XT tzt nog snel genoeg is.

Meer is beter en 1 moet de eerste zijn.
en die eerste kaart met meer geheugen heeft daar meestal geen zak aan
Wat een onzin. Meer is zeker niet altijd beter, zeker als het niet gebruikt wordt en/of gebruikt gaat worden, bovendien zie je nog regelmatig dat kaarten met meer geheugen trager geheugen hebben.

Tot een bepaalde resolutie heb je altijd genoeg aan een bepaald aantal MB, meer gaat je echt niet helpen; nutteloos extra geheugen dus. De spellen die straks misschien wel meer geheugen nodig zouden hebben bij die "relatief lage resolutie", zullen zeer waarschijnlijk ook weer een nieuwere, snellere GPU wensen. Daar zit je dan met je brakke GPU + een sloot geheugen.

Wat je zegt raakt kant nog wal, ik kan ook geen enkel bewijs voor je stelling vinden. Kan jij dat wel, wil je dat dan laten zien ?

Ik heb nu een X1950 Pro (512MB) en doet het aardig van 1280x1024 t/m 1600x1200. Maar op 1600x1200 krijgt die het al moeilijk in bepaalde spellen, en dat heeft niks met geheugen te maken. Game developers gebruiken meer geheugen, omdat de textures groter worden, die worden groter omdat we in steeds hogere resoluties spelen. Het is echt niet zo dat we met 1024x768 ineens 1 GB videogeheugen nodig gaan hebben, da's klinkklare onzin wat je nu stelt.
O jawel, de hoeveelheid videogeheugen heeft wel degelijk invloed op de prestaties in 3D games. Het prestatieverschil zie je nu al tussen de 320 MB en 640 MB versies van de 8800 GTS (http://www.legionhardware.com/document.php?id=645&p=3).
DX10 laat nog eens 2x grotere textures toe dan DX9. Dus tel uit je framerate winst ;)
2 a 5 FPS gemiddeld. omg :O
Dat rechtvaardigt zeker niet de ¤ 100,- meerprijs, als je toch in vrij lage resoluties speelt. Ik bedoel, 80 of 85 fps per sec, merk jij het verschil ?
In de hoogste resolutie zie ik toch wel 14 fps verschil bij FEAR, ongeveer 20 % meer dus. En dit zijn gemiddelde framerates , het zijn de minima die iets onspeelbaar maken , en dan zou ik hier toch echt wel voor de kaart kiezen met het meeste geheugen !
Precies, en dat bedoelde ik dus; met hogere resoluties ga je het verschil pas goed merken....
@ Madrox: Precies, en dat bedoelde ik dus; met hogere resoluties ga je het verschil pas goed merken....

En die hogere resoluties zijn er al met de huidige monitoren.
Dus wat wil je zeggen?

[Reactie gewijzigd door Fireshade op 12 juni 2007 20:31]

@Madrox: 2 a 5 FPS gemiddeld. omg :O
Dat rechtvaardigt zeker niet de ¤ 100,- meerprijs, als je toch in vrij lage resoluties speelt. Ik bedoel, 80 of 85 fps per sec, merk jij het verschil ?


Lekker selectief argument.
deze kaart is duidelijk bedoeld voor high end gamers. en die gaan niet op 1024x768 spelen. nee, die draaien het liefst minimaal 1600x1200. deze kaart stop je ook niet in je P4 systeempje.
Dus in deze context gaat het grote geheugen zeker wel tellen. En dan "vergeet" je even te melden dat het dubbelgrote geheugen op een 8800 wel even 61 fps trekt tov van een schamele 48 fps bij 1600x1200.
Wel zo eerlijk om dat ook bij te vertellen, niet?

[Reactie gewijzigd door Fireshade op 12 juni 2007 20:40]

Dat rechtvaardigt voor JOUW niet die meerprijs.
Ik zelf vind dat elke top-kaart zijn prijs niet rechtvaardigt, kortom dat moet ieder voor zichzelf bepalen.
Er zal altijd iemand zijn die gewoon de snelste of gewoon de duurste wil, ongeacht wat het kost.

Daarnaast is het mooie marketing. We praten er hier al weer over. Mooi met 1GB op de verpakking patsen en hop, iedereen weet weer wie diamond is.
Hmm. Volgens mij is het toch wel zo dat bij een generatie kaarten de kaarten met het hoogst aantal MB geheugen, dat geheugen overkill is omdat de kaart simpelweg niet snel genoeg is om er mee om te gaan.

Bij een TI4200 was 256 MB overkill, bij een Radeon 9700 was 512 overkill en misschien is een Gig bij een 2900 overkill. Dat hetzelfde "overkill" geheugen bij een volgende generatie mainstream is, dat is inderdaad logisch. Maar dat betekent niet dat het geen overkill was toen het geintroduceerd werd.

Vraag is dus of dat in dit geval zo is. Ik wacht op de benches voordat ik een mening geef ;)
@M2M: "de 640 mb was overkill"
Niet voor een paar games die je op 1920x1050 op hoogste kwaliteit wil draaien.
Sommige 8800 kaarten met 320 MB kunnen dat niet eens aan en weigeren dus die instelling.
En met DX10 waarin veel grotere (=gedetailleerdere) texturen mogelijk zijn, zal de hoeveelheid geheugen dus nog meer gaan tellen.
Kan je ook zeggen waarom DX10 veel grotere textures mogelijk maakt tov DX9? De nieuwe paging feature is eerder een argument tegen gigabytes RAM op de videokaart. Dat de textures groter zullen worden spreekt voor zich, maar dat heeft weinig met DX10 te maken.
DX9 kan alleen het videogeheugen gebruiken voor textures. Daar zou meer videogeheugen natuurlijk ook prima zijn. Bij DX9 is videogeheugen op=op, klaar-> lo res textures of game start niet.
De hoeveelheid videogeheugen gaat zwaarder tellen bij DX10, omdat DX10 naar je totale systeemgeheugen kijkt. Is er niet genoeg videogeheugen, dan pakt ie ook (een deel van) je werkgeheugen af. Als dat gebeurt kan de rest van je systeem trager lopen (fileswapping op HDD). Terwijl het risico hierop bij DX9 dus totaal uitgesloten was.

P.S.: DX9 laat maximale textures toe van 4096x4096.
DX10 maximum: 8192x8192. Ook is er dus geen limiet meer voor texturegeheugen, want DX10 mag voor textures ook werkgeheugen aanspreken. Nou, dus dan weet je wel wat game developers gaan doen.

[Reactie gewijzigd door Fireshade op 11 juni 2007 15:22]

Omdat het cool is. Omdat de meeste consumenten denken: "Meer is beter".
Omdat je dit bericht nu net gelezen hebt en daarmee de naam Diamond.

Marketing werkt zo simpel ;)
Onduidelijk is of hij overklokt is? Maar zie ik op het plaatje niet 825MHz staan ;) ? Of is dit voor het geheugen?

Ik had vroeger een S3 2000 en een V770 Ultra van deze jongens, alletwee veel plezier van gehad en Diamond stond bekend als een sexy goed merk; ik wens ze succes met het opnieuw opbouwen!

Overigens zal deze kaart de 8800GTX en Ultra nog steeds voor moeten laten gaan met de huidige drivers, in case somebody got his hopes up. Nou jongens, we zijn er ... 1GB geheugen :X . En dan neem ik niet dat monster van een 7950GX2 mee ...
Ze hebben het volgens mij over het geheugen wat op 825 Mhz draait. Doe dit maal 2 en je komt op de genoemde 1,65Ghz uit zoals in het artikel staat.
das behoorlijk minder dan ze belooft hadden.

in nieuws: Nieuwe benchmarks Radeon HD 2900XT
staat dat ze bij de 1GB versie waarschijnlijk 2.2GHz zouden kunnen halen..

nog niet dus

edit: eerst beter lezen... die 2.2GHz is bij de XTX versie..hier is het over de XT

[Reactie gewijzigd door dark.druicca op 11 juni 2007 14:01]

Haha erg scherp, idd 825mhz... Maar misschien is het geen echt plaatje? Ik vraag me af wat het voor de prestaties inhoud en wat de prijs is (De ultra is bij mijn lokale pc-boer 780 euro)
7950GX2, is van de vorige generatie en deze is nu ook nog steeds 1 van de snelste ;)..
Voor deze generatie is de ATI de eerste met echt 1GB geheugen voor 1 chip.
Zo kan ik ook 2 van die ati kaarten in crosfire zetten en dan heb je 2GB, want de 7950gx2 is eigenlijk een soort van sli kaart.
Ware het niet dat de 7950GX2 2 kaarten zijn in SLI waardoor de effectieve geheugengrootte toch weer op 512MB komt. Bij SLI mag je namelijk de geheugenhoeveelheden niet simpelweg optellen omdat er in beide kaarten een kopie van de textures wordt bewaard.
Mooie comeback van Diamond :)
dit is geen comeback want diamond was zelf GPU en kaarten maker, ze zijn nu niets anders dan Asus MSI Sapphire en Club3D op videokaarten gebied.

er is pas sprake van een comeback als ze zelf een totaal nieuwe kaart op de markt brengen
Omg, de zoveelste die nog steeds gelooft dat Diamond ooit chipbakkers waren. Vroeger toen je klein was begreep je het waarschijnlijk nog niet, en dacht je dat een Diamond Viper V330 iets van Diamond was inplaats van een nVidia Riva128 chip, want jaja die chip hebben we ook nog gehad. Ik had het vroeger imho altijd over een nVidia Riva. Grappig dat sommigen die link zo laat pas weten te leggen. Een boutvideochip overigens, want in Quake2 (en andere games) liet de Riva nog veel te veel gaten vallen tussen polygonen, iets wat 3DFX nooit had. Bij de Riva TNT (Viper V550) werd dat een heel stuk beter en kon de kaart aardig meekomen met de Voodoo2's, hoewel een SLI Voodoo2 toch echt meer ballen had, draaiden de rollen om bij Quake3, waar de Voodoo kaarten volledig waardeloos werden kwa performance en beeldkwaliteit. De TNT1/2 was veel beter voor Quake3, waarna de eerste Geforce pas echt zorgde voor een flinke performance/graphics boost met betere triliniair filtering etc. Rond diezelfde tijd kwamen ook de eerste ATi Radeon's die in het begin echt niet mee konden komen met de geforce'jes. Dit werd zoals we allemaal weten veel beter, maar nogsteeds spant het erom.
De Diamond Stealth II S220 was mijn eerste echte 3D kaart ooit, en dat was een Rendition Verite chip. Van Rendition heb ik daarna nooit meer wat vernomen, hoewel de chip in sommige games aardig mee kon komen met de Voodoo1 van 3DFX (die de kroon spande destijds) ik vond de 3DFX'jes alleen niet te betalen, de Voodoo2 was ook werkelijk een rib uit mijn lijf, maar heb er in de loop der tijd toch zes van gekocht om zo met drie pc's quake2 tegen elkaar te gamen met een resolutie van wel 1024x768, want dat was de shit natuurlijk, hehe.

Maar Diamond had daarvoor ook al veel kaartjes gebasseerd op van die simplistische S3 chips die ook met 3D varienten kwamen die meer "3d-decellerators" waren dan 3d-accellerators zoals ze dat toen zo mooi noemden. Ok, hij kon bilineair filtering, maar daar hield het mee op. Onder DOS gebruikte ik zo'n ATi MACH64 oid die zeker niet te betalen was destijds, zelfs 3d kaarten van nu zijn goedkoop in verhouding.

Al met al, die tijd van spenderen en jezelf doodgamen hebben we wel een beetje gehad, ik was toen 15/16 jaar oid en tweakte en soldeerde aan alles wat los en vast zat. Ik heb ook een belachelijke hoop geleerd van early-adaptor zijn, en ben blij dat ik die tijd achter de rug heb. Inmiddels heb ik het bijltje er maar bij neer gelegt en vind ik dat mijn 4 jaar oude pc nog prima meekan. Die toprange spullen interesseren me helemaal niet meer, vooral omdat ik geleerd heb dat het verschil in performance zo tegenvalt. Nu nog bouw ik geregeld high-end gamepc's voor kennisen en kom ik er weer achter dat het verschil in performance mij niet kan bekoren, maar het helpt zeker als je zo af en toe toch kan zien wat toprange is en het kan testen, dan hoef je het zelf ook niet zonodig meer te hebben vanwege de nieuwsgierigheid naar een nieuw product.

[Reactie gewijzigd door BruT@LysT op 11 juni 2007 16:50]

Heel aardig verhaal dat je hier verteld, erg informatief! Echter ;) , ik had vroeger ook een Diamond Stealth II S220 (Turbo), en bij mijn weten was dat absoluut geen 3D kaart, sterker nog, Quake 1 liep voor geen meter als je hardwarematige 3D ondersteuning aanzette. De Voodoo1 kaart die ik er vervolgens naast prikte zorgde voor het eerst voor echte 3D ondersteuning, een wereld van verschil... Iig, volgens mij is dus de Diamond Stealth II S220 (Turbo) geen 3D kaart, maar puur 2D, met vast wel enige software matige ondersteuning, want ja, je kon Quake opstarten, maar het zag er dus totaal niet uit :)
De stealth II S220 had een Rendition V2100, en was dus inderdaad een 2D kaart..
Leuke info, thanx. Zelf wist ik het wel, (maar vroeger ook niet), maar sommige mensen denk ik inderdaad niet, zoals je zelf ook al opmerkt.
Wel een beetje jammer dat daar zo denigrerend over moet doen, of in elk geval overkomt. (Omg, de zoveelste etc). Gelukkig geef je jezelf ook nog een schouderklopje door te zeggen dat jij het altijd wel goed hebt gedaan. Goedzo hoor ;).

[Reactie gewijzigd door Jack Flushell op 11 juni 2007 19:27]

Ik geloof niet dat er iemand schrijft dat Diamond chipsbakkers waren. Wel dat ze in hun hoogtijdagen regelmatig met vernieuwende kaarten op de markt kwamen. Dat valt dan ook lastig te ontkennen.

Na herlezing zie ik inderdaad iemand beweren "GPU makers". Dat klopt dus inderdaad niet. Ik geloof wel dat we het er allemaal over eens zijn dat Diamond ooit goed bezig was als kaartenmaker en kaartenwederverkoper.

[Reactie gewijzigd door mae-t.net op 11 juni 2007 22:06]

Diamond maakte eerst kaarten met chips van derde partijen maar werd toen gekocht door S3 (of andersom?) en verkocht alleen kaarten met die chips. Die chips waren inferieur tov Radeon en GeForce en het merk Diamond verdween dus uit de schappen.
Ten tijde van de TNT en Voodoo chips was Diamond een grote speler dacht ik. Zal me niet verbazen als ze juist een van de eerste bedrijven als Club3D etc. waren, samen met Hercules enzo, ook zo'n verdwenen merk uit die tijd. Leuk dat ze terug zijn.
Jah Diamond was volgens mij vrij nauw verwant aan de S3 chips, waarom weet ik niet. S3 heeft op hun beurt overigens ook best leuke ontwikkelingen gedaan naar compressed textures etc. Zoals de DXTC compressie formaten zoals we die tegenwoordig overal tegenkomen maar heeft S3 zelf nooit een fatsoenlijke gpu gemaakt. Waarom we nou zo lang niets van Diamond hebben vernomen is me wat onduidelijk.
Echter is Diamond na mijn weten nooit meer of minder geweest dan veel andere gelijke namen zoals Hercules, Asus en Creative die destijds ook allemaal gelijke kaarten verkochten met 3DFX en nVidia chips. De Diamond Monster3D II en Creative 3D Blaster Voodoo2's waren 1 pot nat. in die tijd waren er ook al van die underdogs die wat goedkoper waren, zoals je nu Club3D/Connect3D etc. hebt. Die Voodoo2 kaartjes deden het ook prima maar vanwege besparing op duurdere componenten was SLI nog wel eens instabiel en ging overclocken iets minder geslaagd dan bij de grote namen.
Diamond was volgens mij ook een merk die nog wel eens van het reference design wilde afwijken, wat goedkopere producenten niet deden.
Ik vind het echter nogsteeds heel apart dat Diamond als een zelfstandige chipbakker over weet te komen bij velen, waarschijnlijk door het gebruik van namen voor hun producten waarbij de naam van de chip niet vermeld wordt, zo lijkt het iets anders. Iemand kon bij wijze van spreken denken dat ie een Monster3D kaart had, terwijl iemand die dezelfde kaart van Creative had wist dat het om een Voodoo2 ging vanwege de naamgeving.
Misschien iemand die nog meer achtergrond informatie heeft? vind het eigenlijk wel interessant maar heb de puf niet met dit warme weer om te gaan zoeken naar die informatie. Daarnaast vind ik het ook wel es leuk om die weetjes van een ander te horen inplaats van altijd maar zelf alles uit te zoeken.
Weet je dat wel zeker? Op een Viper 550 (van vroeger) zit ook gewoon een Nvidia TNT chip!
de 3DFX chips waren volgens mij wel echt van diamond of heb ik het nu verkeerd
Die 3DFX chips waren van 3DFX ja :Y)
en was 3dfx niet de voorloper van nVidia? of zit ik daar mis?
of overgekocht/geincorporeerd in nvidia
Overgekocht, en toen kwam nvidia met de FX serie dacht ik.... die op t ontwerp ofzo mee borduurde van de 3dfx kaarten.
Daarom kan de kaart nog wel een eigen of afwijkend ontwerp zijn.
Idd comeback, want we hebben heel lang niets van ze vernomen

Dit is alles wat je in de PriceWatch nu kunt vinden

1 Diamond Stealth III S520 8MB AGP-videokaart ¤ 9,95 11-06
1 Diamond Stealth-64 DRAM 2MB PCI-videokaart ¤ 9,- 11-06
1 Diamond Viper V550 8MB AGP-videokaart ¤ 12,50 11-06


Dit is wat ze van zichzelf zeggen
About Diamond Multimedia
For the past two decades, Diamond Multimedia has been widely recognized as a pioneer in the graphics, sound and communications industries and a key player in launching the multimedia revolution. Through the process of specialization, multimedia companies have become nearly extinct
Diamond products are available to the public throughout North America through retailers, resellers and systems integrators
Er is wel een Europees kantoor te vinden in Belgie, maar online erg weinig aanbod in NL

[Reactie gewijzigd door bennovb op 11 juni 2007 12:59]

De 2900XT verslaat de 8800GTS ookwel in elke test met de nieuwe drivers. En in de dx10 benchmark call of juarez verslaat de 2900XT de 8800U dus ik denk dat men nu wel de conclusie kan trekken dat de 2900XT sneller is dan de 8800GTS ;)
Ook met nieuwe drivers kan de 2900XT nog niet vlot winnen van een 8800GTS. Bovendien is de 8800GTS goedkoper, verbruikt minder stroom, wordt minder warm, heeft een stille koeler en betere drivers.
Sorry maar de 2900XT is sneller:
http://www.legionhardware.com/document.php?id=645&p=4

Die review is nog met de eerste drivers en dan wint die het nog met gemak! Als je op het GOT kijkt naar Ati news discussie 62 zul je nog meer benchmarks vinden waarin de 2900 de 8800gtx verslaat in dx10 en de 8800gts in elke andere game met de nieuwe drivers. En ja het stroomverbruik is een nadeel maar je gaat mij niet wijsmaken dat een 8800 stil en koel is. Laat staan dat je bij 9/10 2900XT's het geheugen kan overklocken naar 2000mhz mits je voeding er ruimte voor heeft. En fabrikanten zoals HIS hebben de pcb van de 2900 aangepast zodat die koeler is en stiller dan de standaard ati versie.
wauw, je kan 1 review laten zien waar de R600 sneller is. Ik kan er 10 anderen laten zien waar het tegendeel gezegd wordt. Ook dx10 benchmarks.
En jawel de koeler van de 8800 is veel en veel stiller. Moeilijk te geloven? Lees eens wat reviews. (hint: http://www.xbitlabs.com/a...r600-architecture_14.html , http://techreport.com/rev...n-hd-2900xt/index.x?pg=15 )
En verwijzen naar een ati fanboy topic op GoT, dat kan tellen qua argumentering.
Blijven geloven in die R600, ooit komt het wel goed.

[Reactie gewijzigd door aval0ne op 11 juni 2007 16:31]

Ja dat waren ook 10 oude reviews met de oude drivers.

8800GTS wint, Xbit Labs schrijft de resultaten toe aan een driverprobleem, wat je ook kan zien uit de resultaten.

8800GTX vs 2900XT
http://360nieuws.nl/upload/images/2900XT_VS8800GTX(1).PNG

Hierin kan de kaart nog meekomen met de nieuwe drivers en in de hoge resoluties is het verschil heel klein. Laat staan dat dit een GTX is en zeker geen GTS! En als we de 2900XT met de 8800GTX vergelijken in prijs 340 euro tegen 520?

Verder maakt de 8800 serie ook herrie met de stock koeler dat is nou eenmaal 9/10 keer zo. Als je een stille kaart wilt moet je 620 euro uitgeven voor waterkoeling of een afthermarket koeler halen die er heus nog wel voor de 2900XT uitkomen (zie sapphire's nieuwe stock koeler).

Ik zeg maar mensen die niet het nieuws volgen(ati fanboy of niet) weten niet hoe het met de ontwikkeling zit van de nieuwe drivers en houden zich aan oude reviews vast.
De XT moet je met de GTX vergelijken, en de XTX met de GTX Ultra.

De GTS is meer iets voor de Pro oid, als die zou bestaan.

In dat geval 'wint' de 8800 toch echt: http://www.generation-3d....e-8800-GTX-!!!,ac8800.htm


---
Vergelijk deze kaarten niet met een G80 Quadro, dat zijn geen gamekaarten. ATi heeft ook allang 1GB+ op een kaart zitten. Echter, niet op een consumentenkaart.

Wat je ook niet moet vergeten is dat een 7950GX2 gewoon SLI op één PCIe slot is.
Ho ff, koeler is hetzelfde en nVidia's drivers geven bij mij toch echt tien keer meer problemen dan die van ATI...
doe nu eens niet de fanboy uithangen. Iedere reviewer klaagt over de koeler, iedere review zegt dat er driver problemen zijn. Ontkennen is ook een vak.
http://www.xbitlabs.com/a...r600-architecture_14.html

[Reactie gewijzigd door aval0ne op 11 juni 2007 16:27]

Als je het nieuws zou bouhouden weet je dat dit ook zo bij nvidia was en bijna alle problemen zijn momenteel in de ati drivers gefixt. Ja bedrijven hebben er een handje van tegenwoordig om de kaart te vroeg uit te brengen. Waarom weet ik niet het geeft je kaart slechte publiciteit maar dit is zeker geen reden om de kaart niet te kopen. Je kan gewoon niet ontkennen dat er met de nieuwe drivers veeel hogere fps gehaald worden en veel bugs verwijderd zijn.
Ik verbaas me eigenlijk hoe weining mensen leren van het verleden.
Bij iedere generatie kaarten is er wel eentje die uitblinkt in het aantal geheugen, en die kaart is altijd 1 van de snelste geweest in de spellen die de generatie daarna uitkwamen.
Maar mensen vergeten snel, 640kb wordt nooit ten volle benut :O..
Het is zo dat met de zelfde generatie spellen het vaak niet veel uitmaakt, maar met toekomstige spellen kan zon kaart tog veel langer mee.
mwa, vind ik niet echt een argument eigenlijk. Op het moment dat je die 1 Gig volledig kan benuten zal je zien dat de de rest van die vgaplank tekort schiet kwa verwerkingsvermogen en beeldopbouw. Je hebt NU niets aan 1 GB en als je er wel echt iets aan hebt is de rest alweer te langgzaam. :+
Render er eens oplos met Inventor 10/11 of Revit je zult zien dat je ongeloofelijk verkomt en dat is ook de rede waar voor de Nvidia Quadro FX 5600 op de markt is gezet ( 3000 eurie voor een kaart :9~

Spec inventor 11

Hardware Requirements

Minimum Recommended
Main Memory (RAM) 1 GB
Virtual Memory 500 MB
Temporary Disk Space 1 GB
CPU Speed 1 GHz

Recommende
Main Memory (RAM) 2 GB or higher
Virtual Memory 1 GB or higher
Temporary Disk Space 2 GB or higher
CPU Speed 2 GHz or higher

De spec's voor tien zijn zelfs erger Recommende 4 GB Main Memory
( Cad bestandje komen trouwens ook best ver. onboard kaartjes worden dan ook niet aangeraden )

[Reactie gewijzigd door wiskid op 11 juni 2007 17:40]

Als je met meerdere vensters 'over elkaar' en speciale software extenties gaat werken dan is de Quadro idd een heel goede keus. maar zo een kaar als dit is daar niet op toegespitst en echt gericht op gamers.

Een licentie Inventor kost al een hele bom duiten btw, dan kan zo een quadro er ook nog wel bij :P
Moet je de verschillen eens zien dan, tussen de X1800 256MB vs 512MB, bij toms vga grafieken. Een hele vette 1 a 2 FPS verschil, ja dat scheelt echt hoor 8)7

Maw: beide kaarten hebben dus nu, zo'n 1.5jr nadat ze uitkwamen; min of meer evenveel bestaansrecht.
Wat ik dan niet begrijp is, is dat men dit wel kan bij ATI kaarten. Waarom kunnen ati kaarten wel naar 1 gig. Terwijl de retail van ATi is deze gewoon 512mb is.

Bij Nvidia teams zie ik iedereen het houden op de standaard is van het model van Nvidia. Waarom gooien ze daar dan niet meer ram op? Waarom clocken ze alleen over als ze bijvoorbeeld ook wat extra rammetjes er op kunnen ?

[Reactie gewijzigd door Ins0mniA op 11 juni 2007 13:49]

Omdat nVidia tov ATI een behoorlijk moeilijk bedrijf is. Kijk maar naar dual card opstellingen, crossfire werkt ook op andere chipsets dan die van ATI zelf. Terwijl je voor SLI PER SE een nVidia bordje nodig heb. nVidia doet nogal lullig over reference modellen de laatste tijd, ATI laat de bedrijfjes daar wat vrijer in.
Dit is weer je reinste onzin. Wat heeft het feit of je 1 gig RAM op een kaart prikt in hemelsnaam te maken met SLI?

De enige reden waarom er geen Gig RAM op een consumenten G80 zit is gewoon omdat het niet nodig is (geen concurrentie) en omdat het alleen meer duurder is en meer stroom verbruikt.

Dit is echter geen probleem voor de professionele kaarten van nvidia, de quadro reeks. De G80 gebaseerde quadro kaarten hebben al 1.5Gig RAM aan boord.

Dus kom niet af met die onzin over 'moeilijk' bedrijf of 'lullig' doen, nvidia heeft al lang +1Gig G80 kaarten.
1 GB en SLI hebben wel degelijk wat met elkaar te maken, onder een 32-bits systeem that is. Windows kan maar maximaal 4 GB addresseren, en dat is inclusief videokaartgeheugen, RAM, en andere geheugens op je moederbord. 4GB RAM is overkill, en als je er zoveel videokaartgeheugen in stopt, kun je nog maar minder dan 2 GB RAM benutten. In dat geval zal daar je bottleneck het eerst komen te liggen, en kun je beter uitkijken naar een 512MB grafisch kaartje. Vista lust graag intern geheugen, 512MB videokaartmem krijg je bijna niet vol...
Er is een manier om virtueel door te laten gaan tot 3GB zover ik het begrijpt, zie:

http://www.microsoft.com/...rm/server/PAE/PAEmem.mspx

[Reactie gewijzigd door SassieST808|IA op 11 juni 2007 15:14]

Niet helemaal correct... Virtueel -> er moet wel degelijk ondersteuning geboden worden door de processor... en 3GB is iets meer ...
However, Windows 2000 Advanced Server supports 8 GB of physical RAM and Windows 2000 Datacenter Server supports 32 GB of physical RAM using the PAE feature of the IA-32 processor family, beginning with Intel Pentium Pro and later.
Als je zo'n kaart koopt denk ik ook niet dat je gaat bezuinigen op die paar euro extra voor Vista 64-bit, ipv 32-bit ;)
Lees me posts es. Ik doel ermee dat ATI gewoon makkelijker is als anderen iets willen implementeren, daarmee gebruik ik SLI als voorbeeld dat het enkel op nVidia's eigen bordjes gebruikt mag worden...
Ware het niet dat Diamond niet meer het Diamond van vroeger is. Bedrijf is tot 2x toe overgenomen(eerst S3 en nu een of ander Amerikaans bedrijf)
Net als de videospelers van commodore, die het o zo befaamde commodore naam bevatten.
Nep dus - china.
staat op dit moment te koop bij Ncix(Canadese webshopàvoor 599 CAN.Dollars...Maar enkel te koop in bundel,dus samen met een mobo en voeding...

http://www.ncix.com/products/index.php?sku=24679...

Als je de prijs omrekent naar Eurootjes komt hij in buurt van de 430 euro,dus wel doenbaar.

Is de hogere clock en extra geen garantie voor betere performance???Of is dit wel kort door de bocht?
Diamond Multimedia heeft een Radeon HD 2900XT uitgebracht met 1GB gddr4-geheugen. De videokaart is daarmee de nieuwe recordhouder op het gebied van omvang van het videogeheugen.
Er is al een langere tijd een kaart op de markt met 1.5 GB videogeheugen.
ja maar dat is alles behalve een consumente kaart (itt dit kaartje),
en ik verwacht dat er misschien nog wel quadro- kaarten zijn met NOG meer geheuge.
Tsja, ATI heeft ook al langer een met 1GB, maar die dingen zijn niet bedoeld om te gamen, net zoals de quadro kaarten van nVidia.

Ik heb zelf trouwens een 8500 met 128mb geheugen gehad, en ik moet zeggen dat ik nooit meer een kaart met het meeste geheugen koop. Ik heb er niet veel aan gehad, terwijl ik toen een 19" scherm had wat indertijd niet eens klein was. Het snelheidsverschil was pas echt merkbaar met spellen die veel later uit kwamen, en tegen die tijd was de GPU duidelijk de bottleneck.

Wel leuk dat Diamond, welke echt niet een grote afzet heeft en best weer "nieuw" is, zich hiermee gelijk weer in de spotlights plaatst!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True