Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 66 reacties

Videokaartfabrikant Palit heeft een nieuwe GTX285 met maar liefst 2GB gddr3-geheugen geïntroduceerd. De videokaart is deels zelf ontworpen en beschikt over een speciale koeler met vier heatpipes en twee pwm-ventilatoren.

De hardwarefabrikant uit Hong Kong heeft een nieuwe GTX285 met een speciale koeler ontworpen. De nieuwe GTX285 is verkrijgbaar met 1GB of 2GB geheugen en daarmee heeft Palit de eerste GTX285 met 2GB geheugen in handen. De kaarten beschikken over de standaard kloksnelheden voor de gpu en het geheugen, die dus op respectievelijk 648MHz en 2500MHz lopen.

De twee versies zijn beide uitgerust met een koeler met vier heatpipes, die de warmte via een aluminium heatsink afvoeren. De luchtverplaatsing wordt verzorgd door twee ventilatoren waarvan de snelheid, afhankelijk van de temperatuur van de gpu, met pulse width modulation aangepast kan worden. Verder zijn beide modellen uitgerust met twee dvi-uitgangen. Palit heeft niet bekendgemaakt wanneer de kaarten in de winkel liggen en ook naar de prijs van beide modellen blijft het nog gissen.

Palit GTX285 2GB

Moderatie-faq Wijzig weergave

Reacties (66)

Waarom een 285 en niet een 295?
Maak dan gelijk de topper in het segment.

[Reactie gewijzigd door dinoballz op 24 februari 2009 12:22]

Heb je die kaart ooit gezien? Dat zijn 2 kaarten op elkaar waarbij de chips naar de binnenkant wijzen. Je kunt dus niet even een dikke fan op de heatsink zetten zoals bij deze gedaan is, dan wordt de luchttoevoer een probleem. nVidia zet namelijk ook al een flinke poos de fan achter (of voor, hoe je het maar bekijkt) de heatsink. Het soort koelers als deze van Palit zijn minstens 2 en regelmatig 2.5 of 3 slots, dat past dus never nooit in een GTX295.

Bovendien is het zo dat dual GPU kaarten toch wel een nichemarkt is. Single GPU kaarten volgen namelijk nog een zekere standaard voor het mounten van koelers, zo is van dit model ook een GTX260 versie beschikbaar met hetzelfde model koeler.

Vandaar dat er ook (zo ongeveer) geen custom luchtkoelers zijn voor de 9800 GX2 en 7950 GX2.
Dat zal wel moeilijk gaat door gebrek aan ruimte en voldoende koeling. Dan zou je een kaart krijgen met 2x 1792MB ram. Probeer dat maar eens op zo'n kaartje te krijgen.
Niet te hopen dat iemand met een 32 bit besturingssysteem dit koopt. Kun je nog maar ong. 1,5 - 2 GB fysiek geheugen van de rest van je systeem gebruiken. :/
Natuurlijk niet
Het is niet alsof je het geheugen van de videokaart kunt gebruiken als internet geheugen..
Het geheugen van de videokaart is voor de textures en voor de textures only.


Edit:

Ja ik heb het blijkbaar gruwelijk fout..
In mijn redenering kan het systeem nooit direct aanspraak maken op het geheugen van de videokaart, en heeft de videokaart een eigen geheugen controller.
Daarom dat ik altijd gedacht heb dat het geheugen van de videokaart ook niet door het systeem geadresseerd hoeft te worden....

Excuses

[Reactie gewijzigd door CyberSpeedy op 24 februari 2009 13:40]

maddog_rvo en anathema hebben inderdaad gelijk. Voor het hoe en waarom zie: http://www.dansdata.com/askdan00015.htm Interessant leesvoer.
Ik denk dat die dat wel snapt.

Probleem is meer dat 32bit maar zo'n 3,6gb ondersteund je Ram + je videokaart geheugen.

Als je al een videokaart hebt van 2gb dan hou je maar 1,6gb over voor je Rammetjes.


Ik mag er trouwens wel vanuit gaan dat je als je zo een kaart heb, je zoiezo wel 64bit hebt met 8gb of meer.
Een 32bit besturingssysteem kan maximaal 4GB aan geheugen adresseren, dit is dus al het geheugen. Maakt niet uit of het CPU cache is, geheugen op je geluidskaart, videokaart geheugen of werkgeheugen.
Dus heb je een 32bit besturingssysteem dan zal je idd niet meer dan 2GB werkgeheugen kunnen gebruiken, omdat je videokaart al 2GB van die 4GB beschikbare adressering wegsnoept.
Ik denk dat jij het niet helemaal begrepen hebt :)

Een Windows 32bit kan in het totaal maar 4GB addresseren.

Nu is het probleem met Windows 32bit dat die al de geheugenruimte die door andere componenten (grafische kaart, raid controller, toetsenbordcontroller, etc) ook in je RAM wilt "reserveren", en dat trekt ie dan van de beschikbare ruimte af.

Heb ne 4GB RAM in je systeem zitten, steek je er zo'n kaart met 2GB in, dan zal er nog minder dan 2GB overschieten.

/spuit twaalf natuurlijk :p

[Reactie gewijzigd door Shaidar op 24 februari 2009 13:18]

Nou ik heb toch een vraag teken.

32 bit kan maximaal maar 4GB gebruiken.
Die 4GB wordt gesplits in 2GB voor apps. En 2GB voor Systeem.
2GB voor OS en IO. Nu is er meer dan alleen Vidmem IO mapping.

Dus je hebt maar 2GB voor systeem maar IO is veel meer dan 2GB en dan nog runtime systeem software de OS dus.

Ik zie hier een probleem.

3,6 is voor 'n 256MB Gkaart
3,3 is voor 'n 512MB Gkaart.
1,5 is voor 'n 2GB Gkaart?
Waarom dit negatief gemodereerd werd weet ik niet, want wat anathema zegt klopt wel degelijk. 32 bits besturingssystemen voor thuisgebruik (dus serverversies van windows en Linux buiten beschouwing gelaten) Kunnen in totaal maximaal 4 GB geheugen adresseren, dit geldt dus OOK voor videogeheugen, cachegeheugen etc. Bij een gemiddeld systeem komt dit neer op zo'n 3,2 GB aan bruikbaar werkgeheugen. Gebruik je echter een videokaart met 2GB geheugen zal je nooit meer dan ~1,8GB aan werkgeheugen kunnen aansturen. 64 bits systemen hebben voorlopig niet zo'n beperking.
Hmm ziet er wel interessant uit, al vraag ik me af wat je aan 2 gb hebt.. Misschien voor 30" schermen enzo, maar voor de rest lijkt het me vrij nutteloos...

[Reactie gewijzigd door Motion2 op 24 februari 2009 12:23]

Uit meerdere tests blijkt dat nVidia kaarten bij een verdubbeling van het geheugen van 512MB tot 1024MB een 10%+ hogere framerate halen. Dit komt door het ontwerp van nVidia wat meer leunt op geheugenbandbreedte dan de ontwerpen van AMD; Daar is de framerate niet significant afhankelijk van de hoeveelheid beschikbaar geheugen.

[Reactie gewijzigd door 0rbit op 24 februari 2009 14:11]

Die redenatie slaat ook nergens op. Bandbreedte is namelijk niet afhankelijk van de hoeveelheid geheugen, maar de hoeveelheid lanes naar het geheugen (en natuurlijk de kloksnelheid). Ik kan me er dan ook niet zoveel bij voorstellen dat de framerate zomaar zonder meer omhoog gaat alleen maar omdat er meer geheugen aanwezig is.

Het zal denk ik eerder met memory management te maken hebben - als een kaart weinig geheugen heeft en je gebruikt het bijna allemaal dan moet er heel wat heen en weer geschoven worden om de vrijgekomen gaten na weggegooide textures weer nuttig te gebruiken. Als je bijv. een 10 MB texture in wilt laden maar je hebt alleen maar 5 gaten van 4 MB over (= 20 MB, dus voldoende vrij geheugen), dan moet er geheugen opgeschoven worden zodat die 5 gaten daarna een aaneengesloten blok van 20MB vormen.

Echter, als je een app hebt die sowieso maar 64 MB gebruikt, dan boeit het echt niet of je een 512 MB of 1 GB videokaart gebruikt. Het is niet alsof die extra 512MB ineens voor meer bandbreedte zorgen oid.

[Reactie gewijzigd door .oisyn op 24 februari 2009 12:42]

Klopt. Maar bij hogere geheugenbandbreedte ben je wel sneller door je geheugen heen en zul je het veel tragere werkgeheugen of de harde schijf moeten aanspreken :+

Natuurlijk heb ik het verkeerde woord gekozen. Gelukkig zijn er mensen om dit autistisch tot in het absurde te gaan toelichten.
Hahaha inderdaad, tekenend voor de comments die er af en toe geplaatst worden.
Als er maar iemand afgebrand kan worden dan is de dag weer goed ;)
Afhankelijk van de game kan er minder gelijk of meer performance gehaald worden bij bepaalde game settings.
Waar het op neer komt is hoevel de frame buffer en texture manager etc samen aan geheugen nodig hebben. En dit is weer afhankelijk hoeveel textures gelijktijdig in een frame maximaal gebruikt worden.

Meeste games zorgen nu nog dat de gemiddelde tot hoge setting met marge onder de 1GB zitten. Maar er zijn games die in Extreme setting op 30" extreme resoos 1GB kunnen overtreffen. Maar die games zijn er niet veel van.

'n 2GB GTX285 is interresant als je in Crysis warhead flink te keer gaat met aardig wat extra verschillende characters en objecten met vooral unieke textures en dat in HQ.

Ben dus geintresseerd in deze kaart om die reden :)
Maar wat heeft het leunen op geheugen bandbreedte te maken met meer geheugen? De bus is nog altijd even breed en het geheugen loopt ook niet sneller.
Mwah, ik draai zelf een HD4870 met 1GB voor een 30" TFT (2560*1600). Ik heb nog genoeg aan 1GB, GTAIV is het spel dat tot nu toe het meeste geheugen gebruikt, met iets van 620MB geheugen in gebruik.
De GTX 285 zou op zich wel iets meer geheugen nodig kunnen hebben dan m'n HD4870, omdat hij sneller is en daardoor grotere textures kan gebruiken. Ik heb momenteel een GTX 285 liggen en die ga ik eens testen op 2560*1600 en kijken of het inderdaad nut heeft om daar meer dan 1GB op te proppen (heb zelf een 1GB kaart als reviewsample).
GTA4 op een WQXGA resolutie en dan maar 640MB in gebruik? Je kan het geheugengebruik toch netjes aflezen in GTA4 zelf als je de grafische opties aanpast?

Als je daar 640MB wilt hebben staan, dan moet je alles op de laagst mogelijke waarde zetten, en wat heb je dan uiteindelijk nog aan je monsterresolutie?

Ik heb een GTX280 (eigelijk twee, in SLI op een X58 plank, maar daar heeft GTA4 niets aan) met 1GB geheugen. Ik kan alles op de hoogst mogelijke setting zetten in de grafische opties van GTA4, alleen de view distance niet, die staat dan ergens rond 9.
Maar met deze instellingen grenst de grafische kwaliteit van GTA4 aan het ongelooflijke, en zo wil ik persoonlijk wel elk spel spelen ...

-edit-
Ah, ik zie het in een post van je hieronder ... je moet de grafische opties naar beneden bijstellen omdat anders je AMD/ATI het niet trekt :)

Whoohoo! Nvidia FTW, ik kan GTA4 vlot (aan 40FPS (fraps) spelen met bovenstaande instellingen :p

[Reactie gewijzigd door Shaidar op 24 februari 2009 13:11]

Dat nV kaarten meer in memory nood zijn is omdat de GPU ook de fillrate power heeft om zo'n memory bandbreedte need te creëren.

De GT200 heeft veel meer TMU dan RV770 en daarmee kan dus meer bandbreedte benutten. end an heeft meer bandbreedte zin. Maar ook veel meer textures verwerken en daarmee groter pool aan texture geheugen per frame kan verwerken.
Ik heb een 8800GTX met 768MB geheugen. Als ik GTA 4 speel kan ik niet eens alles op max zetten omdat mijn geheugen dan vol te vol zit (volgens GTA). Ik kan me best voorstellen dat GTA 4 met alles op max wel 1 GB aan geheugen vol krijgt. Dit is gewoon high end en daarmee verwacht je alles van nu en alles van over een tijdje goed te kunnen spelen. Het toevoegen van geheugen is daarbij een logische stap.

Edit@ Terw_Dan: hoe speel jij GTA4 alles op max? Zo ja weet jij of het verschil maakt in geheugengebruik of je een AMD of een Nvidia gebruikt (of sowieso een andere serie)? Ik bedoel jij komt tot 620 en ik kom er al boven met een lagere resolutie.

[Reactie gewijzigd door SRI op 24 februari 2009 12:35]

Heb hier een GTX Ultra en bij GTA4 draai ik ook alles op max (via config file) en bij mij zit het geheugen gebruik net onder de 100% op 1600x1200.
Ik denk dat als je 'n stad omgeving mooi wil weergeven heb je ook aardige variatie in textures nodig. GTA4 is een redlijk size stad waar je als gamer toch wel wat variatie wenst. Blijkbaar de dev's ook. Dus mogelijk veel meer textures per frame.
is het geheugen dan de bottleneck? ik dacht dat je met 1 GB een heel eind kwam.
Als je GTA4 op high end gaat spelen, kom je al een heel eind richting de 1GB geheugen verbruik. 900+
http://www.megaklets.nl/agenda/GTA4specs.jpg
Op 1920x1080 gebruikt GTA IV 942 MB (van de beschikbare 1002 MB) met deze instellingen. Als je met alle instellingen op z'n hoogst in 1920x1200 (of nog hoger) wil spelen, is 1024MB videogeheugen gewoon niet toereikend.
Het klopt wel, je kunt in GTA IV makkelijk zien hoeveel mem je gebruikt. Ik zit met een 30" op 620MB, dit omdat ik lang niet alles voluit heb staan (anders trekt de HD4870 het niet vlotjes). Doe ik dat wel dan schiet het geheugengebruik omhoog en dan zit je al snel tegen de 1GB aan. Maar dat is dan wel op 2560*1600 moet ik zeggen.
De resolutie waar je op gamed is nauwelijks van invloed op het geheugengebruik van je videokaart. Het zijn vooral de textures die geheugen slurpen. Als je vroeger een 16MB kaartje had kon je tenslotte ook een hoge resolutie kiezen, ondanks de beperkte geheugen hoeveelheid.

met rivatuner is dit trouwens ook goed te monitoren.

@hieronder: Precies mijn punt, 50MB op 1GB is maar 5%. De rest komt op rekening van de textures. En daarbij gamen de meeste mensen niet op een 30" monitor en niet met die instellingen.

[Reactie gewijzigd door pizzaislekker op 24 februari 2009 19:04]

Ben ik deels niet met je eens. vroeger dacht je niet aan 2560x1600x32 16xFSAA dat kon toen niet. Met 16MB

Frame buffer is

1280x1024x4
1920x1200x4
2560x1600x4

Dat maal het totaal aantal buffers in de flipping chain.
Dus bij triple buffering is dat x3
+/-
15MB
26MB
47MB

3DFX is nooit voorbij de 16bit frame buffers gekomen behalve intern renderde het op hogere kleur diepte.

in die tijd van banshee 16MB was 32bit kleurdiepte niet iets gewoons. Die GPU kon maar 16bit.
Ook 21" trintron CRT was toen de top. Maar gegamed werdt er veel lagere settings.
8500 kon 32bit net zoals GF4TI maar 16bit performance was toen belangrijk.
Daarnaast was triple buffering ook optioneel.
FSAA etc wat nog extra meer geheugen vreet was toen ook alles behalve normaal. Eerst 32bit moest nog gewoon worden. Met 64MB en 128MB werdt 32bit gemeen goed.
Na 32bit kwam FSAA pas op gang, omdat het geugen groot genoeg werd, om ook wat vaker FSAA te doen bij wat hogere resoos en de rauwe power er ook voor was.

Ik speelde UT op 8500 in 1800x1440x16
15MB voor 'n 64MB kaart.

Op 1GB is die 30" TFT met 50+MB voor frame buffer als je FSAA ook doet niet veel. Maar kan net de druppel zijn als very extreem settings gericht is op 1920x1200. met 1GB heap buffer en texture limiet.

Ik PC game al since 80386S 25MHz het begon ergens met ModeX resoluties.

Maar ja met 2GB en meer als Video mem heap maakt die 30" native 16xFSaa niet zoveel meer uit.

[Reactie gewijzigd door SG op 24 februari 2009 18:13]

Kan ik nu even niet leveren sorry. (op het werk)
Nja ik heb niet het bewijs omdat ik 'maar' 768MB ram op mijn kaart heb. Maar wel kan ik zeggen dat ik daardoor niet alles op max kan zetten bij GTA4... En ja het is aan jou of je dat wel of niet gelooft (van mij en van hem en van meer topic posts hier).
(ontopic)
Leuk! 2gb vram! eindelijk weer eens vernieuwing inplaats van bij de 1gb hangen zoals 3 jaar terug bij de 256mb het geval was...

(offtopic)
Volgens mij is GTA4 gewoon een crappy xbox360 port.

(mijn mening)
Crysis ziet er veel mooier uit en loopt soepeler dan GTA4
op mijn 8800 GTX, Q6600@2.4 en 8gb ram ddr2 800mghz.
dit zijn mijn instellingen en ik heb geen last van haperingen.
Speelt lekker soepel en al.

Klik voor plaatje
Ik denk dat het gewoon een commerciële stunt is, sommige mensen denken nog steeds dat meer altijd beter is. Ik heb 768 MB en een 30" en ik vermoed toch dat dat geen bottleneck is, vooral niet bij games zoals FSX waar de CPU de bottleneck is, en FSX gebruikt dan nog steeds grote bmp's als textures.

[Reactie gewijzigd door Cyberblizzard op 24 februari 2009 12:26]

Textures worden groter en groter, dus met meer geheugen ben je iets meer voorbereid op de toekomst.

Maar dit is natuurlijk ook een perfecte marketingstunt.
Als iemand met weinig kennis van zaken een grafische kaart gaat kopen, voor welke zal hij dan kiezen? Die met 1 GB geheugen of die met 2 GB? ...
Meeste mensen redeneren namenlijk nog altijd, meer is beter.
Voor de goedkoopste van de 2, iemand zonder verstand laat zich door mediamarkt al een kaart aansmeren en daar vind je zulke high end kaarten helemaal niet... Dus iemand zonder verstand zal zowiezo bijna nooit de high end kaartjes kopen omdat die voornamelijk online verkocht worden en op kleine schaal bij winkelt die het zelf toch eerst moeten bestellen want je wil z'n dure kaart gene maand hebben liggen (daar gaat je winst)...

Deze kaarten zijn alleen voor tweakers/gamers die weten wat je er aan aan hebt.
Die ziet een ¤100,- kaartje met 2GB turbo cache mem
Dat kan nog wel een leuk kaartje worden. Ik verwacht dat een high-end kaart als deze er wél wat aan heeft. De prijs zal wel weer astronomisch hoog worden, zoals je vaker ziet bij deze marketingmodellen.
waarom maken ze geen dual GPU grafische kaarten met 4xDVI?
Die zijn er al in overvloed. Je zal ze echter niet bij de lokale PC boer treffen omdat dit te specialistisch is.

Persoonlijk gebruik ik liever 2 losse kaarten met 2x DVI voor een quad-monitor setup, dan krijgen de videokaarten wat meer lucht, en is het goedje stiller te koelen.

Wil je persé 4 uitgangen op één kaart, en doe je alleen 2D, kan je kiezen voor oa een Quadro NVS 440 (zijn er in PCI-E x1 en x16).

Voor zwaarder werk, en van nVidia, Quadro 4500 en 4700 X2.

Ati heeft iets meer keuze. Oa de FireMV 2400 voor 2D. En voor zwaarder werk betaalbare dual 4850 kaarten met 4 vaste DVI uitgangen. Let op betaalbaar, bij nVidia mag je hier voor prestatie een veelvoud neer leggen.

En Matrox, Appian, en minder bekende merken hebben ook zat oplossingen.

Buiten dit hebben we displayport in het verschiet (ATI FireMV 2260 heeft er 2). Hiermee kan je over één link de monitor weer aan elkaar uplinken voor multi-monitor. En ook komen er monitoren op de markt die gewoon via USB aan te sluiten zijn, dus met ingebouwde grafische chip, al moet je hier niet heel veel van verwachten.

edit:

Misschien kan het komen omdat je de productreeks niet kent. Zoek eens op ATI Gemini.

[Reactie gewijzigd door Hardware Junk op 24 februari 2009 12:58]

oblivion met texture mods heeft 1.5 gb nodig :)
Gewoon geheugen neem ik aan, heb zelf ook ge-texture mod maar dat draaide gewoon lekker (256mb @ 1680x1050)
Misschien kan je denken aan andere applicaties dan alleen gamer,
zoals Virtual Dj, het geheugen kan je dan vullen met divxjes e.d.
kun je daar tegenwoordig videogeheugen voor gebruiken? daar prik je toch gewoon een gig of 12 aan gewoon DDR2 voor in? :P
Is dat niet eerder streamed prossesing.
Je hoefd de DivX niet in geheugen te hebben.
Maar wel een constante zonder happering bit stream van HD.
en voldoende reken kracht om te decoden.
naja als je bij snelle kaarten kijkt. Laatst ging het over de 4870, waarbij de 2GB versie ten opzicht van de 1GB versie wel een heel aantal frames meer had bij resoluties boven de 1650, en zeker boven 1920
Ik begrijp nooit zo goed waarom grafische kaarten zo zwaar zijn. Ok, PS3 en Xbox worden ook warm, maar in vergelijking met het vermogen wat dit soort kaarten vragen... Is het beeld dan echt zoveel beter?
Ja, veel en veel beter. Het is eigenlijk nauwelijks te vergelijken en het vervelende is dat veel ports van console naar pc slecht gebeuren. Veel games voor PS3 en X360 zijn niet eens full HD en dat geeft ruimte voor meer fps.
Als de rest van je pc ook zo goed is, kan het beeld in bepaalde spellen zeker beter zijn ja!
Vergelijk maar eens spellen die op pc en console uitkomen...

Maar tegenwoordig zie je niet heel meer verschil meer ( lostplanet 2 bijv. ), aangezien de spellen voor de consoles ook goed geschreven worden ( hebben ondertussen wel ervaring ermee ).
Als je bedenkt dat veel spellen op de PS3 en Xbox 360 op 720p formaat draaien, dus 1280x720, er vervolgens vaak (of altijd, niet 100% zeker) geen power over is voor anti aliasing en ook in sommige spellen de FPS op 30 gecapped is omdat 60 niet altijd gehaald wordt is de conclusie niet zo moeilijk.

Ik heb een 'bescheiden' SLI setup van 2 8800GTs en ik draai alles op 1920x1200, vaak met AA aan en spellen als Bioshock komen volgens mij geen moment beneden de 60FPS (en ja ik heb er oog voor).

[Reactie gewijzigd door A Lurker op 24 februari 2009 17:55]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True