Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties

Nvidia zou aan een referentieontwerp voor een GTX285 2GB werken, om daarmee de 2GB-versies van de HD 4870 en de komende HD 4890 te beconcurreren. Diverse fabrikanten lijken het bedrijf met eigen GTX285 2GB-kaarten echter te snel af te zijn.

Nvidia zou bezig zijn met de ontwikkeling van een GTX285 met 2GB geheugen. Naar verluidt zou deze kaart met tweemaal zoveel geheugen als het standaardmodel 399 dollar gaan kosten. Wanneer Nvidia het referentie-ontwerp onthult, is niet bekend, maar er zijn al diverse board partners van het bedrijf die een eigen, soortgelijke kaart in het assortiment hebben opgenomen.

Eind februari kondigde Palit bijvoorbeeld al een GTX285 met 2GB geheugen aan en ook Galaxy heeft een GTX285 2GB-kaart ontworpen. Galaxy heeft deze videokaart bovendien uitgerust met een Accelero Extreme GTX280-koeler van Arctic Cooling. De koeler maakt gebruik van vijf heatpipes en drie pwm-gestuurde 92mm-ventilatoren. De kloksnelheden van de gpu en het geheugen zijn met respectievelijk 648MHz en 2484MHz wel standaard te noemen. Wanneer de 2GB GTX285-kaarten van Palit en Galaxy precies op de markt komen is nog onduidelijk.

Ook in het rode ATI-kamp zit men overigens niet stil: Sapphire is bijvoorbeeld bezig met de ontwikkeling van een HD 4870 met 2GB gddr5-geheugen onder de kap. Daarnaast is de kans aanzienlijk dat ook de toekomstige HD 4890 een 2GB-uitvoering krijgt.

Galaxy GTX285 2GB

Moderatie-faq Wijzig weergave

Reacties (83)

leuke kaart vooral leuk dat ze er ook de tri fan Arctic Cooling op gezet hebben die is super voor deze kaart en vrij stil. 2GB maakt voor deze kaart wel iets uit denk ik. Natuurlijk zijn er nogaltijd factoren aanwezig die 2GB nog niet direct rechtvaardigen omdat bijvoorbeeld de bandbreete niet hoog genoeg is of de gpu niet snelgenoeg maar 1GB videogeheugen is eigenlijk al niet meer een overkill voor grotere resoluties en wordt langzaamaan mainstream. Het punt is er zijn al best wel wat games die graag een grotere framebuffer zien denk aan bijv. GTA4 dat zijn texturedata in het videogeheugen laad.
Ergens is er toch een grens, waar je met meer geheugen niet meer performance behaalt. Volgens mij zijn we die grens reeds overschreden, of zit het anders in elkaar dan ik veronderstel?

Volgens mij is dit dus gewoon marketing, net als MegaPixels op een GSM-toestel
Ik denk dat die grens nu nog net onder de 1 GB ligt. Als je zo'n kaart koop voor 3 tot 4 jaar te gebruiken is de kans groot dat het geen overkill is omdat geheugen gebruik in de komende jaren eerder toe zal nemen dan afnemen.

PS: MP op mobiele telefoons is toch echt anders omdat de kwaliteit van de lens heel belangrijk is en ook de sensorchips niet echt groter worden waardoor het steeds moeilijker word om de toenemende pixels op die chip nog goed te belichten. Daarom maken de meeste 5 MP telefooncamera's op 3 MP betere foto's.
Alsof je kaart over 3 of 4 jaar snel genoeg is om gebruik te maken van dat geheugen in games 8)7 .
Hoe lang is de 8800GTX nu op de markt?
en hoe lang volstaat die kaart al niet meer vs GTX280?
Misschien niet tegen een GTX280, maar je kunt zowat elk huidig beschikbaar spel met de 8800GTX spelen. De hoogste settings zul je er misschien niet mee halen, maar hij volstaat toch? :)
Dat probleem los je op door nog zo'n kaart er in SLI naast te zetten. Dan past de rekenkracht weer meer bij de geheugenhoeveelheid :)
Waarom zou ik dat willen? Over 3 jaar hebben we DX11 in mainstream. Kom ik aan met me DX10 kaarten.
alsof DX10 iets is geworden... Zolang de plaatjes met DX9 er nog uitstekend uitzien en het nut van een volgende Direct-X niet direct zichtbaar is (plus het beschikbaar maken van direct-X voor eerdere microsoft en het liefst natuurlijk ook niet-microsoft OS-en) vind ik het nog niet zo nodig om daar nu al over na te denken.
alsof DX10 iets is geworden
Wat helemaal niets te maken heeft met de geboden features van DX10 zelf, maar het feit dat het Vista only is. Als dat niet was geweest dan waren de developers allang overgestapt. Plus nog het feit dat DX10 niet hardware backwards compatible is. DX11 gaat dat wel zijn (tot aan DX10 hardware althans). Let op m'n woorden, als Windows 7 straks officieel uit is gaat het heel hard met DX10 en 11.
er zijn nu nog heel veel gamers in win XP bezig (DX9 dus) dus dat is een non argument. Het grapje van een kaart in sli er naast is evenmin een praktisch oplossing omdat er nu al geen GTX 280 meer gemaakt wordt. de kans dat je er 1 vindt is dus vrij klein
Hmz, van wat ik vaak lees en hoor is het echt geen goed idee om later je grafische power te upgraden met een kaart extra in SLI.

Meestal kan je veel beter een nieuwe generatie kaart halen, die je 2 ''oude'' kaarten er makkelijk uittrekt.
Dat hangt wel een beetje van de kaarten af.

Ik heb zelf kort geleden een 8800GT in SLI gedraaid en qua snelheid kon deze zich meten met een GTX280. Het stroomverbruik viel wel iets hoger uit, maar dat maakt het prijsverschil wel goed! En SLI schaalt tegenwoordig bij de grote titels echt heel prima.
Em, volgens mij kan ook Adobe Photosoep er gebruik van maken, dus mss is het nog lang zo slecht niet. :+

Correct me if I'm wrong
Quadro CX
Quadro CX versnelt Adobe CS4
Bepaalde bewerkingen in Photoshop CS4 (Zoom, Scale..) kunnen inderdaad op de GPU gedaan worden. Je canvas moet dan inderdaad het videogeheugen in, waarbij veel geheugen dus handig is.
met meer geheugen kun je hooguit hogere resoluties draaien. performance zit em meer in de snelheid en breedte van de databus
performance zit em meer in de snelheid en breedte van de databus
Totdat je te weinig geheugen hebt voor textures en je moet gaan swappen (vanuit systeemgeheugen).
2 gig aan textures, zelfs in bitmap is dat een behoorlijk oppervlakte. Welke applicaties maken eigenlijk gebruik van een 2 gig buffer om textures in te zetten? De meeste programma's zijn tegenwoordig zo slim om alleen te renderen wat je ziet en er aan te komen zit.
De meeste programma's zijn tegenwoordig zo slim om alleen te renderen wat je ziet en er aan te komen zit.
Tegenwoordig? :D Dat is al zo oud als de weg naar Rome. Door het simpele feit dat pixels tekenen vroeger nog relatief veel duurder was dan nu, dus men wilde overdraw tot een minimum beperken.

Echter, alleen tekenen wat je ziet betekent niet dat dat textures die je voor een frame niet nodig hebt niet op dat moment in het geheugen hoeven staan. Als je die dynamisch moet gaan swappen is dat echt loeitraag. Natuurlijk wordt er wel online geswapped, maar lang niet met zo'n lage granulariteit. Die worden geleidelijk ingestreamed als je wat grotere afstanden aflegt in de game.
Ja, maar al die applicaties (games) maken nog heel vaak gebruik van low-res textures, inzoomen leidt dan tot blury of blokkerig beeld. Ga in een game (fps bijv.) maar eens met je neus tegen een muur staan.

Verder denk ik dat er een moment zal komen dat de graka zo krachtig is dat veel textures "uitgerekend worden" zoals ook in render engines gebeurt. Op dat moment wordt rekenkracht wellicht belangrijker dan geheugen, tot die tijd zal het geheugen nog wel doorgroeien, zeker totdat fullHD mainstream is.
Deze verschuiving van prefab textures naar procedurele textures middels pixel shaders is al sinds het programmeerbaar maken van de van render pipeline (Geforce3 generatie) ingezet. De hoeveelheid texture reads (en daarmee samenhangend het aantal textures dat initieel geladen dient te worden) neemt dan inderdaad af, maar er zal altijd een hoeveelheid geheugen nodig zijn voor de render targets waarnaar deze procedurele content geschreven dient te worden. En dat wordt steeds meer als het gaat om hogere resolutie framebuffers en hogere AA levels.

[Reactie gewijzigd door d3vlin op 12 maart 2009 08:39]

in snelle games als shooters is het vrij onzinnig om de muur tot in detail te zien. ik kan me eigenlijk niet voorstellen dat er gamers zijn die er twee x zoveel geld voor overhebben om een paar pixels meer te zien. Daar komt nog bij dat de meest gamers tft of anfdere lcd schermen hebben. als die in een andere dan de native resolutie werken is het beeld hoe dan ook onscherper danin native ongeacht de resolutie die het scherm krijgt aan geleverd. Dus al die reken kracht gaat dan ook nog eens verloren.
De meeste programma's zijn tegenwoordig zo slim om alleen te renderen wat je ziet en er aan te komen zit.
Z Buffer ~1974, 1999 :z
Ook bij gebruik van een Z-buffer zal een gedeelte van de rendering pipeline moeten worden doorlopen voordat op basis van deze buffer besloten kan worden dat iets niet gerendered hoeft te worden.

Het heeft dus wel degelijk zin om naast de Z-buffer de te renderen objecten die door de pipeline heen moeten zoveel mogelijk te beperken, b.v. door frustrum culling.
GTA IV heeft wel meer als 1GB nodig als je alles op max wilt draaien volgens mij.
High-end karten zijn altijd overkill op het moment dat ze worden uitgebracht, toen de eerste 128 MB videokaarten uitkwamen (de GeForce Ti4xxx serie als ik me niet vergis) zei men hetzelfde wat jij nu zegt.
De 'hoax' om op je videokaart een game te installeren komt nu wel erg dichtbij.

Maar daarnaast is 2GB wel zeker nuttig, de meer je hebt de hoger je resolutie in games kan zijn zonder prestatieverlies tov een 1GB model. Wanneer je videogeheugen volzit gaat het verder op je RAM wat aanzienlijk trager is, en natuurlijk weer extra load kan bezorgen.
het benodigde extra geheugen voor een hogere resolutie is verwaarloosbaar. zal eerder iets met textures en hoogstens geometry te maken hebben. dan nog is 2GB vermoedelijk veel meer dan je de komende jaren nodig gaat hebben :)
Ja, maar er is ook een limiet aan wat een zinnige hoge resolutie is, en ook mbt video/systeem geheugen is er langzaamaan steeds minder verschil in snelheid..
ik zelf heb heb 3x1 gb in sli en dat is naar mijn mening toch veel beter dan toen ik nog maar 2x1 gb dus ja je merkt het verschil wel degelijk ;)
tis goed om te zien dat de ontwikkeling doorgaat zodat we dadelijk richting de 6x AA kunnen gaan (dat is mooier als je op extreem hoge resoluties speel)
ik ben op dit moment aan het sparen voor een 27" lcd monitor dus misschien daarna een set nieuwe kaarten :D
Je hebt dus 3 keer hetzelfde in je geheugen van je videokaarten, je hebt effectief dus nog steeds maar 1GB.
Klopt. Het enige wat hij merkt is dat er meer GPU power aanwezig is. Daarnaast is meer GPU's niet per definitie sneller, omdat er een synchronisatie overhead ontstaat door het verspreiden van de renderdata over de GPU's. Die moet dus minder zijn als de tijdwinst qua uitvoeren van de berekeningen om SLI effectief te laten zijn. Een en ander hangt ook nog eens samen met de CPU snelheid, afhankelijk van de SLI mode die gebruikt wordt (Split Frame Rendering, Alternate Frame Rendering of Alternate Frame Rendering 2).

[Reactie gewijzigd door d3vlin op 11 maart 2009 20:40]

Jezus wat een kaart, binnenkort heb je externe behuizingen nodig voor die dingen :{
Dat is al het geval (weliswaar voor professioneel gebruik) bij de NVIDIA Plex. :D
Voodoo 5 6000 anyone? :D

http://www.techimo.com/photo/data/500/7voodoo5-6000.jpg

Die discussies over geheugengrootte volg ik trouwens niet; er is altijd gebleken dat er op een gegegen moment in computerland vanzelf een moment komt dat een grotere capaciteit wel gebruikt wordt of zelfs nodig is. Enige wat een punt van discussie kan zijn is de busbreedte: de capaciteit moet natuurlijk wel efficiŽnt te gebruiken zijn.

[Reactie gewijzigd door TimMer op 11 maart 2009 20:20]

Lekkere link hoor! * NOT *
Citaat van Jism::
Maar daarnaast is 2GB wel zeker nuttig, de meer je hebt de hoger je resolutie in games kan zijn zonder prestatieverlies tov een 1GB model. Wanneer je videogeheugen volzit gaat het verder op je RAM wat aanzienlijk trager is, en natuurlijk weer extra load kan bezorgen.

Uhm niet per definitie hoor,je GPU zal ook voldoende bandbreedte moeten hebben om dat extra geheugen met dezelfde performance te benutten,anders schiet je er niks mee op behalve dan voor het gebruik van antialiasing in lagere resoluties.
HD 4870 1GB was volgens mij 5 tot tien procent sneller dan de 512 MB versies op 1920 1080. MAW 2 GB is overkill voor een GT 200b. Misschien zal er over een jaar of 2 meer verschil te merken zijn maar dan is het allang DX 11 tijd. Die GTX 285 is al 80 euro duurder dan de GTX 280 voor tien procent meer performance. Die 2 GB versie wordt al helemaal overpriced. De enige kaart die op dit moment zoveel rechtvaardigt is de GTX 295. Die zou best 1,5 gig per GPU mogen hebben ipv 900 mb.
Ik denk dat je bij steeds grotere geheugens ook tegen andere problemen gaat oplopen, niet de minste:

* 32 bit beperking, zet deze kaart in je systeem en van de rest van je RAM is nog maar 2gb aanspreekbaar.
* Hoe groter, hoe complexer. Hoe complexer, des te lastiger de geheugencontroller, des te duurder en heter de kaart.
* Mogelijk hogere seektimes (nanosec hier, net als SSD's, maar bij zo'n videokaart merken sommige mensen elke nano-FPS die ze minder hebben), door een groter complexer geheugen.

Elke generatie weer z'n problemen.
Ik denk dat je bij steeds grotere geheugens ook tegen andere problemen gaat oplopen, niet de minste:
Ik denk dat jij een absolute beginner bent wat betreft het designen van memory systemen.
* 32 bit beperking, zet deze kaart in je systeem en van de rest van je RAM is nog maar 2gb aanspreekbaar.
Niet noodzakelijk. Het geheugen van een GPU is niet direct gemapt in de address space van de CPU.
* Hoe groter, hoe complexer. Hoe complexer, des te lastiger de geheugencontroller, des te duurder en heter de kaart.
De complexiteit van een geheugen controller zit hem in het schedulen van memory transacties om zo weinig down time te hebben wat betreft het openen en sluiten van pages in een memory bank, aangepast aan de traffic characteristic van de request flow. De grootte van het geheugen heeft daar absoluut niets mee te maken. (Werkelijk: Absoluut Niets.)
* Mogelijk hogere seektimes (nanosec hier, net als SSD's, maar bij zo'n videokaart merken sommige mensen elke nano-FPS die ze minder hebben), door een groter complexer geheugen.
Nope. Grotere geheugens hebben over het algemeen geen grotere CAS/RAS latencies. Dat is de enige maatstaf die geldt voor de access latency. Maar zelfs als de CAS van, vb, 15 naar 16 zou gaan dan is dat een triviale hoeveelheid tov de hoeveelheid transacties (honderden) die gebufferd moeten worden om efficient te kunnen schedulen.
Elke generatie weer z'n problemen.
Ja, een nieuwe generatie wijsneuzen die denken dat ze kunnen meepraten maar er eigenlijk geen bal van snappen.

[Reactie gewijzigd door newinca op 12 maart 2009 05:24]

* 32 bit beperking, zet deze kaart in je systeem en van de rest van je RAM is nog maar 2gb aanspreekbaar.
Niet noodzakelijk. Het geheugen van een GPU is niet direct gemapt in de address space van de CPU.
Dat is dus weldegelijk WEL het geval, het hele grafische geheugen wordt gemapped via MMIO. Zelfs Microsoft zegt dat datt zo is:
For example, if you have a video card that has 256 MB of onboard memory, that memory must be mapped within the first 4 GB of address space. If 4 GB of system memory is already installed, part of that address space must be reserved by the graphics memory mapping. Graphics memory mapping overwrites a part of the system memory. These conditions reduce the total amount of system memory that is available to the operating system.
De oplossing hiervoor is natuurlijk om gewoon een 64 bits besturingssysteem te installeren...
De complexiteit van een geheugen controller zit hem in het schedulen van memory transacties om zo weinig down time te hebben wat betreft het openen en sluiten van pages in een memory bank, aangepast aan de traffic characteristic van de request flow. De grootte van het geheugen heeft daar absoluut niets mee te maken. (Werkelijk: Absoluut Niets.)
Niet helemaal waar. Zodra je meer als 4GB op een kaart zou willen installeren zou je toch naar een grotere address space moeten gaan, wat weldegelijk de complextiteit van de geheugencontroller vergroot gezien alles breder uitgevoerd moet worden.

[Reactie gewijzigd door knirfie244 op 12 maart 2009 11:37]

Niet helemaal waar. Zodra je meer als 4GB op een kaart zou willen installeren zou je toch naar een grotere address space moeten gaan, wat weldegelijk de complextiteit van de geheugencontroller vergroot gezien alles breder uitgevoerd moet worden.
Nee, dat verandert niets aan de complexiteit. Het vereist enkel dat het page address met een paar bits vergroot. Kost een (heel klein) beetje area, maar verandert absoluut niets aan de moeilijkheidsgraad. (Het moet overigens eens gedaan zijn met complexiteit gelijk te stellen aan chip oppervlakte...) In de praktijk komt dat meer op het veranderen van een #define in de source code.

[Reactie gewijzigd door newinca op 12 maart 2009 14:54]

Deze kaart in SLI en dan windows VIsta 32bits proberen te installeren: Wat gaat er dan gebeuren?
Vanalles, het zal namelijk gewoon werken. Bovendien is het niet 2+2 GB maar gewoon 2 GB, in elke geheugen van elke videokaart staan dezelfde gegevens.
Hoezo? Windows moet nog steeds 2x die 2GB geheugen alloceren. SLI of niet. Dus je verbruikt idd 4GB op.
Nope, in SLI worden de twee geheugenhoeveelheden identiek aangesproken door windows: windows krijt en ziet maar 2 GB.

Das volgens mij dan ook een van de zwakste punten van SLI...
Helemaal gelijk... maar toch even een correctie

Het 32-bit krijt en ziet maar max 4 GB. Waarvan hij 1 GB reserveerd naar de kernel, 2 GB waarschijnlijk naar het RAM. De rest voor de HDD buffer, BIOS, CPU Cache etc. ;)

[Reactie gewijzigd door Dead Pixel op 11 maart 2009 21:59]

Een hoop moeilijke woorden maar leg is uit? Het 32 Bit Windows ziet maar ~3,5GB ram, en er wordt daarvan echt geen 1GB gereserveerd voor de kernel? CPU cache zit on-die en heeft verder helemaal niks te maken met het ram. Ik snap ook niet hoe je de BIOS in verband kan brengen met een 32bits/memory mapping verhaaltje wat maar max 4GB ram ziet.

Je verhaal klopt niet. :P

[Reactie gewijzigd door Rollo op 11 maart 2009 23:42]

Ik heb het over geheugen adressering. 32-bit kan maximaal 4GB in totaal "zien"(in totaal 4 294 967 296 adressen, 2^32).
Het gaat om de memory mapping van elk 32bit OS(zonder PAE). Die kan maximaal maar 2^32 aan. Bijde kaarten moeten hun geheugen in de memory map hebben staan(Anders kan je ze niet eens aanspreken lijkt mij). Ik kan alleen totaal niet vinden hoe sli met de memory map omgaat. Alleen tegenstrijdige berichten.

[Reactie gewijzigd door Reinman op 11 maart 2009 22:12]

Mijn 9800gx2 in sli nam 2b geheugen in vista 32bit. dus hij mapped het wel degelijk
Hij had het toch over 2 Kaarten van 2GB die samen alsnog maar 2gb laten zien in windows en niet 4...

Edit: my bad, dacht dat die kaarten ook 2 gb hadden

[Reactie gewijzigd door Sinester op 12 maart 2009 11:07]

Vindt het wel grappig om te zien dat partners van Nvidia zelf zo'n ontwerp kunnen maken. Krijgen ze dan zoveel info van Nvidia dat ze zelf het ontwerp kunnen aanpassen? Lijkt me namelijk niet niets om zomaar even te doen.
zoveel moeite is dat niet.. gewoon t referentie design een tikkeltje aanpassen.. asus verbouwt halve moederborden .. das pas high tech
het is een stuk lastiger om van nvidia een goedkeuring te krijgen om t referentie ontwerp aan te mogen passen lijkt me

[Reactie gewijzigd door JoJo_nl op 11 maart 2009 20:11]

Die chips worden net zoals andere chips geleverd met datasheets en referentieschakelingen. De referenatieschakelingen geven een voorbeeld van hoe iets sowieso werkt, maar zijn niet bindend, noch helamaal volledie copy-paste-ready ontwerpen.
Uiteindelijk heeft ťlke kaartenbakker wel een paar electronici in dienst die het uiteindelijke ontwerp gaan maken, aangepast aan de componenten die erop komen, (sterk) gebaseerd op de referentieschakelingen. En ja, die mensen weten (gelukkig) wťl waar ze mee bezig zijn, waardoor het toevoegen van extra geheugen geen al te groot probleem hoeft te vomen.
wow! Die Accelero Extreme GTX280-koeler van Arctic Cooling vind ik echt wel indrukwekkend :9~

ik twijfel er ook aan of een extra gig geheugen echt wel nut heeft, maar meer is beter, niet? :p

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True