Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 73, views: 14.145 •

Videokaartfabrikant Gainward heeft een GTX 460 ontwikkeld met 2GB gddr5-geheugen. De gpu werd ook nog licht onder handen genomen door de kloksnelheid op te voeren en de koeler werd voorzien van een 80mm-ventilator

Het gaat om de GTX 460 met een 256bit-geheugenbus, die nu 2GB in plaats van 1GB gddr5-geheugen heeft. De kloksnelheid van het geheugen bedraagt 3600MHz, evenveel als bij de standaard GTX460's. De gpu van de GTX 460 Golden Sample, met 336 Cuda-cores, werd van 675MHz naar 700MHz overgeklokt, goed voor een shaderkloksnelheid van 1400MHz. Het extra geheugen zal met name op hoge resoluties en het gebruik van veel anti-aliasing van pas komen.

Gainward paste ook de koeler aan, die in opzet nog gelijk is aan het standaard-model, met de ventilator in het midden. De ventilator werd echter vervangen voor een 80mm-exemplaar, die waarschijnlijk meer lucht zal verplaatsen. Het aantal video-uitgangen werd uitgebreid met een extra displayport, bovenop de reeds gebruikelijke hdmi-poort en twee dvi-poorten. Om de extra video-uitgang mogelijk te maken moest een deel van het ventilatierooster wel plaatsmaken voor een dvi-poort.

Wanneer de videokaart te koop is maakte Gainward niet bekend en ook naar de prijs blijft het gissen, alhoewel de prijs waarschijnlijk enkele tientallen euro's boven de 200 euro komt te liggen.

Gainward GTX 460 2GB Golden Sample

Reacties (73)

Waar blijven de videokaarten waar je zelf geheugen in kan prikken
ja dat lijkt me goed oplossing, maar zou ik dan ook zelf een gpu kunnen vervangen???
slecht idee, want dan zit je weer met compatibiliteits zooi (memory controller op de kaart kan bijvoorbeeld alleen maar GDDR5 ofzo aan). Te weinig eenvormigheid van gebruikt geheugen + kleine afzetmarkt = duuuuuuuuur.

Plus hoe zou je modulair geheugen op je graka koelen? de cooler van moderne grakas neemt het geheugen ook mee omdat de deel uitmaken van de PCB. bij modulair geheugen zou je al weel absurde koeloplossingen moeten verzinnen.
Het koelen van het geheugen is helemaal geen issue; het videoram heeft helemaal geen actieve koeling nodig, iig niet als het niet overklokt word. Als de videokaartbakkers, net als bij moederborden, gewoon een standaard afspreken voor het geheugen is het helemaal niet zo'n groot probleem.
ik denk dat het beter is al er in de toekomst een manier kan worden bedacht waarin de cpu, gpu en systeem geheugen samen gebakken zijn en direct met elkaar op een zeer snelle manier communiceren.
Nee, want dan zit je met geen customisability (spelling?), als de "GPU" dan kapot gaat, kan je een heel nieuw SOAC kopen.
En ik wil graag gewoon alles zelf bouwen, vind ik gewoon leuk! :)
ja dat snap ik, ik vind het ook leuk dat knutselen...maar dan zullen we altijd tegen bottlenecks aanlopen ben ik bang.
Gepasseerd station, dat kon vroeger al met videokaarten van S3 (Trio) bijvoorbeeld. Kon je 1 of 2 MB bij pluggen. :). Daarbij is de meerwaarde van geheugen bijprikken tegenwoordig niet zinvol meer. De meeste videokaarten zijn voorzien van genoeg geheugen, en op het moment dat ze te traag worden, zal geheugen ze niet helpen om weer bij de tijd te zijn. Dan heb je simpelweg weer een nieuwe generatie kaart nodig.
Ik denk dat het eerder hieraan ligd. Toen in die goeie ouwe tijd waren de electrische eisen voor die lage TTL fequenties niet zo hoog. SMD kwam toen op gang. Chip voetjes met lange PCB traces naar andere chip geen probleem en contact overgangen ok niet.
Nu met die hoge frequenties is dat allemaal gevoeliger waardoor chips on PCB moeten en dicht bij elkaar en korte traces. Daarnaast zijn de chips even groot maar de pin bezetting is nu veel hoger hoog. Dat je het hebt over een zeer dens pin bezetting. Voeger met die enkele dike pootjes wat nog steed fragiel is voor je soldeerbout. Maar die micro pinnetjes. Dat is allemaal veels te fijn.

Dat zou menen een heel duur socket design en veel robustere chip houder met pin systeem dat vervangbaar is zonder al te veel kans op pin beschadiging.

En veel lagere mem klok om de routing lengte en contact overgang te compenseren.

Denk aan zo'n pin grid wat CPU hebben en zoiets voor je geheugen.

Ik denk eerder dat het praktisch en economisch niet haal baar is.
Gaan we weer terug naar 1990, wel leuk idee. Niks wat een paar koelblokjes natuurlijk niet kunnen verhelpen om het koel probleem te verhelpen.

Ik ben wel heel benieuwd hoe dit zich verhoudt tot een 1GB kaart, zeker iets om naar uit te kijken.
Zal zeer afhankelijk zijn van het spel wat je aan het spelen bent. In games met kleine maps, relatief weinig textures om in het geheugen te plaatsen, etc. zul je vrijwel geen verschil behalen. In een spel als GTA4 of wrs binnenkort Mafia 2 waarin je met full range view en max texture details meer dan 1GB pakt, zal het je wel weer winst op gaan leveren.

De winst zal meer in kwaliteit liggen dan in snelheid though denk ik.
ik heb zelf een Ati kaart met 1gb, en dat is naar mijn ervaring meer dan genoeg, dus 2gb vind ik persoonlijk een beetje overdreven
"640k ought to be enough for anybody"
Ja ja, die quote wordt echt te pas en te onpas gebruikt. Wat Caveman811 zegt is niet zo gek. Check de conclusie die door tweakers is getrokken bij de review van 4 GTX 460 kaarten: reviews: Vier keer de Nvidia GTX 460-videokaart
Ik ben er zeker van dat er ook vandaag reeds situaties bestaan waarin de meerwaarde van 2GB op een grafische kaart wel bestaat.
niet voor consumenten, en niet zo veel meer waarde dat het de meerprijs waard is.
Mwoa, ik ben ook een consument en heb zeker interesse in deze kaart. Omdat Adobe CS5 niets met mijn huidige ATI kan wil ik de overstap naar nVidia maken en 2 gig is dan wel heel lekker.
en hoeveel consumenten gebruiken cs5?

dit is echt een te kleine markt voor deze kaart om rendabel te zijn. hij is vooral bedoeld om consumenten te misleiden.
Wat kun je verwachten van 2GB i.p.v. 1GB in CS5? (bij een GTX460)
Dat riep men vroeger ook toen ik de keuze maakte tussen een GeForce 4400 64MB en 128MB. 128MB was geen slimme keuze, overclockte minder goed en was te duur. Nu zitten we al op 2GB en ook daarvoor gaan de spelmakers wel een nuttige besteding brengen :)

Ik ben het wel met jullie eens dat de meerwaarde op dit moment beperkt is, maar wie weet wat de toekomst brengt? :)
en was die 4400 nog nuttig toen 128mb wel nuttig werd?
waarschijnlijk niet.
Als je twee schermen draait met 1920x1200 resolutie dan heeft 2GB zeker effect.
1 scherm met ongeveer die resolutie gaat gemakkelijk met 512mb (weet ik uit eigen ervaring) dus ook dat betwijfel ik.
Conclusies van een serie benchmarks die niet eens 2560x1600 meeneemt en dan zegt dat 1GB weinig toevoegt. Dezelfde benchmark die pas in de conclusie vermeldt:

"De door ons geteste Gigabyte 768MB OC", die kaart heeft wel een 715 MHz klok en 1,43 GHz geheugen ten opzichte van de Zotac 1GB met zijn 675 MHz en 1,35 GHz. Dus als je het geheugen en de core beide met 6% overclockt dan presteren ze ongeveer gelijk op resoluties tot en met 1920x1200. Let wel dat bij een spel als Far Cry 2 de 1GB versie ondanks de bij dit model lagere kloksnelheden nog steeds 8% sneller is op 1920x1200 en ik durf te wedden dat het verschil bij 2560x1600 oploopt.

Ik kan me best voorstellen dat mensen zeggen 2560x1600 is een wel heel hoge resolutie, maar daar draai ik nu een keer op. Andere benchmark sites genoeg die wel 2560x1600 testen en zeggen dat de 1GB versie zeker de moeite waard is. Maar daar worden dan ook stock snelheden vergeleken, niet een OC model tegenover een niet-OC model. De Zotac 1GB is gewoon geen beste uitvoering van de GTX 460 1GB die warmer wordt en meer herrie maakt door een slechte koeler en daardoor ook nog wat meer energie verbruikt. De Gigabyte GTX 460 OC is wel een goede uitvoering van de GTX 460 768MB en benut standaard al een deel van het overclock potentieel, dat had de conclusie ook kunnen zijn... Ik ben benieuwd naar benchmarks op 2560x1600 van deze nieuwe 2GB kaart, eens kijken of het wat toevoegt of alleen maar voor de grotere marketinggetallen gedaan is.

[Reactie gewijzigd door Bas van der Doorn op 31 juli 2010 12:23]

Net zoals met de 8800 GTS 320 en 640mb, was de 320 mb op alle vlakken sneller dan de 640mb behalve op hoge resoluties die voor de meeste mensen niet eens interessant waren.

Ze zullen wel niet voor niks meer geheugen op duurdere / snellere kaarten zetten met een grotere bus dan op de mid range kaarten.

Maargoed, 1GB is prima, lekker weer alles zonder problemen draaien met prachtige graphics!
Nou dan moed je maar is de review goed lezen van Anandtech, want die test alle spellen ook op 2560x1600, en dan kan je zien dat het geen bal uit maakt op je 1 GB heb of meer.

Anandtech


Dus ja deze paar jaren heb je geen bal aan een 2GB versie Geforce GTX 460.

En als er dan naar jaren spellen kommen die meer vragen dan 1GB, is toch je Geforce GTX 460 te langzaam geworden, en heeft 2GB toch geen zin meer.


Update: Maar ik had het ook over 1GB vs 2GB, en misschien heb je gelijk, maar wat ik gezien heb in all die jaren van Grafische kaarten, is dat wanneer spellen meer Geheugen nodig hebben, en dat zal denk ik pas na 2 a 3 jaar zijn, (weet natuurlijk niks zeker) dat het toch niet meer uit maakt of je een 1GB of 2GB Geforce GTX 460 hebt, omdat dan de Geforce GTX 460 te langzaam is geworden om Spellen in FullHD en veel AA en AF zijn te spellen.

Want weet nog dat er een 2GB versie uit kwam van de Ati HD 5870, en dat in tests de 2
GB versie zo goed als niks sneller was dan de 1GB versie, zelfs met 2560x1600.

HardwareCanucks

"Extra memory adds very little benefit at single-screen resolutions"


Zo als je kan zien is de 2GB versie maar 2 a 4 FPS sneller, met andere worden blijf gewoon bij de 1GB versie, alleen bij meerdere schermen gaan gamen en 2 in Crossfire doen heeft de 2GB versie misschien pas zin.

Maar je hebt gelijk niks weet je zeker.

[Reactie gewijzigd door AmigaWolf op 1 augustus 2010 02:17]

In de conclusie staat toch duidelijk: "To purchase a $200 card with only 768MB of RAM today is shortsighted; it’s less RAM than last year’s $200 GTX 275 and Radeon 4890 cards had, and it’s going to come up short in tomorrow’s games. The difference is 256MB, but we’re willing to bet between that 256MB of RAM and the additional L2 cache and ROPs that the 1GB advantage will only grow from here. We would rather spend another $30 now for better performance in many of today’s games, knowing that we also will have a better shot at playing tomorrow’s games.".

Misschien is de 2GB inderdaad verspilling, dat weten we nog niet, maar ten opzichte van de 768MB versie is de 1GB versie dus wel de moeite volgens Anand.
Ten tijde van de pentium 200 mmx vond men 1 ghz ook overdreven... Dat iets nu overdreven lijkt betekent niet dat het zo blijft. Elke stap voorwaarts is er 1 :)
Maar in dit geval is het geen stap voorwaarts (er is niets innovatiefs aan) maar gewoon marketing.
maar zou je voor 5 jaar in de toekomst daar nu al tientalle euros meer aan uitgeven?
een 1ghz pentium chip zou zo veel geheugen bandbreedte te kort komen dat hij toch nouwelijks sneller zou zijn

dat is hier niet anders, tegen de tijd dat 2GB nuttig word is de gpu al zo ver verouderd dat die al ver van te voren de bottleneck is gaan vormen en niet het geheugen.

[Reactie gewijzigd door Countess op 31 juli 2010 11:26]

Waar het wel nuttig voor kan zijn is dat er meer texture data op de kaart geladen kan worden. Dus grotere levels ineens op de graka laden. Wellicht handig bij games als GTA en RDR waarin je huge werelden hebt die (vrijwel) zonder laadtijden aaneensluiten.
Dit verschil merk je alleen als je bijvoorbeeld of een 30" scherm speeld, of als je met hoge AA werkt
Ik heb zelf een ATI kaart met 2gb, en dat vind ik dan weer net genoeg. Maarja, ik doe ook aan modelling, games bouwen en GTA IV (gebruikt 1,5 GB videokaart geheugen op max)... ;)
Dit is ideaal om te gebruiken bij het renderen met 3d software. GPU accelerated raytracing werkt erg snel, maar men is vaak gelimiteerd door het GPU geheugen bij het renderen.
Om even een quote uit de review van tweakers erbij te halen:
We zijn overigens nog niet overtuigd van het nut van de 1GB-versie, die vaak niet of nauwelijks sneller is dan de GTX 460 met 768MB geheugen.
Als 1GB geen verschil maakt, waarom dan een versie met 2GB op de markt brengen.
Kan me niet voorstellen dat het goed verkoopt, daar deze ook nog eens tientallen euro's duurder is dan standaard versies en de kaart is niet erg veel sneller geklokt. :/
Marketing, perhaps? Misschien heb jij het niet nodig, maar als ze willen kunnen ze jou laten denken dat je het nodig hebt.
In veel shops worden kaarten gerangschikt aan de hand van hun snelheid. En die snelheid is dus puur en alleen afhankelijk van de hoeveelheid geheugen op de kaart. Zo had je vroeger een X800 met 256MB en een X700 met 512MB geheugen. En die verkoper maar blijven beweren dat de X700 toch echt sneller was...

En dat gaat dus tegenwoordig ook op. 2 GB op een kaart is enkel nuttig als de grafische chip, die 2 GB ook kan benutten.
Het verschil tussen een 1GB en een 2GB graka is dat degene met 2GB een grotere buffer heeft om de informatie die binnenkomt tijdelijk op te slaan. Als de doorvoersnelheid alsnog hetzelfde is bij de twee kaarten, dan heeft degene met 2GB minder last van lag aangezien die meer informatie kan bevatten dan die met 1GB.
Er is wel wat meer in de wereld dan enkel maar games, wat denk je van OpenCL/Cuda toepassingen ? Ik gebruik zelf de gpu versie van luxrender en dan is wat meer geheugen bij grote scenes zeker een aanrader

http://www.luxrender.net/wiki/index.php?title=LuxRays
maar daar is deze kaart dus niet voor bedoeld. hij word in de markt gezet als game kaart.
daar zijn professionele kaarten voor.

als je openCL on-a-budget wilt doen dan kan het wel natuurlijk. maar dat is nog niet echt een hele grote markt.

edit : ik zeg toch ook dat het prima kan, je krijgt er alleen weinig support op, en zeker geen snelle als je die nodig hebt. en ook de drivers zijn er niet voor geoptimaliseerd.
misschien leuk om thuis te hobbyen maar niks voor het bedrijfsleven of om je brood mee te verdienen.

[Reactie gewijzigd door Countess op 31 juli 2010 18:24]

Onzin. Deze kaarten zijn prima voor GPU rendering.

Zie bijvoorbeeld http://www.refractivesoftware.com/
Dat de kaart niet voor rendering op de markt gezet wordt doet me niet zo veel. Ik koop liever deze kaart voor ~250 euro dan een vergelijkbare Quadro van ~1500 euro.
Maar het punt blijft staan: Voor consumenten niet of nauwelijks nuttig. 'Normale' consumenten zijn niet bezig met het renderen van 3D scenes, wel met het spelen van games.
Laat ik nou denken dat games = rendereren van 3D scenes of speel je prince of persia in de 1980 versie?
GPU rendering. Hoe meer geheugen, hoe meer textures er geladen kunnen worden en grotere scenes/animaties.
Ik vind het jammer dat tweakers GTA IV niet gebruiken voor de benchmarks. Bij de opties kun je daar namelijk zien hoeveel MB van het geheugen wordt gebruikt. Als ik alles op 100% zet kom ik uit op rond de 1600 MB, dat was toen ver over het limiet van mijn videokaart (512 MB).

Misschien zou het nut van de 1 GB versie (en deze 2 GB versie) blijken bij onder andere games zoals GTA IV. Jammer dat tweakers deze niet gebruikt.
In mijn review van de gtx480 heb ik wel GTA 4 gebruikt als benchmark. Alles voluit is geen 1600Mb mem maar eerder 1203 MB (lost n damned 1920x1080). Maar daar heb je dus de reden voor meer dan 1gb geheugen. Het zijn uitzonderingen, maar ze zijn er wel.
"Het extra geheugen zal met name op hoge resoluties en het gebruik van veel anti-aliasing van pas komen."

Alhoewel dit eenzeer mooie kaart is, blijf ik mezelf toch nog altijd afvragen met kaarten die meer geheugen hebben dan dat ze theoretisch snel genoeg kunnen verwerken. Ik denk dat deze kaart op hoge resoluties niet genoeg kracht heeft om met veel AA genoeg FPS uit zware spellen te halen.

Misschien dat het in een SLi-opstelling beter tot z'n recht komt met het extra geheugen.
dan moet je al 2 kaarten met 2GB geheugen hebben, want SLI opstelling gebruikt op elke kaart maar even veel geheugen als de minste in de opstelling.
Ik vraag me nu af waar je nu dus meer aan hebt, deze gainward 2gb kaart met:

2gb geheugen
3600 mHz Kloksnelheid
700mhz core
1400Mhz shaderclock

of bijvoorbeeld de Palit Sonic Platinum edition:

1gb geheugen
4000Mhz
800Mhz core
1600Mhz Shaderclock

En welke van deze 2 kaarten is gunstiger om SLI op te stellen ?
Ligt er totaal aan op welke resolutie je gamed.
En de 2gb kaart is natuurlijk weer beter in sli.
Aangezien je maar het geheugen van 1 kaart overhoud.
Dat houd dus in dat je in sli nog steeds 2gb hebt en dat is awesomeness.
In alle reviews zie je dat elke kaart makkelijk tot 850 overclocked, heeft dan weinig zin om voor een pre-overclocked kaartje meer te betalen.
Nuttig. Wij zochten al naar kaarten met meer geheugen voor scientific computing. Voor rendering/games lijkt het me zinloos, maar voor echte applicaties heb je er wel wat aan. Zeker in 4-way SLI, dan is 768MB gewoon te weinig, maar je krijgt veel meer cores/euro met 460s ipv 480s.
naar mijn weten kon de GTX 460 maar met max 2 in SLI
Ok, dat wist ik eerlijk gezegd niet. Maar voor CUDA heb je ook geen SLI nodig, dan kan je gewoon je 4 devices aanspreken. Ik zei eigenlijk SLI omdat meestal de term is die gebruikt wordt voor meerdere videokaarten in een systeem.
meer zelfs: voor CUDA wordt SLI zelfs afgeraden (staat in de CUDA manual)
Arion, Octane, Lux. Allemaal hedendaagse top render engines die heel veel snelheid uit een GPU kunnen halen. Zoals bovengenoemd, biedt extra GPU geheugen hierbij een erg groot voordeel aangezien er grotere/complexere scenes ingeladen kunnen worden.

Prijs is totaal niet te vergelijken met een professionele FX kaart, maar de performance increase is aanzienlijk. Ik denk dat hier best een markt voor is. Zeker omdat bovengenomede renders (ben niet zeker over Lux) gebruik maken van CUDA, wat vooralsnog alleen op Nvidia kaarten te vinden is.
, wat vooralsnog alleen op Nvidia kaarten te vinden is.
het zal nooit op ATI komen omdat het een propriatary en gesloten standaard is van Nvidia.
nu openCL (en direct compute) er is zal cuda (hopelijk) snel verdwijnen.
Ja, mijn 768mb 460 is te koop zodra de 2Gb 460 leverbaar is.

Bijna 3x de scene size! Beter dan een 480 met 1,5, dus 3x460 in mijn systeem zal qua performance heel dicht tegen 2x 480 aanzitten, maar dan wel veel grotere scenes toelaten (en dat ook nog eens voor minder geld en minder stroom/warmte.)
Ik vraag me af ofdat je op deze kaart de firmware van de gtx470 kan stoppen.
Op de GTX465 Gold edition (msi) is dit mogelijk (en geeft een enorme performanceboost).
De GTX470 en GTX465 zijn gebaseerd op een andere gpu (gF100) dan de GTX460 (gf104). Dat gaat dus niet werken.
Waarom zijn de shaderclocks nogsteedst zo laag? Mijn antieke 8800 gtx haalt stabiel 1566mhz, default is het 1350mhz en dat is maar 50 mhz lager dan de gtx 460...

De gtx 460 heeft dan wel 3x zoveel cuda cores maar de clocksnelheden zijn gewoon laag.
ja en een Core i7 van 2ghz laat een P4 van 3ghz in het stof bijten. Mensen moeten leren zich niet blind te staren op pure snelheden. Nieuwe technieken laten toe per kloktik meer te doen.
Volgens mij valt dat hier best mee hoor alleen worden deze dus sneller doordat ze er meer cuda cores instoppen..

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBGrand Theft Auto V

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013