Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 43, views: 10.157 •

Volgens nieuwe informatie zou de GeForce GTX 460 over 336 Cuda-cores beschikken, terwijl eerdere geruchten nog uitgingen van 240 Cuda-cores. De gpu zou via een geheugenbus van 192bit aan 768MB gddr5-geheugen zijn gekoppeld.

De nieuwe specificaties doen behoorlijk vreemd aan, omdat ze niet stroken met de manier waarop Nvidia's Fermi-architectuur is opgebouwd. De Cuda-cores zijn namelijk per 32 gegroepeerd en het aantal van 336 Cuda-cores zou betekenen dat de gpu uit 10,5 groepjes Cuda-cores is opgebouwd. Een andere mogelijkheid is dat Nvidia aan het ontwerp heeft gesleuteld en clusters van zestien Cuda-cores gebruikt.

De verwachting is dat de GTX 460 gebruikmaakt van de GF104-gpu, terwijl de huidige GTX 465, 470 en 480 met een GF100-gpu zijn uitgerust. Er is zelfs reden om aan te nemen dat de GF104-gpu over meer Cuda-cores beschikt, maar dat enkele clusters werden uitgeschakeld om op een hoeveelheid van 336 Cuda-cores te komen. De geheugenbus zou verder 192bit breed zijn en op die manier kan er 768MB, of eventueel 1536MB gddr5-geheugen, worden aangesproken.

Behalve het aantal Cuda-cores claimt expreview ook de kloksnelheden te kennen. De gpu, de shaderklok en het geheugen zijn respectievelijk op 675MHz, 1350MHz en 3600MHz geklokt. De kloksnelheden liggen hoger dan bij de GTX 465 en de GTX 470. Gezien het aantal Cuda-cores van 336 ten opzichte van de 352 Cuda-cores waarover de GTX 465 beschikt, zou de GTX 460 wel eens dicht in de buurt van de GTX 465 kunnen komen, vanwege de hogere kloksnelheden.

GTX 460 specs

Reacties (43)

Deze specificaties lijken me een beetje vreemd, het is denk ik niet zo handig om 2 bijna dezelfde prestaties leverende kaarten met dezelfde architectuur op de markt te zetten.
Ik gok/hoop dat hetzelfde gaat gebeuren als met de 8800GTS/GTX (g80) serie, die werden langzaam "vervangen" door de veel goedkopere 8800GT (g92) en de daaropvolgende 9800-serie (ook allemaal g92's).
Minder stroomverbruik/hitte, minder complex, hogere yields, lagere prijs maar toch prima prestaties. Dat is IMHO net wat Nvidia nodig heeft.

Verder hoop ik dat Nvidia met een tegenhanger voor de HD5770 komt, het 100-150E pricepoint dus. Daar bieden ze nog enkel maar wat oude troep aan die no match zijn voor gelijkgeprijsde kaarten van de concurent.

[Reactie gewijzigd door SirNobax op 15 juni 2010 15:55]

Goede onderbouwing :)
Mee eens, ik heb mijn Nvidia videokaart integrated in mijn notebook al 3x moeten vervangen. Ze worden snel warm en branden snel door. Met ATI heb ik nooit problemen gehad. Ondersteuning voor andere OS-en is ook minder.
Welke andere OS-en heb je het dan over ?
Voor UNIX-variaties, zowel Solaris X-86 als Linux-versies, kun je probleemloos NVidia op volle specs gebruiken, ATi meestal alleen standaard-resoluties en -frequenties.
Helpt wel als je ook nog eens gebruik maakt van de drivers van ATI/AMD en niet dit overlaat aan het linux kernel

Als je beide drivers naast elkaar zet dan zul je zien dat het OpenGL ondersteuning in de ATI drivers vele malen beter is als die brakke troep van nvidia. Het is zelfs zo dat tot voor kort nvidia weigerde drivers te maken voor linux terwijl ATI allang hun drivers klaar hadden voor gebruik.
Ik kon al gebruik maken van ATI drivers toen quake 3 net uit was voor linux. Pas een jaar of 3 vlater kwam nvidia eens een keer opdagen met eigen drivers.
En dan heb ik het niet over de drivers die aangepast/geschreven werden door externe partijen
ja ikke dus 3x ATI in rook zien uitblinken en piepjes daarna bij booten

tegen over 1x nvidia

en dan OS ellende was met ATI gigantisch

Maar ok na 4xxx gaat het beter , kwam door mijn email ze hebben 't gelezen :O

ps geerty159 hoeveel kaarten levert ATI die ongeveer het zelfde prestaties leveren ?
uhmmm... als je 4 videokaarten in rook op hebt laten gaan moet je misschien eens even ergens anders kijken als bij de fabrikant... zo maar een ideetje.
Ik zit op de 6 kaarten. Maar dan spreken we wel over 15 jaar uitgesmeerd...

4 kaarten is peanuts als je al ff aan het hobbyen bent :).

ik heb idd dezelfde ervaring. veel meer problemen gehad met ati dan nvidia kaartjes. Hoewel dit waarschijnlijk gewoon "bad luck" is neem je het toch mee in je overweging als je een nieuw kaartje gaat open.

ontopic
Ik ben vooral benieuwd naar de eerste benchmarks en het stroomgebruik. Ik heb het vermoeden dat dit kaartje nog wel eens een mooie mainstreamkaart van worden (als de 8800GT was).
Volledig afhankelijk waarvoor je je kaarten gebruikt.
Gaming -> AMD
toepassingen die gebruik maken van CUDA -> Nvidia

Gezien de huidige evolutie in 3D land, is Nvidia erg interessant aan het worden met zijn CUDA cores. GPU rendering is een groeiende en veelbelovende ontwikkeling.
de dag van vandaag heb je ook OpenCL, wat zowel ATI als nVidia ondersteunt. Maar ook hier is meer CUDA cores = betere OpenCL prestatie.
Jammer dat je een offtopic beoordeling krijgt, want CUDA is wel degelijk voor zakelijke toepassingen bijzonder interessant. Momenteel heeft Adobe Premiere CS5 bijvoorbeeld als enige professionele videomontagepakket GPU ondersteuning. Dit heeft tot gevolg dat een project met 20 lagen nog een vloeiende preview heeft en je kunt gewoon realtime scrubben. Je wilt niet weten hoe fijn dat is in een productieomgeving.

Bij ingewikkelde projecten met veel compressie moet bij andere pakketten eerst een preview gerenderd worden. Het gevolg is dat je langer bezig bent met ťťn project (tijd is geld) en dat er minder geexperimenteerd wordt (previewen duurt erg lang). CUDA is dus bijzonder prettig voor mensen die in videomontage werken (sterker nog, een investering in een machine met een nVidia kaart en met Premiere is goedkoper dan wachten totdat alles gerenderd is) en er zullen vast nog veel meer professionele omgevingen zijn waarin dit een rol speelt.

Naar verwachting komen al deze leuke speeltjes natuurlijk snel naar de consumentenmarkt :)
uhmm... GPU rendering is what alle GPU's doen tijdens het gamen.
dat is niet wat je bedoeld. (of je moet het over 3d max ofzo hebben)
je bedoeld denk ik GPGPU taken.

en CUDA gaat verdwijnen. zowel openCL als direct-compute van MS kunnen wat cuda kan maar dan niet gebonden aan 1 fabrikant.
openCL kan zelfs nog veel meer als cuda en werkt op alle mogelijke massive parallel hardware van GPU tot supercomputer.

alles wat nu op cuda gaat, zeker wat gamen betreft, verhuizen naar hopelijk openCL maar zelfs direct-compute zou beter zijn.

het enige waardoor nividia nu interestanter zou zijn als zeg een jaar op GPGPU gebied is omdat hun GPGPU prestaties erg hoog liggen.
maar dat is duidelijk ten koste gegaan van de prijs/prestaties verhouding bij games.

[Reactie gewijzigd door Countess op 15 juni 2010 16:32]

Tja, waarom dan? Ik heb een HD 5700 in mijn HTPC zitten vanwege dat deze kaart 7.1 audio over hdmi kan pompen. Alleen maar driver gezeur heb ik ermee. Kennelijk vind ATI het normaal om standaard 15% underscan bonus te doen bij het gerenderde beeldje. Dikke zwarte randen dus rondom. Dit zou je in de Catalyst control panel moeten kunnen instellen. Mooi dus dat die optie er niet tussen staat (Ook niet verborgen zoals beschreven op diverse internet sites). Op een of andere manier herkent de kaart geen goede monitor/tv als je die via de hdmi uitgang via een versterker aansluit. Hoe dan ook... dagen prutsen en knoeien met drivers. (en ik ben zeker niet onhandig met computers) Nu met de laatste drivers maak hij het helemaal bond. Catalyst control panel start niet eens meer op en komt vrolijk met de melding dat hij de GPU niet ondersteund.. pfff.

Echt, voor mij geen ati meer. Met Nvidia heb ik nooit problemen. Daar kan je ook gewoon simpelweg zeggen dat hij toch maar een videosignaal moet uitsturen ook al herkent hij de aangesloten tv niet. Helaas nog geen Nvidia kaart dat audio kan sturen over hdmi.
Heerlijk driver gezever weer.. Pak het eens goed aan, die drivers zijn prima. Dat jij nVidia gewend bent, maakt die drivers niet een keer beter. En sowieso is het "aah shit, het werkt niet allemaal in 1 keer perfect op mijn setup: dus het ligt aan de AMD kaart en dus nooit, ooit meer een AMD kaart ookal is het voor een normaal computerbeeldscherm en heeft AMD veel betere kaarten dan nVidia" verhaal zo oud en dom als het maar komt.
Tja, zoals je in mijn verhaal kan lezen is het niet een kwestie van het werkt niet allemaal in 1 keer. Ik ben er dagen mee bezig geweest. Heel veel verschillende drivers geprobeerd (van nieuw naar steeds ouder), rechtstreeks register aanpassen, forums op ati en overig internet doorgespit, thirt- party tooltjes... etc etc.. En waarom? Alleen om die stomme underscan uit te kunnen schakelen (zwarte balken rondom). Op een gegeven moment ben ik er wel een beetje klaar mee.

Tja, noem het maar driver gezever... al is de hardware nog zo mooi, als de drivers / tooltjes prut zijn kan je er nog weinig mee. Overigens heb ik niets negatiefs over de hardware gezegd. Die is prima, kon ik het alleen maar ten volle benutten :(
Underscan balk heb ik gewoon;
Desktops & Displays, zie je beeldschermen incoontjes, rechtsklikken en configure kiezen... nu heb je een nieuw venster, kies de tab scaling options et voila! Een heuse scaling bar, kan je die zwarte rand geheel wegwerken.

Wat wel klopt is dat de TV niet gedetecteerd word als die via je versterker is doorgelust; erg vervelend; moet je toch met twee remotes aan de slag om beeld en geluid om te te zetten :-/
Thanx voor de hulp. Helaas werkt het dus niet bij mij omdat hij de TV niet goed herkent ofzo. En met de laatste driver (10.5) herkent CCC niet eens meer mijn GPU (start dus na een melding dat de GPU niet ondersteund wordt niet eens meer op).

Hoe dan ook, hij moet dat gehele "TV herkennen" gewoon negeren. Mijn setup is namelijk nog iets complexer. De HDMI gaat naar mijn versterker, vervolgens gaat die van mijn versterker naar een actieve HDMI splitter waarvan het signaal naar mijn HD TV en naar mijn HD beamer gaat. Het enige wat de HTPC moet doen is een "dom" 1080p signaal op de hdmi kabel spugen. Net zoals al mijn andere HDMI aparatuur dat doet.
Ik heb een 9600gt steken van nvidia dus; en ik kijk toch films via hdmi op mijn tv met geluid. Je moet de spdif aansluiten op de kaart dan werkt het toch?
het werkt bij mij in ieder geval op de beide uitgangen, zowel pc scherm als pc zijn hdmi aangesloten. (verloopstekker en verloopkabel bij pc scherm)
dat klinkt nog best aadig.
veel beter dan de 240-256 die ik eerder hoorde.

ook aangezien 256 of 240 *2 niet sneller zou zijn dan een gtx 480.
en ze hier schijnbaar een dual kaart van wilde maken, met 336 SP's heeft dit wel zin.
en met deze specs kan het nog wel eens een nieuwe 8800GT zijn.
met 256 SP's was hij gewoon te traag geweest...

al denk ik dat als het echt een "nieuwe 8800gt" zou worden,
ati wel een kleine prijsdrop kan verzorgen.
en nog steeds de prijs perf koning zal zijn.

[Reactie gewijzigd door freaq op 15 juni 2010 14:03]

Wat is eerder, de GTX460 of Bullitstorm, ik wil ze beide wel hebben :D
De GTX460, Bullitstorm komt pas in Q1 2011.
Dat de snelheid dicht tegen die van de 465 aan ligt lijkt me "vrij" logisch... De nummers liggen ook vrij dicht bij elkaar?
Is dit niet gewoon weer een nieuw model voor de middenklasse? 13 in een dozijn.
Als hij nou wat nieuws mee brengt... (Energiezuinig, passief ofzo)

Ik krijg niet echt het gevoel dat dit een hele waardevolle kaart is...
460 zal gelijk liggen aan of sneller zijn dan 465.
deze zal waarschijnlijk ook vrij snel een EOL status krijgen
Je hebt altijd, dat als een kaart 'envergiezuinig/passief' zou zijn, hij altijd nog een stuk sneller kŠn als je er een mooie koeler op monteert...
Snap er niks meer van 8)7
nvidia maakt er blijkbaar zijn doel van om zijn klanten te verwarren vooral met zijn gs,gt,gts,gtx en zijn rebrands
nVidia naamgeving werkt als volgt:

GS = budget
GT = mainstream
GTS = gaming
GTX = high end.

Was het vroeger nog zo dat er in een serie zowel een GTX als een GT is (8800GT en 8800GTX), heeft nVidia er nu voor gekozen om de nummers en de naamaanduiding te laten matchen dus bijvoorbeeld:

GT220 en GTX285, zowel het voorzetsel als het nummer zegt nu dat een GT220 langzamer is dan een GTX285 :D

Het is niet zo moeilijk :D


(ik weet even niet of ik de doelgroepen helemaal goed heb, maar het idee is duidelijk toch?)

[Reactie gewijzigd door windwarrior op 15 juni 2010 14:40]

Ja maar de meeste noobs denken dus waarschijnlijk dat een GTX 295 langzamer is dan een bijv GT330 :+

Hoger nummer maar toch echt veel langzamer.
Om het even kort te houden:

192 bit bus.
675 MHZ Gpu klok
1350 MHZ Ddr5 klok
1800mhz Schader klok
768MB ddr5
3579 Mb virtueel.
336 Schaders
Pci-e 2.0 16X


Het is wel realistisch.
Leuk kaartje, doet me wel denken aan een 9600 GSO met de snelheden van een GTX285.


Eerst +2 nu +1 ?

[Reactie gewijzigd door Xanquezer op 15 juni 2010 15:24]

Vind het erg vreemde specs, vooral het geheugen. 768Mb is een rare hoeveelheid, zeker in combinatie met de 192bit bus.

Het zou mij niks verbazen als er meer achter zit en is dit slechts een opwarmertje voor de GTX475 oid die over de full specs beschikt. Zoals een 256bit bus met een normale hoeveelheid van 1GB aan geheugen. Waarschijnlijk dan ook 33% meer shaders, zo ergens rond de 440?

Een fermi is natuurlijk niet het meest ideale model om te produceren: te duur, te heet en te complex met lage yields als gevolg. Het zou mij niets verbazen als dit model de 465 en 470 vervangt.
De 1 op 4 verhouding is het ;)

1024mb/256bit = 4
768mb/192bit = 4

Niks vreemd aan...


Uiteraard is de GTX475 sneller als de GTX460.
Deze kaart moet ook wat lager met de prijs komen te liggen omdat ook gamers met wat minder geld ook willen gamen met DX11.

[Reactie gewijzigd door Xanquezer op 15 juni 2010 18:48]

786mb/192bit = 4 (bijna)
Het is 768 en dat is inderdaad precies een viervoud van 192. Om terug te komen op de reactie InfinityG35 ik vind het helemaal niet vreemd dat ze een 192 bit bus gebruiken. Sinds de introductie van de 8800GTX maakt Nvidia al gebruik van een bus grote die afwijkt van de gebruikelijke 2 tot de macht x methode (waar x een geheel getal is).

Als het geheugen snel genoeg is heb je ook geen brede bus nodig. De totale theoretische bandbreedte wordt berekend als de breedte van de bus maal de snelheid van het gehuegen. Een 256 bit bus gecombineerd met 1000mhz gehuegen levert dus minder bandbreedte als een 192 bit bus in combinatie met 1350mhz geheugen.
192 * 1350 = 259.200
256 * 1000 = 256.000

[Reactie gewijzigd door codeneos op 15 juni 2010 15:17]

Aangepast...
Maak ook wel eens fouten...
Sorry...


Maar er is dus niks echt raars aan te vinden.
hoeveel stroom zou die trekken bij full load?
Ik vermoed rond de 100~150 watt.
Het is de nieuwe technologie als met de 40 nanometer core ;)
*brabbelt iets over meer stroomverbruik ten opzichte van 55 nm*

Dat is opzich wel redelijk, maar ik denk dat je toch eerder op iets van 175 watt terecht komt hoor...
Het is van mij ook maar een gok...
55NM is de GTX470 en 480 ook...
Dus zou ook goed kunnen.

Voor een toch iets mindere kaart is 175watt veel...
nu snapt ik je niet meer, HEEL fermi wordt op 40 nm gemaakt, de vorige serie (GTX2xx) werdt op 65/55 nm gebakken en had geloof ik een minder beroerde TPD
De nieuwe specificaties doen behoorlijk vreemd aan, omdat ze niet stroken met de manier waarop Nvidia's Fermi-architectuur is opgebouwd. De Cuda-cores zijn namelijk per 32 gegroepeerd en het aantal van 336 Cuda-cores zou betekenen dat de gpu uit 10,5 groepjes Cuda-cores is opgebouwd. Een andere mogelijkheid is dat Nvidia aan het ontwerp heeft gesleuteld en clusters van zestien Cuda-cores gebruikt.
...of misschien hebben ze de cores dit keer wel per 48 geclusterd?
Dat lijkt me niet..
Ik hoop dat deze kaart een beetje goedkoop te produceren valt voor Nvidia misschien kunnen ze hem dan voor een fatsoenlijke prijs die meer richting de €180-200 leveren.
Ook dat het stroom verbruik en de hitte wat terug gedrongen zijn.
GTX465 is misschien wel een mooie kaart voor het oog maar de prijs en het verbruik maken hem niet echt interessant.
Ik denk wel dat GTX460 een beter succes zal worden wat dat betreft.
Hopelijk gaan de prijzen bij AMD dan ook een beetje terug naar de officiŽle advies prijs niveau's.
Ik vindt het maar niks dat je nu nog steeds de hoofdprijs betaald voor een 5850 en 5870 eigenlijk.

Op dit item kan niet meer gereageerd worden.