Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties
Submitter: gbh

De afgelopen weken verschenen er tal van geruchten over de GTX 460 van Nvidia, die binnen afzienbare tijd uitgebracht zou worden. Een referentie-exemplaar werd nu op de foto gezet. De specificaties van de gpu blijven echter onduidelijk.

De foto's van de GTX 460 doken op in het forum van PCinlife en op het oog lijkt de GTX 460 aanzienlijk korter dan de GTX 465 of GTX 470. De foto's tonen verder de gebruikelijke twee dvi-poorten en een mini-hdmi-poort. Twee zespins pci-e-connectors maken duidelijk dat het verbruik maximaal 225W is, al gaat het verhaal dat de tdp van de kaart 150W bedraagt.

De geruchten willen dat de gpu, met de codenaam GF104, over 336 Cuda-cores beschikt. Er zouden twee versies verschijnen: een met een 192bits geheugenbus en 768MB gddr5-geheugen, en een variant met een 256bit-bus en 1GB gddr5. De kaart die op PCinlife verscheen lijkt over acht geheugenchips te beschikken en zou dus de 1GB-variant zijn.

De kloksnelheden van de gpu en de cuda-cores zouden respectievelijk 675MHz en 1350MHz bedragen. Het geheugen zou een effectieve kloksnelheid hebben van 3600MHz. Waarschijnlijk zal er pas over enkele weken duidelijkheid komen omtrent de exacte specificaties.

Nvidia GTX460 Nvidia GTX460 Nvidia GTX460 Nvidia GTX460
Moderatie-faq Wijzig weergave

Reacties (65)

verbruik maximaal 225W
ben ik de enige die dit soort praktijken de laatste tijd bezopen vind?
Dat verbruikt de kaart niet. Door het wattage van PCI-E en de 2 6pins bij elkaar op te tellen kom je op 225Watt( 75+75+75=225). Dit betekent niet dat de kaart dit gaat gebruiken. Er staat namelijk een TDP van 150 watt. Maar nVidia kennende klopt dit niet helemaal en kan het er wel overheen gaan. 180 watt zal de absolute max zijn gok ik.
Waarom, ze zijden ook dat de Geforce GTX 480 rond de 300Watt zou zijn, waneer dat 250Watt is, en ze zijden dat de Geforce GTX 465 ook rond de 200Watt zou wezen, en dat klopte ook hij gebruikt 200Watt.

Dus de Geforce GTX 460 zal wel tussen de 150 a 200Watt zitten.
225Watt is de Thermal Design Power. Het absolute maximum wat deze kaart in de slechtst denkbare omstandigheden (rare temperaturen etc.) zal verbruiken.
nogsteeds niet, dit is de theoretische maximum waarden. waarschijnlijk zal deze max wel 20 kunnen krijgen, maar dat heeft ie niet nodig.
Volgens mij is het al enige jaren zo dat er op de sterkere kaarten minimaal 2x 6pin pci-e connectoren zitten. Aangezien het tdp 150 watt zou zijn, zou 1 connector net niet voeldoen (75 watt pci-e slot + 75 watt pci-e connector) Daarom hebben ze die laatste erop gezet.

Voor de rest niet zoveel ontopic, ben niet zo nvidia gericht.
Zolang hij in idle zuinig is zoals de AMD HD5000 reeks, valt er mee te leven. Niet iedereen strest zijn kaart continu tot het uiterste.
Verbruik gaat waarschijnlijk meer richting de 150watt, er zal wel een flinke ruimte overblijven voor een mooie overclock, en als je kijkt naar oudere kaarten van nvidia, kun je voor een mooie prijs een goed presterende kaart in huis halen, die met een oc zich dicht bij de topmodellen schaart kwa prestaties :)
800mhz op de core en 1600mhz op de shaders moet toch makkelijk gaan met stock koeling, dat doet mijn oude 65nm gtx260 ook al, mits je de fan wat sneller zet :P
Meh, lekker boeie. Je krijgt er wel veel grafische power voor terug. Als je ervoor dokt, is er niets mis mee toch. De gemiddelde plasma TV trekt ook zo iets. Je magnetron trekt 4 keer zoveel.
Het verschil is dat je computer vrij vaak aanstaat.

Een magnetron heeft hoogstens enkele minuten nodig.. Dat is een heel verschil.

Dus als je vaak achter je compu zal zitten, word het nogal een duurt geintje worden.

Die enkele minuten die je voor je magnetron nodig zal hebben zal amper te zien zijn op je rekening, tenzij je 24 / 7 door blijft eten..

En dan zeggen mensen van een sneller kaart verbruikt gewoon meer.

Ja en nee. Een fabrikant kan ook wel enige moeite doen om een chip zo zuinig mogelijk af te leveren. Nvidia neemt het hier niet zo nauw mee.. Dat heeft de geschiedenis van hun al laten zien..
Ik denk niet dat ze er bewust schijt aan hebben. Ze zijn er echt niet blij mee dat ie veel trekt en heet wordt hoor.

Vergeet niet dat dit het maximale verbruik is. Als je gewoon in windows zit, zal het best mee vallen. Alleen als je echt volop aan het gamen bent trekt ie veel. Als je een (leuk) leven hebt doe je dat ook niet iedere dag uren en uren achter elkaar dus dat lost zichzelf ook op :P
Meh, lekker boeie. Je krijgt er wel veel grafische power voor terug. Als je ervoor dokt, is er niets mis mee toch.
Kijk, en door zo'n instelling gaat het milieu nu naar de knoppen.
Dat is een fabeltje. Alleen sukkels geloven dat.

Deze man legt het je even uit:
http://www.youtube.com/watch?v=eScDfYzMEEw
Wat boeit het?

Reken ff na hoeveel KW je auto verbruikt, daar rij je toch ook iedere dag mee rond?

Enig echte nadeel is de hitte en het lawaai wat hoort bij de koeling daarvan, maar die technieken staan ook niet stil.

[Reactie gewijzigd door TRRoads op 24 juni 2010 15:25]

Auto's en grafische kaarten? Doet mij erg denken aan dat spreekwoord met appels en peren.
Och, hoe duurder hoe sneller en daarmee samenhangend het verbruik, hitte en kabaal. Meer een Jonagold met Elstar vergelijking ;)
Met de dualslot coolers in een goede kast zijn de grafische kaarten niet echt hoorbaar (max 40% fan bij nvidia).
zelfs na vandaag lekker warm buiten en ook binnen

40% fan - 55C uurtje power-boksen in crysis , en dat met een NV260-216sp-55nm

Alleen airco komt dan als irri over
Leuk kaartje, ziet er slick uit, maar waarom 2 DVI poorten en maar 1 HDMI poort? Dat lijkt me een beetje krom..
Hoezo? Monitoren met DVI-in zijn nog steeds meer gebruikelijk dan HDMI, laat staan DisplayPort.
sowieso een hdmi naar dvi kabel is passief en kost je amper 3 euri... lijkt me niet echt een issue dus
HDMI heeft maar een enkele link (die wel tot 340MHz kan gaan), DVI heeft voor dual link twee links nodig (die elk tot 165MHz gaan). Dus single link DVI werkt dan wel, voor dual link DVI heb je toch echt een actieve adapter nodig.
Ja dat snap ik, maar het zou dan toch logischer zijn om ook 2 HDMI poorten te gebruiken, naast de 2 DVI poorten? Misschien te weinig ruimte :)
Omdat de meeste nieuwe monitoren zowiso dvi-poorten hebben en omdat een dvi aansluiting robuuster is dan een hdmi aansluiting
Als ik het goed zie, dan is deze kaart enkel geschikt voor dual-SLI en niet triple SLI. Waarom heeft deze kaart maar één SLI-aansluiting?
Het zou mij best aantrekkelijk lijken om deze kaart in triple-SLI te zetten.

Verder ben ik zeer benieuwd naar de eerste benchmarks.

[Reactie gewijzigd door Herman op 24 juni 2010 15:48]

Geen triple-SLI zal wel te maken hebben met het feit dat nVidia niet wil dat het kaartje gaat concurreren met de duurdere modellen (GTX 470/480).
Een laag tdp is opzich wel gewenst, 150W is (zeker voor nvidia) nog best netjes. Verder ziet de kaart er wederom weer netjes uit :)
150 watt terwijl de concurrentie met 90 watt max dezelfde/betere prestaties neerzet.
de hd5830 heeft nog een hele kluif aan deze kaart, hij schijnt sneller te zijn dan een gtx465, en die hd5830 gebruikt toch bijna het dubbele van die 90 watt :Y)
@wdawn

sja als je aan folding@home doet worden nvidia kaarten wel interssant

want op dat gebied loopt ATI/AMD nog heel er achter
mja... als je je video kaart aanschaf laat afhangen op "folding@home" dan kun je nog beter een render machine met die nieuwe AMD's aanschaffen.....
Waarom zet nVidia die DVI sloten nog altijd zo kort tegen elkaar? Bij ATI vind ik dat veel beter geregeld. Ik krijg op zo een kaartje mijn twee degelijke connectoren niet op. Ze gaan er juist op, geven signaal door en alles, maar ik kan één van beide niet vastschroeven. Tenzij er hier een klein beetje meer speling is (twee mm is genoeg) dan bij mn oude 7900.
De prestaties weten we natuurlijk nog niet, maar het design ziet er goed uit.
De kaart is niet zo lang als we de laatste tijd gewend waren van de high-end kaarten. De fan lijkt groter dan de meeste reference kaartjes en dan gaat de warme lucht ook nog rechtstreeks de kast uit.
Als je ziet dat iedere nieuwe Nvidia kaart de laatste tijd veel te duur is vergeleken met de ATI tegenhanger zal deze kaart waarschijnlijk ook wel ~200 euro worden (even ter vergelijking een 5830 is al sneller dan een GTX 465)

Toch jammer, als Nvidia wat meer concurrentie bood konden de prijzen van ATI wat verder omlaag.
Het zou trouwens netjes zijn als deze kaart niet zo heet en lawaaierig wordt als de andere fermi's.
Ik zie niet in waarom ik op dit moment iemand zou adviseren om een nvidia kaart te nemen?
nvidia is op dit moment:

-trager
-duurder
-hoger tdp

+Cuda - wat een gemiddeld gebruiker niet gebruikt :P.

Ik kan verder geen reden bedenken om nvidia te nemen. Fanboys zeggen Drivers, maar dat ligt helemaal aan de persoon die de pc installeert. Ik heb met games nog nooit problemen gehad met drivers, alleen in het begin met Vista.
SLI is nou ook niet iets wat een gemiddeld gebruiker heeft, alleen dat werkt beter als je de drivers vergelijkt tussen ati en nvidia.
CUDA gebruikt de doorsnee gebruiker mss niet, maar DXVA versie 2.0 vaak wel. Dit laat toe om H.264 op je GPU te decoden, maar veel programmas die er van gebruik maken kunnen dit voorlopig enkel met nVidia kaarten.
Cuda wordt op dit moment gebruikt door Adobe Premiere CS5. Hierbij wordt de GPU gebruikt voor het renderen van een real-time preview met oa AVCHD materiaal. Dat betekent dat je met meerdere bronbestanden, met meerdere lagen, enzovoort nog steeds vloeiend kan previewen zonder te renderen. Dit heeft grote voordelen bij videomontage. Je kunt veel sneller werken, je kunt gaan experimenteren (voorheen moest je renderen en die tijd wil je niet investeren) en je kunt grotere projecten aanpakken.

Mijn verwachting is dat dit binnen afzienbare tijd in Premiere Elements terecht gaat komen (immers Premiere Pro is voor de meesten een beetje te duur). Dan heb je als gewone consument die af en toe video wilt monteren zeker wat aan een nVidia kaart.

Even voor de duidelijkheid: geen enkel ander montagepakket heeft hardware matige GPU versnelling (voor Sony Vegas kun je een plugin kopen, maar die kost 100 dollar en werkt alleen met de 32 bits versie!). De combinatie Premiere en nVidia is dus goud waard in dit opzicht!
Er ZIJN nog steeds games die op maar een van de twee werkt... En daarvan zijn er bij ATI kaarten nog net wat meer. Need for speed spellen hebben bijvoorbeeld ook een gigantische hekel aan ATI kaarten, waarbij de ancient videokaart van nvidia meer frames weet te halen dan een (nog redelijk recente) hd47xx.

Daarbij geef ik je wel gelijk dat dat aantal toch kleiner wordt, en als de ATi beter presteert in alle wel werkende spellen...

Ben echter benieuwd hoe deze GTX460 zich in het echt gaat verhouden tegen gelijk-kostende ATi's

[Reactie gewijzigd door Thunderwolf1989 op 24 juni 2010 19:43]

-betere drivers
-veel stabieler
-geen opties die alleen hoog scoren in benchmarks en daardoor sneller lijken
-ze gaan niet spontaan stuk

Echt ik ben compleet Ati af na 4 kapotte 4850X2 en een kapotte 4870X2. NVidia genomen en nooit meer 1 probleem gehad (GTX275, GTX295 en nu GTX480)
Betere drivers- klopt niet. heb nooit problemen gehad met ATI drivers, ze werken altijd perfect bij mij.
Stabieler- klopt niet, ik draai al jaren op ati en heb nooit een niet stabiele kaart gehad. zelf na overclocken niet.
dat ze hoger halen in benchmarks heeft waarschijnlijk te maken dat ze de berekeningen efficiënter kunnen berekenen, dus dit kan wel degelijk voordeel geven zeker voor toekomstige kaarten.
wat dacht je van de 8800. die vielen met bosjes uit de lucht. dus dat klopt ook niet.

Dat je twee keer problemen hebt gehad met ati kan aan jezelf liggen, of een fabrieks foutje. dit soort dingen kunnen altijd gebeuren, het blijft nanotechniek en daarbij zal dus altijd sneller een foutje zitten dan in gewone techniek.
Dit wordt misschien de opvolger van mijn GTX260 als de spec's beetje deftig zijn 8)7
Als je waar voor je geld wilt kan je beter een ATi kaart nemen, want die Nvidia GPU's worden altijd zwaar overprijst. :P
Hier gaan we weer ;) Ja voor games is ATI op dit ogenblik "beter" dan nV, daar ga ik je niet in tegenspreken.

Vergeet niet dat voor een deel van de mensen gaming niet de enige reden is om een leuke gfx card te kopen.
Ik ben er daar zo een van, heel jammer dat nV de laatste tijd zo een rommel op de markt brengt (ik spreek voor mezelf en kijk enkel naar het verbruik). Laten we hopen dat die gf104 wat minder hongerig is en toch nog wat werk kan verzetten.
Hier gaan we weer. altijd wel iemand die met dat aan komt zetten.

We weten allemaal wel dat er ook mensen zijn die een videokaart niet voor gamen kopen.. maar hoeveel mensen zijn dat nou? 1-2%? totaal niet interessant imo

De echte pro's kopen dan wel een Quadro of een Firepro.
ik ben er een van de 1-2% ik heb een xbox 360 ps3 slim en een wii staan om te gamen,
en gebruik me pc dus eigenlijk nooit om te gamen alleen om autodesk Maya en Photoshop te draaien en heeeeeeeeel af en toe een rpg tje .

On topic
ziet er op zich wel mooi uit alleen het verbruik is wat minder.
nu maar Hoopen dat ie een beetje leuke prijs mee gaat krijgen en ook nog wat kan renderen zonder dat ie me kwh meter op hol laat slaan in me meter kast. zou leuk zijn als we een spec list konden zien van twee van deze kaarten in sli tegen over een 5870
dat is speculeren..;)

Ik ben erg benieuwd hoe deze kaart zich gaat verhouden tov een 5770 bijvoorbeeld.
En wat doen twee van deze kaartjes in SLI, de 470 en 480 schalen zeer goed.
En leuker, gaat ATI z'n prijzen naar beneden bijstellen nu de productie dan eindelijk op gang lijkt te komen.
Waar heb je dat in godsnaam voor nodig? Kijk als je het kan betalen prima, maar ik draai toch alle games ook op high met de 260. Zou geen reden kunnen bedenken voor deze kaart? Welke games zie je nou echt verbetering? een verandering van 60fps naar 80fps merkt een menselijk oog niet hoor...
Wat voor games speel jij? :O

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True