Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties

Op een Taiwanese website zijn foto's opgedoken van een standaard-GTX 560 Ti zoals Nvidia die ontwierp. De grootste verandering ten opzichte van de GTX 460 is de koeler, die er capabeler uitziet. Verder lijkt de GTX 560 Ti veel op de GTX 460.

De GTX 560 Ti is langer dan een GTX 460, wat vooral komt door de stroomvoorziening van de gpu, die nu uit vier in plaats van drie fasen bestaat. Verder valt op dat de koeler een flinke upgrade kreeg. Ditmaal zijn er drie 8mm-heatpipes aanwezig, die de warmte afvoeren naar een flink aantal aluminium vinnen. De heatsink staat verder in contact met een metalen plaat die de nodige koeling van ondere andere de geheugenchips en de vrm's moet leveren.

De GTX 560 Ti heeft de GF114-gpu aan boord, een geüpgrade versie van de GF104-gpu die voor de GTX 460 wordt gebruikt. Beide gpu's beschikken over 384-Cuda-cores, maar bij de GTX 460 waren er slechts 336 geactiveerd, terwijl bij de GTX 560 Ti alle 384 Cuda-cores geactiveerd zijn. Ook ligt de kloksnelheid met 822MHz van de GTX 560 Ti een stuk hoger dan bij de GTX 460, die een kloksnelheid heeft van 675MHz.

Al met al moet de GTX 560 een stuk sneller worden, maar dat heeft ook zijn weerslag op het verbruik, dat op 180W zou liggen. Desondanks zijn twee pci-e-connectors met elk zes pinnen nog steeds genoeg om de videokaart van voldoende prik te voorzien. Het aantal video-uitgangen bleef verder ook gelijk, met twee dvi-poorten en een mini-hdmi-poort. Het artwork op de koeler is in dit geval gefotoshopt en zal per fabrikant verschillen.

GTX 560 Ti GTX 560 Ti GTX 560 Ti GTX 560 Ti

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (51)

Het is bizar om te zien hoe het verbruik en de afmeting van de videokaarten de laatste paar jaren is veranderd.

Ten tijde van de GeForce 4 was alles nog enkelslots.
En maakte iedereen er eigenlijk een heissa van dat de GeForce FX een dubbelslots oplossing had.

Tegenwoordig is Dubbelslot zelfs al bij de mid range niet meer weg te denken en zijn er zelfs al low end kaarten met een dubbelslots koeler beschikbaar.

Maar dit geeft wel aan dat het tegenwoordig niet meer is dat producten heel netjes worden uitgewerkt tot het allemaal netjes presteerd onder een gemiddelde hoeveeheid prik. Maar juist dat de kaarten net zolang van extra prik voorzien worden tot ze stabiel lopen op de snelheid waarmee ze de concurrent voor zijn.

[Reactie gewijzigd door popolskuprosze op 21 januari 2011 09:21]

Heb jij je een paar jaar in een grot verstopt?

Geforce 4 zou ik echt niet meer een paar jaar geleden willen noemen, deze zag in 2002 al het levenslicht. Het verschijnsel met gigantische kaarten, koelers en hoog verbruik is is de laatste 3-4 jaar eigenlijk niet zo heel veel erger meer geworden. De echte high-end kaarten zijn elke generatie nog maar een paar procent toegenomen qua verbruik, maar de low/mid-end kaarten lijken de laatste 2-3 jaar weer een stuk zuiniger te worden. Daarnaast is er vooral een hoop getimmerd aan het idle verbruik. Waar dat 4-5 jaar geleden nog op 30-40W lag, komt dat nu vaker in de buurt van 10W.

Overigens was de heisa met de FX meer over de geluidsproductie (die op kon lopen tot 65dB) dan over de grootte van de koeler. Mijn eerste kaart met dubbelslots koeler was trouwens een ATi 9800Pro in 2002.


Overigens ben ik het ook niet met je laatste statement eens. Mijn allereerste 3D kaarten hadden nog niet eens een koeler. Daarnaast kan ik me ook nog herinneren dat er ooit maar een heel klein passief koelblokje van iets van 4x4x1cm op een processor zat (daar krijg je zels een Atom niet mee gekoeld). Wij als consumenten zijn gewoon steeds meer gaan eisen wat betreft prestaties, daar staat gewoon een hoger verbruik tegenover.

Deze prestatie-race is bij videokaarten/GPU's gewoon later op gang gekomen als bij CPU's.

Daarnaast worden sommige low-end en mid-range kaarten gewoon vmet dubbelslots koeler uitgevoerd omdat we ten eerste toch genoeg ruimte hebben in de PC kast (wie gebruikt er tegenwoordig nou nog 7 insteekaarten?), en omdat de kaarten met een dubbelslots koeler een stuk stiller zijn doordat de ventilator veel minder hard hoef te draaien. Als ik mijn huidige HD5770 bekijk die ook een dubbelslots koeler heeft, dan zie je dat de daadwerkelijke koeler helemaal niets voorstelt qua volume, er zit gewoon een groot stuk plastic omheen.

[Reactie gewijzigd door knirfie244 op 21 januari 2011 10:46]

Overigens was de heisa met de FX meer over de geluidsproductie (die op kon lopen tot 65dB) dan over de grootte van de koeler. Mijn eerste kaart met dubbelslots koeler was trouwens een ATi 9800Pro in 2002.
Dat was geenszins de gehele reden.
Indertijd werd gewoon alles aangepakt wat er mogelijk was om de FX te bashen.
De FX was gewoon een flutkaart en er was niets tegenin te brengen.

Dat de FX5800 een kaart was die veel herrie maakte maar dat je er goed op kon gamen was een ander verhaal.

Ze hebben met de FX5800 een paar steekjes laten vallen. Maar de FX5900 heeft dit weer goedgemaakt imho.
Wat mij betreft was dit ook een uitstekende kaart.

Ikzelf heb jaren plezier gehad met de GeForce FX5950 Ultra. Die heeft het prima gedaan totdat ik een 7900 kon kopen 2e hands.

Nu draai ik weer met ATI kaarten omdat de drivers daarvan imho atm beter zijn.
Het is net als met mobieltjes.. vroeger waren ze zo groot als koelkasten... een paar jaar geleden waren ze inimini ( dat was toen vt ), nu worden ze weer iets groter ( iphone, blackberry en die hele reutemeteut. ). Het blijft maar aan de gang met die producten. Dan is klein weer tof, en vervolgens gaat bij de meesten de voorkeur uit naar 'grotere' producten.
Kun je hier echt niet mee vergelijken: mobiele telefoons ZIE je wanneer je ze gebruikt: grafische kaarten zien nauwelijks het daglicht: wat er hip uitziet op dit moment heeft dus quasi nul invloed op het ontwerp van een grafische kaart.

Hoogstens het ontwerp van de koeler wordt een beetje aangepast aan wat de markt er wat leuker vindt uitzien, maar als dat niet gepaard gaat met goede koelprestaties zal je je kaart aan de straatstenen niet kwijtraken.
De grootte valt op zich nog wel mee. Ik meen dat er wel grotere zijn geweest.

Hoop dat ie wel weer flink sneller is. 180W; hij is in ieder geval niet gemaakt voor de prestaties per Watt.
Waarom zeuren zoveel mensen nvidia af om het wattage verbruik, is iedereen op tweakers lid van greenpeace of? Een echte tweaker wil toch gewoon een goede kaart, die leuk klokt? Dan zie ik niet in wat het verbruik er toe doet!

[Reactie gewijzigd door Luckii op 21 januari 2011 09:43]

Meer verbruik betekent meer warmteproductie. Dat correleert weer met een hetere kaart, en gemiddeld genomen een kortere levensduur evenals een lawaaierige koeler en minder overclockruimte vanwege de hoge temperatuur. Vind je het nu wl interessant? :)

Ik vind het toch altijd zo'n onzin om te zeggen dat het niet uitmaakt wat 'ie verbruikt. Het is misschien niet je belangrijkste criterium, dat zullen aanschafprijs en prestaties zijn, maar de zaken die ik hierboven noem zijn alleen voor greenpeaceactivisten voor belang? Kom nou zeg.

[Reactie gewijzigd door bwerg op 21 januari 2011 11:57]

"Meer verbruik betekent meer warmteproductie. Dat correleert weer met een hetere kaart, en gemiddeld genomen een kortere levensduur evenals een lawaaierige koeler en minder overclockruimte vanwege de hoge temperatuur. Vind je het nu wl interessant?"

Beetje kort door de bocht aangezien er een verschil is tussen het officiele tdp en het werkelijke (piek) vermogen. Let even op dat de gtx460 officieel 150/160W volgens nvidia (en tweakers) zou verbruiken, terwijl in de praktijk bijvoorbeeld maximaal 120w wordt afgenomen.

Officieel: reviews: Vier keer de Nvidia GTX 460-videokaart
Gemeten vermogen: http://www.techpowerup.com/reviews/MSI/GTX_460_HAWK/26.html of (incl 6850) http://www.techpowerup.co...IS/Radeon_HD_6850/26.html

Er ontstaat in de berichtgeving een scheve verhouding omdat amd(/ati) eigenlijk nooit de officieele wattages vrij geven. Je moet dus even afwachten tot de eerste reviews binnen rollen voor je iets zinnigs kunt zeggen over het verbruik van een nieuwe kaart.

Daarbij hangt de uiteindelijke temperatuur van de kaart ook sterk samen met de kwaliteit van de koeling. Een kaart met 20watt extra (officieel) vermogen kan zo maar koeler zijn door een nieuwe (reference) koeler... In dit geval was de 460 een relatief koude kaart (tov de 90 graden die tot voorkort 'normaal' was), deze 20watt extra zal daar weinig aan veranderen. Met die levensduur hoef je in dit geval dus niet aan te komen. (Tip; bij evga krijg je 10 jaar garantie en een leen kaart indien defect).

Zolang we het niet over 200+watt hebben is het uberhaupt niet zo interessant. Voedingen van 450/500watt staan al jaren bij de requirements van mid range/high end kaarten, 180w kan in dit geval geen probleem zijn. Lijkt me vooralsnog dus niet iets om ons druk over te maken.

[Reactie gewijzigd door sdk1985 op 21 januari 2011 12:46]

Er ontstaat in de berichtgeving een scheve verhouding omdat amd(/ati) eigenlijk nooit de officieele wattages vrij geven. Je moet dus even afwachten tot de eerste reviews binnen rollen voor je iets zinnigs kunt zeggen over het verbruik van een nieuwe kaart.
Dat doen beide fabrikanten gewoon hoor.
Daarbij hangt de uiteindelijke temperatuur van de kaart ook sterk samen met de kwaliteit van de koeling. Een kaart met 20watt extra (officieel) vermogen kan zo maar koeler zijn door een nieuwe (reference) koeler. ... Met die levensduur hoef je in dit geval dus niet aan te komen.
Ik zeg niet dat dat altijd zo is, ik zeg dat er een correlatie is en dat gaat dus niet specifiek over deze kaart, en een lager verbruik is altijd gewenst wat dat betreft. Heeft een nieuwe kaart een verbeterde koeler? Als die kaart minder had verbruikt, had er fwel bespaard kunnen worden op de koeling, f de temperatuur was lager geweest, f de fanspeeds waren lager geweest. Een lager verbruik is altijd beter. Mijn reactie was dan ook gericht op de stelling van Luckii dat verbruik er niets toe doet en tweakers er niet over moeten zeuren. Dat deze kaart te heet wordt/slechte prestatie per verbruik heeft/te lawaaierig is hoor je mij niet zeggen voordat ik reviews gezien heb.

[Reactie gewijzigd door bwerg op 21 januari 2011 12:56]

"Dat doen beide fabrikanten gewoon hoor."
Als dat zo is dan zou dat fijn zijn want ik kom het nooit tegen, zie bijvoorbeeld:
http://www.amd.com/uk/pro...n-hd-6850-overview.aspx#2

Graag een linkje (!). (Daar ben ik echt heel blij mee :+ ).

Luckii ging wellicht iets te kort door de bocht door zijn stelling naar het algemene door te trekken, maar je bent het neem ik aan wel met me eens dat in dit geval (dus dit artikel) het verbruik totaal niet relevant is om over te discussieren (gezien de verplicht 500w voeding en het feit dat alleen tdp tegenwoordig weinig zegt over de herrie, warmte en het werkelijke idle, avarage en piek verbruik).

[Reactie gewijzigd door sdk1985 op 21 januari 2011 15:54]

"Beetje kort door de bocht aangezien er een verschil is tussen het officiele tdp en het werkelijke (piek) vermogen. Let even op dat de gtx460 officieel 150/160W volgens nvidia (en tweakers) zou verbruiken, terwijl in de praktijk bijvoorbeeld maximaal 120w wordt afgenomen."

Helemaal niet kort door de bocht. Hoger wattage betekent meer warmte. Zo simpel is het. Als de kaart nooit de 150w haalt , terwijl dit nooit wordt gehaald zijn ze gewoon dom. Denk je daarnaast niet dat reviewsites altijd de beste samples krijgen en het verbruik van kaarten voor consumenten dus wel dichter bij de opgegeven specs zal liggen?

Als AMD geen officile cijfers bekend maakt, is het blijkbaar niet verplicht. Is het dan niet gewoon een beetje dom dat nVidia dat wel doet. Zij is daarmee gewoon zelf verantwoordelijk voor de berichtgeving.

Natuurlijk, hoe beter de koeling, hoe beter de warmteafvoer, maar dat verandert niets aan: hoe lager het wattage, hoe lager de benodigde warmteafvoer. Daarbij maakt het wattage wel een groot verschil als de beste nog rendabele warmteafvoermethode al wordt gebruikt. Maw: Een aftermarket koeler kan veel doen als het wattage zo laag is dat de stock-koeler niet aan de hoogste eisen heeft hoeven voldoen, vanwege een lager wattage van de graka.

De opmerking over voedingen vind ik volstrekt irrelevant en onzinnig. Er zijn ook al jaren voedingen van 1 kilowatt op de markt, dus laten we graka's van 600 watt gaan produceren ofzo? 8)7
Nee, een tweaker wil tweaken. Voor jou is het verbruik misschien niet belangrijk, maar voor een heleboel andere tweakers wel. Er zijn zelfs tweakers die hun systeem zo zuinig mogelijk tweaken.
In een tijdperk waar alles draait rond minder verbruik vind ik dergelijke wattages overdreven ja. En het is niet omdat je een bewustzijn heb rond problemen van energie en dergelijke dat je perse lid moet zijn van een of andere organisatie. Niet alles is zwart & wit.

Energie is duur - zeker in Vlaanderen waar we al tot 40% meer betalen dan de onze omliggende landen - dus onbewust ga ik al sneller kijken naar producten die zuiniger zijn. Alle kleine beetjes maken 1 groot geheel.

[Reactie gewijzigd door simplicidad op 21 januari 2011 10:14]

Als je bij een ander merk dezelfde prestaties krijgt voor een lager verbruik (en dus ook lagere temperatuur, minder geluid, lagere gebruikskost) en een lagere prijs, dan is het belangrijk punt om naar te kijken ja.

Moest NVIDIA alleen zijn zou het niet nodig/mogelijk zijn om te vergelijken. Dan hadden we wel nog altijd met rebrands van een 4200ti gezeten.
Monsterkaart imo, volgens mij de eerste GFX met een core van 1GHz uit fabriek.

Source@:
http://nl.hardware.info/e...on-graphics-card-surfaced
Bedoel je de eerste 1GHz-geforce of de eerste 1GHz grafische kaart in het algemeen? Dat laatste was namelijk de HD4890 Black Edition voor zover ik weet.

Maar goed, enkel kloksnelheid zegt niets dus wat koop je er voor... :P

[Reactie gewijzigd door bwerg op 21 januari 2011 12:28]

De koeler ziet er capabeler uit, maar vanwege het hogere stroomverbruik moet hij dat natuurlijk ook wel zijn om dezelfde temperaturen te kunnen bereiken. Als ik het goed heb zal deze qua snelheid vergelijkbaar kunnen zijn met een HD5870 of ben ik dan te optimistisch?
Ik denk het niet, want je vergelijkt nu een mid-end kaart (GF 560Ti) met een high end kaart van een ander merk (HD5870).

Maar om het zeker te weten moeten we natuurlijk wachten op de benchmarks van real-world applicaties.
Van een oudere generatie.
maar nog steeds heel goed, er zijn meerdere conclusies dat de 5870 de beste bang for ya buck heeft op dit moment.. 240 euro voor een kaart die even goed is als de 6950..(stock)
Waarom nog vergelijken met de HD5xxx range?
hij bedoelT dan dat deze kaart tussen de 6870 en de 6950 gaat vallen.. :)

wat die ook waarschijnlijk doet.. (info staat al een dag op hardware.info)

[Reactie gewijzigd door 215005 op 21 januari 2011 09:50]

Het bovenste ram geheugen word precies niet gekoeld. Wat niet echt ideaal is voor OC.
Voor de rest wel mooie stats. En gelukkig ook maar een 2 slot kaart.
ah ze gebruiken nu dus 3x 8mm dikke heatpipes ipv 2x 6mm dikke heatpipes (GTX460).
betekent het nou dan ein-de-lijk dat we kaartjes krijgen met VRM en mem cooling? Ik hoop dat die heisa daarom heen die bij de GTX460 was dan nu eindelijk verleden tijd is.
Ben benieuwd hoe de coolingsolutions gaan zijn van de fabrikanten zelf. Ik hoop dat Gainward nu eens beter zijn best doet voor een goeie koeler. Ik kijk uit naar de Gigabyte SOC en MSI hawk modellen
Vinden jullie ook niet dat het koelblok direct onder de fan verdacht veel lijkt op een Sapphire Vapor-X blokje? Beter goed gejat dan slecht verzonnen zullen we maar zeggen, dit lijkt op een crossover tussen eerstgenoemde koeler en een MSI Cyclone. Hopelijk zegt dat wat over de hoeveelheid geluid die deze kaart gaat produceren bij gebruik.

Waar ik minder gelukkig van word is dat dit ding toch een groot deel van z'n hitte in de kast gaat deponeren. Een sidepanel outtake is dus geen overbodige luxe.

Ik ga niet lopen zeuren over het verbruik als het door de daadwerkelijke prestaties word gerechtvaardigd. Laten we eens daarop wachten voordat we weer beginnen te zeuren over het voorspelde wattage of het aantal 12V aansluitingen dat het kreng nodig schijnt te hebben, voordat we dit als de zoveelste onnodig stroom verkwistende kaart afschrijven. Als je een zuinig systeem wilt, lever je prestaties in, zo simpel is het.
Het opduiken van het PNY exemplaar suggereert dat de prijs van een referentiekaart onder de €300 zal komen te liggen. Daar zal echter nog wat af moeten om meer rond het prijsniveau van zijn directe concurrent te komen: de Radeon HD 6950.
Ik ben zeer benieuwd hoe deze zich gaat verhouden tot de HD6950 1GB qua prijs, verbruik en uiteraard prestaties (Zie hier). De TDP is i.i.g. 20W lager dan de 6950 2GB. De helft minder aan geheugen op de HD6950 moet toch ook behoorlijk schelen qua TDP, zou je zeggen. Kijkend naar de GTX 460 1GB en 768MB versies is er al een TDP verschil van 10W, alhoewel dit ook aan andere dingen kan liggen, zoals de verschillende geheugen-bandbreedtes.

Ikzelf ben namelijk op zoek naar een vervanging van mijn GTX 460 768MB, maar ben gebonden aan een SFF 450W PSU.

Edit: Ik ben niet zeker of ik hier zou moeten spreken over TDP, uiteraard gaat het mij om het daadwerkelijke stroomverbruik van de hele kaart.

Edit toevoeging: Overigens vraag ik me af wat het nut is van een versie met 768MB,
Bij de 460 was dit nog wel te verklaren, maar met dit soort grafische rekenkracht wil je toch minimaal over 1GB beschikken, tenzij het echt een groot verschil gaat uitmaken wat betreft verbruik en/of prijs. Bij ATi is het sinds de HD58** en HD68** ook allemaal min. 1GB.

[Reactie gewijzigd door Maruten op 21 januari 2011 15:12]

"Edit toevoeging: Overigens vraag ik me af wat het nut is van een versie met 768MB,
Bij de 460 was dit nog wel te verklaren, maar met dit soort grafische rekenkracht wil je toch minimaal over 1GB beschikken, tenzij het echt een groot verschil gaat uitmaken wat betreft verbruik en/of prijs. Bij ATi is het sinds de HD58** en HD68** ook allemaal min. 1GB."


Of het geheugen vol zit verschilt per applicatie. Tegenwoordig kun je met het programma gpu-z het geheugenverbruik van je grafische kaart uitlezen.

Voorbeeld: call of duty black ops verbruikt bij mij maximaal 277mb van mijn 896mb.

In dat geval volstaat een 768mb kaart dus prima.

"Ikzelf ben namelijk op zoek naar een vervanging van mijn GTX 460 768MB, maar ben gebonden aan een SFF 450W PSU."
Als het goed is verbruik je maximaal 75watt per 6 pins connector+een aantal watt voor de pci-express lane. Gewoon goed naar de aansluitingen kijken dus.

(Ik vraag me overigens af waarvoor je een nieuwe kaart nodig voor zou hebben, kijk meteen eens naar de gpu usage of je niet cpu gelimiteerd bent).

[Reactie gewijzigd door sdk1985 op 21 januari 2011 15:39]

Gtx 560ti is toch gewoon hoger geklokte gtx 460, of heb ik het fout, ben beniewd naar de prestaties
Ik zou zeggen: lees vooral het artikel nog eens, de hele middelste alinea eigenlijk.
De GTX 560 Ti heeft de GF114-gpu aan boord, een gepgrade versie van de GF104-gpu die voor de GTX 460 wordt gebruikt. Beide gpu's beschikken over 384-Cuda-cores, maar bij de GTX 460 waren er slechts 336 geactiveerd, terwijl bij de GTX 560 Ti alle 384 Cuda-cores geactiveerd zijn. Ook ligt de kloksnelheid met 822MHz van de GTX 560 Ti een stuk hoger dan bij de GTX 460, die een kloksnelheid heeft van 675MHz.
De GF114 is waarschijnlijk gewoon een rebadge van de GF104, aangezien ze al hetzelfde aantal Cuda cores aanwezig hadden.
En de 460 was op standaard clocks ook hevig underclocked, er is geen 460 die niet de 850 mhz haalt.
Ik gok dat de 460 zo laag geclocked was met het oog op z'n opvolger.

[Reactie gewijzigd door unfor op 21 januari 2011 10:43]

Waarschijnlijk ook door de slechtere yields in het begin. Grote kans dat in het begin het niet lukte om alle 384 cuda cores te activeren n dan nog goede yields te halen. Een nieuw productie proces kost tijd om te optimaliseren, waarschijnlijk is het proces weer verder vebetered waardoor er meer gpu's gebakken worden waar wel alle 384 cores geactiveerd kunnen worden.
Ow ik zie het al, het een volledige gf104 chip dus, eigenlijk niet heel veel nieuws, wel stuk sneller neem ik aan.
Ik zou zeggen: ls vooral het artikel nog eens...
Iets van dubbel aantal texture units.

400 serie is meer gpgpu georienteerd, de 500 serie meer op 3d gaming. Tenzij specialisatie niet het doel was in hetwelke geval de flessehals uit de 400 serie verbreed is in de 500 serie..
Dat is toch alleen maar met de 480 GTX zo?

De gf104 hebben een stuk minder waardoor ze zuiniger en koeler zijn.
Volgens mij niet, maar als het zo is zou natuurlijk wel mooi zijn

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True