Zotac introduceert GeForce GTX 660 Thunderbolt-videokaart

Zotac heeft zijn nieuwste GTX 660-videokaart geïntroduceerd. Anders dan de naam doet vermoeden is de videokaart niet voorzien van een Thunderbolt-interface. Wel heeft Zotac een eigen ontwerp voor het pcb en koeler gemaakt.

Zotacs GeForce GTX 660 Thunderbolt Edition is gebaseerd op de GK106-gpu met aan boord 960 cuda-cores die, geheel volgens Nvidia's specificaties, op 980MHz geklokt worden. De Boost-snelheid van de op 28nm gebakken gpu bedraagt 1033MHz, maar kan verder overgeklokt worden. Ook het 2GB gddr5-geheugen heeft een standaardkloksnelheid van effectief 6GHz en een interface die 192bit breed is. Het pcb waarop de compomenten gesoldeerd zijn, is wijkt echter af van Nvidia's referentie-ontwerp, maar de koeling is het meest opvallende aan de kaart.

Anders dan een reguliere radiator met dunne koelribben koos Zotac voor minder, maar veel dikkere koelribben. Waar standaard-radiators gebruikmaken van 0,3mm dik aluminium, zijn de ribben van Zotacs koeler 0,8mm dik. Drie koperen heatpipes die in direct contact met de gpu staan voeren de warmte af. De twee ventilators in hun plastic omlijsting zijn met een druk op een knop van de heatsink af te schuiven, wat het schoonmaken van de radiator moet vergemakkelijken.

Hoewel de naam anders doet vermoeden, is de GeForce GTX 660 Thunderbolt Edition niet voorzien van een Thunderbolt-poort. De videokaart is wel uitgerust met twee standaard dvi-connectors, een displayport en een hdmi-aansluiting. De voeding wordt door een enkele 6pin-pci-express-stekker verzorgd. Naar alle waarschijnlijkheid zal de kaart vooralsnog enkel in China verkrijgbaar zijn.

Door Willem de Moor

Redacteur

31-01-2013 • 10:50

44 Linkedin

Reacties (44)

44
39
21
0
0
0
Wijzig sortering
Zou het nou wezenlijk uitmaken voor de koelprestaties als je dikkere koelribben gebruikt? Ik kan me er weinig bij voorstellen, gezien de snelheid waarmee warmte kan worden afgestaan aan lucht hier puur een kwestie van oppervlakte is, ribben van een halve mm dikker maken geen substantieel groter koeloppervlak.
Het lijkt me op het eerste gezicht daarom een nadeel: zoals je zegt is het oppervlakte de belangrijkste factor. Met dikkere ribben heb je dus minder ribben, dus minder oppervlak. Ook warmtegeleiding gaat voornamelijk over het oppervlak, dus ook daarvoor zijn dikkere ribben niet direct superieur.

Dus als dikkere ribben desondanks toch beter is, zou het wel interessant zijn als Zotac en/of het artikel uitlegde waarom dat tegen de intuïtie in toch goed werkt.. Zonder verdere uitleg ga ik er vooralsnog even vanuit dat het een marketingverhaal is dat niet door de werkelijkheid onderbouwd wordt.
Ooit wel eens van warmteweerstand gehoord? Voor wie echt geïnteresseerd is

de warmte die je af kunt voeren wordt niet alleen bepaald door het oppervlak dat in contact met lucht staat, maar ook door de aanvoer en warmteverdeling over de koelrib. Daarom kunnen dikkere koelribben wel zeker effectiever zijn dan dunnere, mits de aangevoerde warmte volledig afgevoerd kan worden.

[Reactie gewijzigd door VieQuing op 31 januari 2013 13:02]

Jammer, bij het lezen van de titel dacht ik dat de externe videokaart voor de laptop zijn comeback had gemaakt.
Dat is wat ik ook dacht en hoopte. Helaas blijkt de werkelijkheid anders...
Laatste nieuws hierover;

http://blog.laptopmag.com...trabook-into-a-gaming-rig

Helaasch na die datum niks meer van gehoord, ook de GUS II lijkt van de aardbodem verdwenen.

Lijkt me echt heerlijk om een Macbook Air, of andere ultrabook, op zon kaart aan te sluiten en thuis te kunnen gamen. Beter nog: bouw zon oplossing in, in het beeldscherm en thuis docken en klaar.
Lijkt me technisch gezien niet echt haalbaar. Aangezien Thunderbolt een maximale doorvoer snelheid heeft van 1-1,25 GB/s, terwijl een PCI-Express 2.0 slot een doorvoer snelheid heeft van 8GB/s en 3.0 zelfs 15,75GB/s.

Dit zal de kaart waarschijnlijk erg gaan limiteren, waardoor je alsnog opgezadeld zit met een "discrete kaart" die je dan net zo goed kan integreren.
Anoniem: 303530
@Brazos31 januari 2013 12:35
uhuu..

Thunderbolt is gewoon PCI-E 2.0 x4. Ja, dat is minder dan de x8 of x16 interfaces die op veel videokaarten zitten, maar in de praktijk maakt dat de ballen verschil.

http://www.techpowerup.co...CI-Express_Scaling/3.html
Alan wake @ 2560*1440 - 52FPS @ x4 vs 54FPS @ x16

http://www.techpowerup.co...CI-Express_Scaling/4.html
AvP @ 1920*1080 - 58FPS @ 4x vs 59FPS @ 16x

http://www.techpowerup.co...CI-Express_Scaling/5.html
Batman @ 2560*1440 - 49FPS @ 4x vs 49FPS 2 16x.

Een schokkend verschil, inderdaad.

Ik heb alleen de benchmarks van AMD gepakt, met nvidia is het verschil ietsje groter. Ik pakte telkens de eerste resolutie die onder de 60FPS ging.
Euh... nee hoor.

PCI-2.0 is 512MB/s per lane. Thunderbolt is dus PCI-E 2x.

En de verschillen zijn er dus wel degelijk al tussen 4x en 16x, laat staan 2x.

Laten we overigens eerlijk zijn, de titels die daar getest zijn, zijn ook niet representatief.

En jij vindt 40 Fps geen verschil?

Leuk dat je inbreng op dit forum wordt weggemod, terwijl je ook nog eens gelijk hebt. Ohnee wacht, meer dan 40fps is "uhum" geen verschil.

[Reactie gewijzigd door Brazos op 31 januari 2013 14:43]

Anoniem: 303530
@Brazos31 januari 2013 12:54
http://en.wikipedia.org/wiki/Thunderbolt_%28interface%29
A single legacy MDP monitor or other device of any kind may be connected directly or at the very end of the chain. Thunderbolt is interoperable with DP 1.1a compatible devices. When connected to a DP compatible device the Thunderbolt port can provide a native DP signal with 4 DP lanes of output data at no more than 5.4 Gbit/s per Thunderbolt lane. When connected to a Thunderbolt device the per-lane data rate becomes 10 Gbit/s and the 4 Thunderbolt lanes are configured as 2 duplex lanes, each 10 Gbit/s comprising one lane of input and one lane of output.[3]
Het is 10Gb heen en 10Gb terug.

'gewoon' PCI-e 2x heeft een bandwidth van 10Gb/s, maar dat is gedeeld tussen up en down. Het performt dus als PCI-e 2x als je data slechts 1 kant op pompt, en als PCI-e 4x als je data beide kanten op pompt.

En in plaats van te roepen dat er wel degelijk verschillen zijn tussen 4x en 16x (wat ik net onderuit heb gehaald..) kan je daar ook wel bronnen voor aandragen. In geen van de door techpowerup geteste games is het verschil tussen x4 en x16 noemenswaardig. Bij ongeveer de helft van de games kan PCI-e 2x (= PCI-e 1.1 x4) ook prima meekomen.

[Reactie gewijzigd door Anoniem: 303530 op 31 januari 2013 12:55]

Leuk dat jij alleen de score noemt die overeenkomen met jouw betoog, maar die echter te wijten zijn aan een andere beperking.

Verder wordt er in de bron niks gezegd over het testsysteem. En wordt er gebruik gemaakt van oude titels die zijn ontworpen voor een radeon x-800 uit het jaar 0. Als je niet met betere gegevens komt, heeft het weinig nut om er verder nog op in te gaan.

Dat je hier overheen leest is niet mijn probleem, maar ik gaf het in mijn vorige reactie ook al aan.

Daarnaast is de "heen en terug snelheid" er al in verwerkt. Dit behoort namelijk tot de PCI 2.0 standaard. Waardoor de Thunderbolt bus overeenkomt met een pci-e 1.1 4x poort, of een pci-e 2.0 2x poort.
Als je gewoon op dat linkje had geklickt had je gezien dat het niet meer een theoretisch iets is, maar dat het gewoon werkt. Echter zou het niet gaan om high end kaarten. Maar meer om de midrange kaarten.

Wat de lol er van is is dat de midrange kaarten voor de desktop nog steeds een stuk beter zijn dan de high en kaarten voor de laptop. Maar door de externe voeding + ruimte voor koeling is het nu dus opeens mogelijk om deze kaarten te gebruiken icm met een ultrabook (ik zie daar niet snel een expansieslot in komen voor dit soort zaken.

Tevens zegt niemand dat dit perfect gaat werken (anders had het al op de markt geweest waarschijnlijk) maar is dit zeker een optie om in de gaten te houden in de toekomst.

Vandaar dat ik dit hier poste ivm de verwarrende "Thunderbolt" toevoeging.
Anoniem: 303530
@Brazos31 januari 2013 13:25
De specificaties op pagina 2: http://www.techpowerup.co...CI-Express_Scaling/2.html

En ik pakte de eerste google hit als bron. Als je de bron slecht vind heb je alle recht om een betere bron op te zoeken. Met geroep dat de bron brak is alleen kom je er niet.
Als je ff verder kijkt dan je neus lang is, zie je ook gewoon deze titel:
http://www.techpowerup.co...CI-Express_Scaling/6.html
BF3. Verschil? Verwaarloosbaar!

o o, en deze dan, een van de zwaarste gpu spellen:
http://www.techpowerup.co...I-Express_Scaling/15.html
Metro 2033 Verschil? Verwaarloosbaar!

Het testsysteem en de games zijn aardig up to date, als je, idd, ff verder kijkt dan je neus lang is ;)

[Reactie gewijzigd door Madrox op 31 januari 2013 15:29]

Anoniem: 303530
@Brazos31 januari 2013 21:34
Hou eens op met '12FPS verschil' en '80FPS verschil'. Een absoluut verschil in framerate zegt helemaal niets. Misschien is het wel 20fps vs 32fps, of 800fps vs 812 fps.

Als je het over een benchmark hebt, vermeld dan duidelijk over welke game en welke settings je het hebt., en wat beide metingen precies halen. Dan kunnen we ergens over discussiëren.

En trouwens, je voornaamste discussiepunt was dat de benchmarks oud waren, maar je pakt wel een bron uit 2009 erbij. Waarom pak je niet gewoon een van de 20 geteste games met GPU's die gebruik maken van de nieuwste architecturen van intel, AMD & nvidia? Dat lijkt mij veel representatiever dan een oude VLIV5 architectuur met games die nog 2-4 jaar ouder zijn dan de bron die ik aandroeg.

[Reactie gewijzigd door Anoniem: 303530 op 31 januari 2013 21:59]

12 fps bij een oud spel op 1024 x768 en geen Af en AA....omg, neem je zulke cijfers serieus? Kijk naar de hogere settings, wat is het dan? Juis ja, een schamele 4 fps.

Call of duty, de verschillen in dat , wederom oude spel zijn groot. Echter, kijk eens naar die FPS ? Amper iets om je druk over te maken, 180FPS is al retesnel. Wederom slinkt de winst, naarmate je AA en AF hoger zet, je weet wel; de settings die we graag gebruiken.

Call of Juarez; idem dito: Alle PCi x4 en hoger = + 100FPS.
Naar de 1024x768 nul AA en AF resolutie kijk ik niet eens; gamers onwaardig!

Crysis 2; Je vergelijkt x1 vs x16 , beste man. Dan is het idd 25fps op die belachelijke settings. De x4 scoort veel beter. Het grootste verschil is pakweg 8 fps, wederom op die ridicule resolutie met NUL aa en af.

PCIe 1x 2.0 is idd beperkend. PCIe x1 3.0 is sneller, 2x sneller; vergelijkbaar met PCIe x2 2.0.

[Reactie gewijzigd door Madrox op 31 januari 2013 18:54]

Anoniem: 303530
@Brazos31 januari 2013 21:58
Nee. We kijken naar de framerate, en concluderen dat een verschil als 60 vs 100 fps geen verschil maakt. Beiden zijn voldoende om de game te draaien.

Een verschil als 40fps vs 60fps is daartegen wel boeiend, ondanks dat het relatief veel minder is. Helaas vertel jij alleen het absolute verschil. Je kan net zo goed met MTBF's gooien om te bewijzen dat de gemiddelde uptime te laag is...

En je verkondigt helemaal geen conclusie. Je verkondigt argumenten en bronnen. Als je denkt dat je een conclusie kunt verkondigen, dan ben je op t.net aan het verkeerde adres.
Maar met een externe kaart kun je wel eenvoudig upgraden. Vaak zit een grafische chip in een laptop op het moederbord vastgesoldeerd, dus upgraden na een jaar of 2 is er niet bij.

Ik vind de naam ook verwarrend, ik had het als ik bij Zotac werkte in ieder geval toch anders gedaan.
Klopt helemaal. Overigens zijn(of waren) er wel altijd een aantal modellen die een MXM(mobile xpress module) module hadden, waarbij de kaart wel te vervangen was, mits het bios hem ondersteunde.

Al zal er geen enkele ultrabook zijn waar je een kaart kan vervangen, dus voor Ultrabooks is het inderdaad wel handig

O.a. Fujitsu rustte veel modellen hiermee uit, ik heb er zelf ook één gehad en ze zijn makkelijk te vervangen, enige nadeel is dat de kaarten moeilijk verkrijgbaar zijn en je ze uit kapotte laptops moet schroeven, of Ebay.

Wat ik niet snap is dat ze nu dus een een nieuwe aansluiting maken voor externe videokaarten, maar waarom rusten ze de laptops niet uit met een MXM slot in de vorm van een "PCMCIA achtige" constructie, waarbij je kaarten zo aan de zijkant erin kunt zetten.

Lijkt me een goedkopere, en handigere constructie. De videokaart van een laptop is amper groter dan een pinpas, dus dat lijkt me design technisch ook geen obstakel. Eventueel een externe voeding om de "powerbrick" niet weer groter te maken, en je hebt een veel handigere standaard.

[Reactie gewijzigd door Brazos op 31 januari 2013 12:13]

Dat is precies hetzelfde wat ik dacht.
Dit zou juist de doorbraak voor de Mac gaming markt geweest kunnen zijn, niet dus. :/
Wel een goede functie dat je de fans kan verwijderen! Dit vergemakkelijkt het schoonmaken aanzienlijk. Als hij ook nog goed koelt én stil is zou een dergelijke koeler voor mij wel meerwaarde zijn om bijvoorbeeld voor deze uitvoering te kiezen.
Over de naamgeving van deze GPU is niet echt goed nagedacht geloof ik... Als je Thunderbolt in de naam van je GPU zet, en er bestaat een technologie die te maken heeft met beeldweergave die toevallig ook Thunderbolt heet, maar deze technologie vervolgens niet in de GPU verwerkt vind ik dat toch best wel misleidend. Zeg nou zelf, was je eerste gedachte bij het zien van de titel niet iets in de richting van: GTX 660 Thunderbolt = GTX 660 + Intel's Thunderbolt?
Erg verwarrend, die naam is erg slecht gekozen. Erg ongelukkige zaak!
Zouden ze zich dat hebben gerealiseerd, of zou er nu iemand naar ze toe gaan en zeggen: "Uh, waarom heeft ie geen thunderbolt?".... Oeps..
Beste,

Denk je bij de pricewatch: MSI N680GTX Lightning ook echt bliksem uit je kast komt?

Mvg,

Bedankt voor het naar beneden modden. Maar jullie lezen toch ook eerst de beschrijving van het toestel voordat je conclusies trekt of zijn alle tweakers soft geworden enk kijken ze enkel naar de naam van een toestel?

[Reactie gewijzigd door D.Ramakers op 31 januari 2013 11:02]

Ik dacht anders eigenlijk in eerste instantie wel dat het om een externe GPU met Thunderbolt connector ging.
Wat een onzin opmerking, Thunderbolt is een interface voor beeldscherm + randapparatuur, als er groot Thunderbolt Edition op de doos van een videokaart staat dan is het hartstikke logisch om aan te nemen dat deze videokaart een thunderbolt uitgang heeft logisch.

Er van uitgaan dat er bliksem uit je videokaart komt omdat er Lightning op de doos staat is totaal onlogisch.


Van mij mag deze videokaart in Europa verboden worden wegens klantmisleiding.

[Reactie gewijzigd door knirfie244 op 31 januari 2013 11:07]

Alleen is Thunderbolt wel een verbindingsstandaard die ook ondersteuning heeft voor video apparatuur. De verwachting dat deze kaart dus ondersteuning bied voor de nieuwe standaard met zulke naamgeving is dan ook niet vreemd.
Denk je bij de pricewatch: MSI N680GTX Lightning ook echt bliksem uit je kast komt?
Nee, dat denk ik niet, daarom is die naam ook niet verwarrend. Ik denk ook niet dat er een donderslag oid uit je kast komt, maar ik zou wel een thunderbolt poort op de kaart verwachten.
Sommige woorden in product namen zijn een associatie, sommige een feature. Meestal kun je zelf inzien welke wat is. Maar hier zet de fabrikant je op een verkeerde voet.
Aangezien Thunderbolt een interface is zou je denken dat de videokaart daarover beschikt.
Bij blabla X lightning zouden de meeste personen echter dan weer niet denken dat er bliksem uit hun PC kast zou komen. Ze zouden het associeren met bliksem, een fenomeen dat vaak als iets krachtigs en moois tegelijk wordt gezien. Een fenomeen waar een videokaartfabrikant graag zijn product mee associeert.
Beste,

Denk je bij de pricewatch: MSI N680GTX Lightning ook echt bliksem uit je kast komt?

Mvg,
Dat is toch een wat ander verhaal natuurlijk. Lightning is gewoon een marketingnaam. Thunderbolt in dit geval ook, maar Thunderbolt is ook de naam van een interface die je met een videokaart in verband zou kunnen brengen. Nogal verwarrend dus.
Als Lightning een interfacenaam was geweest dan denk ik ook dat veel mensen raar op zouden kijken als zo'n MSI Lightning niet beschikt over die interface, maar wel die naam heeft.
In essentie bliksem=electriciteit ;) . Heck, je kan zelfs (mini-)bliksems maken door electriciteit :+ . Dus waarom niet?
Ik zie het hele probleem rond het woord Thunderbolt niet zo:
The word “thunder” and variations thereof have a certain allure that IT companies cannot help but succumb to every once in a while. Zotac is the one using the term now, in its newest graphics card.
Deze kaart komt trouwens voorlopig alleen in China op de markt, dus de verwarring zal wel meevallen.
want in china hebben ze geen thunderbolt aansluitingen?
Jammer, ook ik hoopte op een via Thunderbolt aansluitbare externe GPU.

De dingen die dat nu doen (Bijvoorbeeld de mLogic’s mLink Thunderbolt PCI Card expansion chassis van $400 exclusief videokaart! of ExpressBox 3T van $979) zijn zo duur dat je beter gewoon een complete computer kan kopen. Dat doet me afvragen, een thunderbolt kabel is zon €40, voor fabrikanten reken ik maar €20. kost de rest van de electronica dan werkelijk zoveel? Of zitten hier dikke licentiekosten aan verbonden.

Overigens ben ik zelf een Macbook Pro gebruiker. Thunderbolt wordt helemaal niets als het zo doorgaat.
Anoniem: 303530
@klonic31 januari 2013 13:14
Thunderbotl kent geen licentiekosten. displayport ook niet trouwens, maar ondanks het feit dat je voor HDMI wel licentiekosten moet betalen en DP zwaar superieur aan HDMI is zie je vrijwel geen laptops met een DP aansluiting.
Thunderbotl kent geen licentiekosten. displayport ook niet trouwens, maar ondanks het feit dat je voor HDMI wel licentiekosten moet betalen en DP zwaar superieur aan HDMI is zie je vrijwel geen laptops met een DP aansluiting.
Logisch dat je meer HDMI ziet, dat is stukken meer ingeburgerd en zal ook wel wat meer vraag naar zijn.

Als er ipv HDMI een DPconnector op m'n notebook had gezeten dan had ik 'm niet gekocht.
Want ik wil de mogelijkheid hebben om er een monitor aan te hangen.
Er zijn ook Displayport-HDMI kabels voor 15 euro, dus zou het bij de aankoop van een laptop voor mij geen doorslaggevende factor zijn.
Patentbreuk niet, maar oneigenlijk gebruik van een handelsmerk misschien wel. En terecht: Een Thunderboltpoort is een feature die niet (helemaal) onlogisch zou zijn op een videokaart. Of het technisch mogelijk zou zijn weet ik overigens niet, maar dat is in deze niet relevant.

Het eerder aangehaalde 'Lightning' is natuurlijk ook een handelsmerk van Apple (overigens, is Thunderbolt dat uberhaupt wel...?), maar daarmee wordt een heel anderssoortige aansluiting aangeduid.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee