Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Submitter: Bleet

EVGA heeft zijn GTX 275 CO-OP-videokaart officieel geďntroduceerd. De kaart heeft een tweede gpu aan boord voor physx-berekeningen. De g200b-gpu rendert de grafische beelden, terwijl de G92b-gpu alleen physx-berekeningen uitvoert.

De eerste details over de GTX 275 CO-OP lekten eerder al uit en op Halloween werd de videokaart officieel door EVGA aan het publiek voorgesteld. De videokaart leunt op het ontwerp van Nvidia's GTX 295-videokaart, maar één van de g200b-gpu's werd vervangen voor een g92b-chip. Beide gpu's staan niet met elkaar in verbinding en werken dus volledig zelfstandig. De g200b-gpu heeft 240 shaderprocessors en een 448bit-geheugenbus, die in contact staat met 896MB gddr3-geheugen. De g92b heeft 128 shaderprocessors en een 256bit-geheugenbus die 512MB gddr3-geheugen aanspreekt.

EVGA ontwierp de videokaart omdat er met een tweede gpu voor enkel physx-berekeningen een redelijke snelheidswinst valt te behalen in een select aantal spellen met physx-ondersteuning. Ondanks dat er twee gpu's aanwezig zijn, heeft de kaart maar twee dvi-uitgangen. De videokaart moet door middel van een achtpins en een zespins pci-e-connector van prik worden voorzien. De GTX 275 CO-OP is per direct beschikbaar, voor een adviesprijs van 350 dollar. Of de extra functionaliteit de hoge prijs rechtvaardigt moeten benchmarks uitwijzen en of de videokaart lange tijd te koop blijft is de vraag, aangezien Nvidia de GTX 275-gpu de end of life-status heeft gegeven.

EVGA GTX 275 CO-OP

Moderatie-faq Wijzig weergave

Reacties (34)

Zou dan meteen richting HD5870 gaan, heb je gewoon één GPU die tevens ook altijd te gebruiken is tov die GTS250 chipset die alleen in PhysX werkt, + je krijgt dx11 eyefinity etc :)

Zie niet echt in welk gat EVGA hierin probeert te vullen?

[Reactie gewijzigd door Scrtz op 2 november 2009 11:18]

Dit is niet iets wat nvidia heeft bedacht, maar evga. evga zal waarschijnlijk wel iets zien hier in, ik kan mij hier ook wel wat bij voorstellen, stel je hebt een tri sli opstelling, en je zou geen apparte physx kaart willen, maar wel 100% rekenkracht voor je games willen, dan zou dit misschien wel beter zijn.

[Reactie gewijzigd door Goldenflame op 2 november 2009 11:22]

nvidia probeert niks te vullen, dit lijkt me meer een idee van EVGA
heb het ge-edit, bedoelde idd EVGA
Sorry, hier moet ik gewoon een bijdehande opmerking bij maken:
Ze proberen wel iets te vullen: Hun zakken, aan de prijs te zien ^^
Het is ook een beetje zot, als je de prijs stelling in acht neemt.

XFX HD5850 = $289.99
XFX 9800 GT = $95.99

Totaal = $385.98

De HD5850 is in bijna alle testen sneller dan een GTX275 (ook één van de belangrijkste redenen dat ie EOL gaat, omdat hij veel duurder is voor nVidia om te produceren, dus ze kunnen geen prijs concurrentie aan met AMD). Er zijn weinig directe benchmarks te vinden, maar het verschil in PhysX snelheid tussen een 9800GT en GSO250 kan volgens mij niet erg veel wezen.

In talloze games, zoals Crysis: Warhead, Far Cry 2, Battleforge, World of Warcraft, H.A.W.X., Dawn of War II, Resident Evil 5, Batman: Arkham Asylum, Left 4 Dead, is de voorsprong van de HD5850 meer dan genoeg om de meerpijs van $36, van de bovenstaande combinate, te overbruggen.

Tevens krijg je er dan voornamelijk DX11 en EyeFinity functionaliteit bij, zodat je toch beter voorbereid bent voor de toekomst, al is de impact van DX11 op dit moment nog erg klein.

Het enigste voordeel is dus voor de groep gebruikers die geen extra PCI-Express x4 (of hoger) slot heeft op zijn µATX moederbord en veel waarde hecht aan PhysX.
Ik zie de vergelijking met HD5870 niet.
Als je DX11 en Eyefinity belangrijk vind en nV GPGPU PhysX games niet.
Tja dan staat 5870 bovenaan de lijst.

Ben je meer into gpgpu benuttende PhysX, maar heb je de ruimte niet of gebrek aan sloten. Dan is dit dus een alternatief. Dan hoef je dus niet op zoek naar een andere mobo met betere PCIe sloten layout.
Ik snap nog altijd niet op welke manier dit voordelen bied tegenover een normale GTX295. Ik ga er ook vanuit dat een normale GTX295 nog steeds sneller is. Verder lijkt de prijs wel gelijk te zijn.
GeForce GTX 295 heeft ook twee gpu's.
Een GTX295 zijn twee GTX275 chips, dus die is inderdaad beter.
Hadden ze die 2 GPU's niet beter om kunnen draaien? De koeler zit in het midden. Dan wordt de warmte van de GTX275 toch de kast in geblazen? Of wordt de lucht vanuit de kast aangezogen en er dan allemaal links uitgeblazen?

350 dollar is trouwens echt veel te veel. Daarbij heb je ook nog een flink Idle verbruik en in slechts een paar spellen krijgt die GTS250 ook daadwerkelijk iets te doen.

Edit: Even opgezocht en een GTX275 is voor rond de 180 euro al in huis te halen. Dan is die prijs van 350 dollar echt absurd hoog. Innovatie is altijd toe te juigen, maar dit voegt niets toe. DOA

Koop dan beter voor 380 euro een GTX295: VEEL meer rekenkracht EN Physx.

[Reactie gewijzigd door pizzaislekker op 2 november 2009 11:18]

Hadden ze die 2 GPU's niet beter om kunnen draaien? De koeler zit in het midden. Dan wordt de warmte van de GTX275 toch de kast in geblazen? Of wordt de lucht vanuit de kast aangezogen en er dan allemaal links uitgeblazen?
Klopt, op deze afbeelding is te zien dat hij de koeling in het midden aanzuigt en dan helemaal links (buiten de kast) eruit blaast.
http://www.techpowerup.com/img/09-11-02/1a.jpg
Hoe word de GTX 275 dan gekoeld volgens jou ? volgens mij gaat de luchtstroom dan 2 kanten op, 1 naar buiten langs de G92 en een langs de GTX 275.

correct me if i'm wrong..
Waarschijnlijk met heatpipes .............. die voeren de warmte van de GPU af, naar een stel koelribben die gewoon in de luchtstroom naar buiten de warmte wegwerken.
Ik verwacht het ook op deze manier. Aangezien het verder geen andere kant opkan, er is maar 1 uitgang en dat is buiten de kast (bij de aansluitingen dus).
De koeling zuigt inderdaad lucht aan in het midden, maar blaast die dan wel zowel links (uit de kast) als rechts (de kast in). De gebruikte heatsink is waarschijnlijk qua design sterk gelijkend op deze: http://i43.tinypic.com/219atcl.jpg

Je blaast dus inderdaad de hitte van de 275 recht de kast in, naar koeling toe niet zo een goede keuze lijkt mij.

Verder lijkt deze kaart mij veel te duur voor de "added value", maar dat is uiteraard persoonlijk.

[Reactie gewijzigd door SteroiD op 2 november 2009 14:36]

Vraag mij af of het dan niet beter/goedkoper is om gewoon 2 kaarten naast elkaar te zetten en 1 dedicated physx te laten berekenen, of kost deze kaart dan ook minder stroom dan 2 losse? Dus gewoon 2de hands ofzo een 2de kaartje op de kop tikken, of is de interface tussen beide ook een groot voordeel?

Hij lijkt trouwens wel lang de kaart, maar misschien komt dat omdat er geen heatsinks op het plaatje zitten.

[Reactie gewijzigd door Qwanta op 2 november 2009 11:16]

Hij lijkt trouwens wel lang de kaart, maar misschien komt dat omdat er geen heatsinks op het plaatje zitten.
http://www.techpowerup.com/img/09-11-02/1a.jpg
Kaart lijkt van een normale lengte met alles erop en eraan, maar wel een stuk groter dan mijn huidige kaart. Ach het verschil moet er zijn ;)

Het is wel grappig om die ontwikkelingen steeds te zien, eerst losse physx kaarten, dan videokaarten als physx en nu een combikaart. Uiteindelijk is het weer 1 kaart met 1 gpu en bedenken ze weer wat nieuws :)

[Reactie gewijzigd door Qwanta op 2 november 2009 12:14]

Copy > open nieuw venster/tabblad > Paste > Enter.... Dat zijn toch wel de basisprinciepes voor een beetje tweaker lijkt me...
En verbetering van performance in games zonder "Meant to be played" logootje van nVidia? World of Warcraft bijvoorbeeld?
En verbetering van performance in games zonder "Meant to be played" logootje van nVidia? World of Warcraft bijvoorbeeld?
wow doet weinig met physics. dat zou geen nut hebben.
en er zijn maar een handje vol games dat wel gebruikt maakt van de GPU physics van nvidia.

eigenlijk word dit pas een nuttig product als er een openCL of directX-compute physics engine komt die op alle (DX10 =<) kaarten werkt. want pas dan zullen game developers er echt gebruik van gaan maken.

en ik heb eigenlijk ook het vermoeden dat de kaart daarvoor bedoeld is. maar dan snap ik de keuze voor een nvidia opstelling weer minder goed.

[Reactie gewijzigd door Countess op 2 november 2009 12:35]

Als ik kijk naar de installatie van mijn Catalyst Control Center, sponsort Blizzard NVidia niet maar ATi met de 10 dagen WoW trail die ik bij mijn CCC krijg. Dus zullen ze ook eerder de Havoc engine ondersteunen in plek van Physics.
Is weer eens wat anders, maar persoonlijk denk ik dat je inderdaad beter 1 goedkoop los kaartje + een 275GTX erin kan zetten. Even wachten wat de benchmarks zeggen :)

Wel een leuk initiatief van EVGA, om toch nvidia nog een steuntje in de rug te geven. Ze zouden er bedrijfsmatig gezien mi. misschien beter aan doen ook wat ATI kaartje op de markt te zetten; die doen het op het moment een stuk beter. Al je geld op 1 paard zetten kan je de kop kosten!
2 halen 1 betalen ?

Bijzondere kaart maar ik vraag me toch sterk af of die 2e GPU daadwerkelijk nuttig gaat zijn.
Jammer dat ze niet een slim trucje hebben uitgevoert voor energiebesparing, dat de G92b alleen draait idle en als er power nodig is dat de GTX275 begint te stoken.
Ik vraag me inderdaad af hoeveel van deze kaartjes verkocht gaan worden. Lijkt me eerder een collector's item. Zelf zou ik nog een paar tientjes bij leggen en een 5870 halen :9 Dan heb je altijd meer grafische power met betere functionaliteit!
Waarom een GTS250? En chip met een kwart van de grootte van een GTS250 (of veel lagere kloksnelheden) kan toch al gemakkelijk de physX-berekeningen aan (in games dan, daar is deze kaart immers voor bedoeld)? Zo staat de GTS250 zelfs in physX-applicaties uit zijn neus te vreten wat weer stroom kost. Om over applicaties zonder physX maar te zwijgen...

[Reactie gewijzigd door bwerg op 2 november 2009 11:49]

Elke GPGPU PhysX games bepaald wat voor dedicated load maximaal benut kan worden. Er is geen garantie dat elke dev 'n 8600GTS als dedicated max kiest.
D'r zijn geen game design afspraken of standaarden om een specifieke max load te kiezen.
Bij Physics reviews van die enkele games tot nu to voldoet een specifieke kaart. Dat hoefd dus niet zo te zijn voor de next wave aan GPGPU PhysX games.
Al zal dat niet zo'n vaart lopen.
De mogelijk heden aan extra dedicated PhysX GPU kaartje zijn zo groot. Elke nV DX10 en hoger kaart. Dat ze richten op bepaalde mainstream.

Heb nu een GTX285 + 8600GT combi
Dat zou dus 'n GTX380 + GTX285 kunnen worden.

Die 8600GT bij anderen kan vanalles zijn uit de 8 en 9 serie aan vorige Gkaart.
Klinkt leuk nu alleen nog zo'n Hydra chip er bij en je kunt met twee kaarten 3-way SLI met dedicated physics berijken. Waar je het voor nodig hebt... maar goed dat is een andere discussie.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True