Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

Nvidia heeft een nieuwe versie van de GTX295-videokaart ontworpen. De huidige versie van zijn topmodel bestaat in feite uit twee aan elkaar geplakte videokaarten, die door middel van sli samenwerken. De nieuwe GTX295 zou maar één pcb hebben.

Om AMD's HD 4870X2 te beconcurreren, bracht Nvidia de GTX295 uit. De HD 4870X2 bevat weliswaar twee RV770-gpu's, maar die zijn op een enkele printplaat gemonteerd en communiceren met een interne CrossFire-brug met elkaar. De GTX295 is echter een videokaart met twee pcb's, met elk een gpu, die via een fysieke sli-brug met elkaar in contact staan. Volgens Expreview heeft Nvidia nu een nieuwe pcb voor de GTX295 ontworpen dat beide gpu's kan huisvesten.

Door beide gpu's op één pcb te plaatsen, zou het goedkoper moeten worden om de GTX295 te produceren. De kloksnelheden zouden ongewijzigd blijven en er zijn nog steeds een zespins- en een achtpins-pci-e-stekker nodig om de kaart van prik te voorzien. Het energieverbruik van het single board-model zou wel iets lager uit kunnen vallen. De GTX295 met enkele pcb zou in mei door Nvidia geïntroduceerd worden. Of Nvidia de prijs ook zal verlagen, is nog niet duidelijk.

GTX295-mockup

Moderatie-faq Wijzig weergave

Reacties (49)

Wat ik niet snap is dat Nvidia nog niet aan de GDDR5 gaat en nog steeds GDDR3 gebruikt. Ik zit eigenlijk te wachten op deze verbetering voordat ik mij een nieuwe kaart koop. ( kan geen Ati vanwege een SLI only mainboard )
ATI heeft ervoor gekozen om GDDR5 te nemen bij een 256-bits en Nvidia heeft ervoor gekozen om GDDR3 te nemen met een 512-bits/448-bits bus. Al met al komen ze op vergelijkbare bandbreedtes en DAT is waar het om draait. hoe ze dat bereiken maakt voor jou verder niet zoveel uit.

Bandbreedte HD4870 (3,6GHz GDDR5 256-bits) : 115,2GB/s
Bandbreedte GTX260 (2,0GHz GDDR3 448-bits) :111.9GB/s

[Reactie gewijzigd door pizzaislekker op 26 maart 2009 14:07]

naar mijn weten heeft NVidia minder baat bij sneller geheugen dan ATI kaarten, vandaar dat NVidia hier niet zo heel veel geld in wil stoppen.

Laat me het weten als ik het mis heb :)
NVidia gebruikt een dure 512-bit geheugeninterface gecombineerd met snel GDDR3 geheugen, waarmee ze grofweg dezelfde bandbreedte kunnen realiseren als AMD met een goedkopere 256-bit geheugeninterface en GDDR5 geheugen.

NVidia gebruikt geen GDDR5, omdat het nog geen jaar beschikbaar is, vooral beschikbaar is gekomen omdat ATI/AMD heel erg veel geinvesteerd heeft om het beschikbaar te krijgen voor hun HD4870 en omdat je niet gewoon simpel even GDDR5 aan een bestaande geheugencontroller plakt, als deze niet is ontworpen met ondersteuning voor GDDR5 in gedachte.

Met andere woorden, NVidia zal eerst een geheugencontroller moeten bouwen die GDDR5 correct kan aanspreken, waarbij ze vervolgens af kunnen stappen van de dure 512-bit interface, zonder aan bandbreedte in te hoeven boeten. Dit zullen ze zeker gaan doen, omdat ze anders vast blijven zitten aan hele grote GPU-cores die duur zijn om te maken en daardoor dus ook duur om te verkopen.

CJ heeft hier wel eens wat meer over uit de doeken gedaan in het ATI discussie draadje op GoT (de minimale omvang van een core ten aanzien van de gebruikte geheugen-bus)
waarom trouwens niet EN 512 bit interface EN GDDR5 geheugen? Dat zou dan toch de optimale combi zijn? Wat vergeet ik hier?
de prijs, plus op dit moment heeft ati er nog geen baat bij zo'n modellen te lanceren
ze zijn er ongetwijfeld al aan bezig, want het is "the next step"
Geld. Een 256 bits interface betekent 256 losse kopersporen tussen GPU en geheugen; een 512 bits interface zelfs 512 kopersporen. Die moeten allemaal binnen vrij nauwe toleranties vallen, en voor GDDR5 zullen die toleranties alleen maar kleiner zijn. 256 Kopersporen met GDDR5 toleranties zijn nog betaalbaar, net zoals 512 kopersporen met GDDR3 toleranties. Maar 512 Kopersporen met GDDR5 toleranties wordt blijkbaar een probleem.
Idd, en wss hebben beide fabrikanten wel genoeg bandbreedte, waardoor 512bit en GDDR5 weinig winst op zou leveren, maar wel veel meer zou kosten.
Mis is hoe je het bekijkt. Nvidia gebruikt een hele grote bus(512bits voor GTX 28X) en ATI gebruikt een kleine bus(256bits). Door gebruik te maken van heel hoog geklokt geheugen hebben de GTX en de HD4870 toch ongeveer dezelfde bandbreedte tot hun beschikking. Maar ik kan je vertellen, dat de ATI oplossing goedkoper is :P. Het scheelt ruimte op de die en ook nog op het pcb.
Volgens mij is een van de redenen dat Ati GDDR5 gebruikt omdat ze een geheugenbus gebruiken die kleiner is dan die van de kaarten van Nvidia.
Exacte getallen heb ik niet maar dit zal een kostenplaatje zijn. De meerprijs van GDDR5 zalk iets minder zijn dan wanneer je GDDR3 gebruikt i.c.m. een bredere geheugenbus.

Qua geheugenbandbreedte zal hier ook niet geweldig veel verschil tussen zitten.(aanvulling nodig......).

Simpelgezegd zullen het dus zowel technische als finaciele overwegingen zijn.
Daar kan gewoon een HD4870X2 op hoor.
de 4870x2 is in feite 1 kaart, sli only gaat over 2 fysieke pci-e slots. Dat kan dus prima in je huidige mobo. :) aangezien die 4870x2 nog steeds 1 van de beste kaarten is lijkt me dat ook een prima keuze.

Daarbij is het kennelijk nog niet mogelijk, of moeilijk om gddr5 te gebruiken ipv gddr3, wat op zich geen gigantische verbetering brengt door het simpelweg te vervangen.
De geheugenbandbreedte moet het aansturen van die snellere chips ook aankunnen en dat zit er nog niet in bij nvidia.

Ff wachten dus nog :)
yup gewoon een Asrock kopen met bv de 750 sli chip

krijg je namelijk een mooi klein kaart bij voor op het mobo op SLI of Crosfire te enable :D
Dit had ook wel iets eerder gekund, want technisch heb je nu de ruimte voor een dubbelslotskoeler, wat voorheen onhandig was (de sandwich-koeler).

Overigens blijft nvidia maar dezelfde type chips en kaarten rebranden/uitbrengen. Er zijn onderhand al een legio aan kaarten aanwezig die moeilijk onderscheid maken op de markt.
Marketing strategie.

De GTX 295 was een reactie op de 4870X2 van ATI/AMD zoals in het bericht staat. Nvidia bracht deze kaart dus uit met de bedoeling beter te zijn dan AMD. Aangezien je als bedrijf dan altijd zo snel mogelijk je product wilt verkopen zoek je de makkelijkste oplossing. Bij Nvidia was dit dus twee kaarten aan elkaar maken en die met een fysieke SLI-brug contact met elkaar laten leggen.

Nu enige tijd later komen ze met dezelfde oplossing als AMD en komen ze dus weer in het nieuws met een 'nieuwe' versie van de GTX 295. Ze zeggen dat deze goedkoper te produceren zal zijn, natuurlijk klopt dit, je maakt immers maar 1 kaart met 2 GPU's ipv 2 kaarten met elk 1 GPU.

Nvidia bespeelt hiermee de markt.
Blijkbaar kon het eerder niet uit. Het is nog steeds nuttig om deze kaart uit te brengen, omdat de GTX295 daarmee iets goedkoper zou kunnen worden en daarmee concurrerender zou kunnen zijn. En zoals je zelf zegt is het idd ook makkelijker om de kaart nu te koelen en er eventueel een andere koeler op te plaatsen.

Overigens heeft dit niets te maken met het rebranden van een kaart. Nvidia verandert verder niets aan de specificaties, hij ziet er alleen anders uit. De naam zal ook gewoon hetzelfde blijven. Je hoeft je 'oude' GTX295 dus niet in te ruilen voor deze 'nieuwe' ;)

[Reactie gewijzigd door pizzaislekker op 26 maart 2009 14:10]

Om snel te reageren op de 4870x2 hebben ze de keuze gemaakt een gemakkelijkere en snellere videokaart te maken, ipv een single pcb x2 kaart te ontwerpen, maken en uit te brengen. Dat zou ati veel tijd geven de performance kroon te dragen en zodoende veel meer van die 4870x2 kaarten over de toonbank te knikkeren.
Puur om dat te voorkomen hebben ze waarschijnijk de minder efficiente weg gekozen en de huidige gtx295 uit gebracht.
Ondertussen zijn ze wel bezig geweest die single pcb te maken. Die komt dus binnenkort uit, als het nieuwsbericht klopt.

tegen de tijd dat die een beetje normaal te koop is zal er wel weer een 4890x2 of 5xxx serie zijn die stukje sneller is.
Ik ben benieuwd of deze kaart dan door type-aanduiding oid nog te onderscheiden is van eerdere twee-kaarten-in-een-kastje modellen. Qua performance zal het weinig uitmaken, maar misschien zijn er tweakers die geïnteresseerd zijn in de paar graden temperatuurverschil die het nieuwe ontwerp mogelijk kan opleveren.
Zo vond ik het ook met de 9800GTX en de GTX+, of de 8800GTS 320 (g80) en de 8800GTS 512 (g92).

Ik kan ze nog uit elkaar houden maar ik ben er nou niet echt blij mee vooral omdat Nvidia de namen makkelijker zou maken, is deels wel gelukt maar deze zou eigenlijk de GTX296 of GTX295 SC (singe card) ofzo moeten heten.
Ik denkd at de benaming GTX295 SC ook niet zou gaan werken. EVGA (en BFG volgens mij) gebruikt deze aanduiding voor de standaard fabriek af overgeclockte kaarten. De naamsverwarring zal blijven bij NV en wij Tweakers weten waar we de verschillen moeten zoeken, maar de doorsnee computergebruiker niet.

Aan de andere kant moet je je afvragen of het voor de alledaagse gebruiker van belang is welke core er in een kaart zit, of deze gerebrand is of dat deze op één of twee pcb's uitgevoerd wordt. De standaard gebruiker wil gewoon zijn spellen kunnen spelen op zijn manier, ongeacht welke naam er aan de grafische kaart hangt.

Ze zouden er bij Nvidia wel eens een wedstrijd/prijsvraag aan kunnen hangen waarbij de winnaar het eerste exemplaar ontvangt voor de best gekozen naam/aanduiding.
voor een x2 heb je toch crossfire ondersteuning nodig?
nope, die crossfire ondersteuning wordt nu al in de kaart zelf geregeld, en hoeft dus niet meer via het moederbord te lopen.

Een 4870x2 kan dus op elk bord (met PCIe x16 natuurlijk) gebruikt worden.
Hetzelfde geld ook voor de GTX295 trouwens, daar heb je geen SLI ondersteuning voor nodig.
Ummmm, nee dat heb je helemaal niet. Die heeft namelijk, zoals in het artikel staat, een interne crossfire brug. Dat hoeft je mobo dus totaal niet te doen.

[Reactie gewijzigd door Reinman op 26 maart 2009 13:39]

Nee, de Crossfire ondersteuning zit in feite op de kaart zelf. beetje krom gezegd misschien, maar het maakt niet uit op wat voor moederbord je zo'n kaart draait.
Nee, een X2 kaart werkt als een single kaart, de CF werkt intern in de kaart zelf dus het contact met de mobo gaat als een single kaart.
Nee, een x2 heeft interne crossfire. Hierdoor kan je deze kaart ook op een SLI only gebruiken.
Nee, want, het is namelijk zo dat het een intern fysieke crossfire is dus heeft niks te maken met de mobo. het zijn gewoon 2 chips op een pcb die dan samenwerken en als naam dan eigenlijk crossfire krijgen.

zo werkt het trouwens ook andersom een gtx295 of 9800GX2 werkt ook op een
crossfire mobo.
Een X2 kaart heeft de crossfire-ondersteuning onboard. Die kun je dus rustig op een moederbord met maar 1 PCI-E slot zetten. De drivers doen de rest.
Jongens, is het nou echt nodig om 8 reacties te plaatsen die allemaal zeggen dat je geen CF moederbord nodig hebt om een x2 te draaien?
Als je even naar de posttijden kijkt, dan zul je zien dat ze allemaal op het zelfde moment gepost hebben. Dus de andere reacties stonden er nog niet toen de berichten hierboven getyped werden :-)
Vrees dat je dit kaartje maar zal kunnen huisvesten in een uit de kluiten gewassen kast, want hoe krijgen ze anders alles van twee PCB's op één enkel exemplaar? Juist: PCB langer maken!

Maar als we rekening houden met de doelgroep hiervan, mag dit géén enkel probleem zijn...
Ik weet niet of hij nog langer kan worden (gewicht), dalijk moeten er pilaartjes onder gezet worden om het ding in zn slot te houden. Ik weet ook niet of er een bepaalde max is gesteld aan de lengte van PCI(e) kaarten, weet iemand dit?
Tsja... of je leest effe het orginele artikel:
The length of PCB board remains as 266.7mm, therefore, the wiring and power supply parts as well as sandwich cooler need to be rearranged.
ik betwijfel of dat "behuizing" wel een goed idee is, want als ze een BIJNA gesloten behuizing gebruiken wordt het kaart nog warmer.
Hoe meer gesloten hoe beter eigenlijk, werkt als een soort airduct. Als ze nou slim zijn stappen ze af van de 1 fan op de stockkoeler rage, plak er gewoon 2 fan's op!

Maar zoals ze in het artikel ook al zeggen gaat wss het energieverbruik ietsjes omlaag dus miss. ook iets minder warm ;)
Dat klopt inderdaad. Als je een gesloten systeem hebt (afgesloten behuizing) ben je veel beter in staat de lucht te sturen waar je deze hebben wil. In dit geval over de verschillende heatsinks.
Bij "open" kaarten zal je altijd het probleem hebben dat een deel van je lucht als "verloren" beschouwd kan worden omdat deze niet goed door/over de heatsink heen loopt.
dit is mooi (twee aan mekaar geplakten videokaarten)dus geen sli meer nodig dan koop je maar een kaart in plaats van 2 :P
als dat betekent dat het energie verbruik en de prijs van de GTX295 straks met zo'n ¤100,- omlaag kan is het een zeer welkome verbetering want dat moet AMD gegarandeerd de prijs van de 4870x2 ook omlaag doen. Maarja eigenlijk is een dual chipkaart een beetje een overkill in de meeste gevallen maar beide fabrikanten zouden er goed aan doen als ze in idle 1 gpu uit zouden kunnen schakelen en de eerste een stuk lager zouden clocken. zou toch best wel wat wattage verlaging moeten opleveren. Eigenlijk zou ik het wel een goede zaak vinden als ze het energie verbruik van een compleet high-end systeem in idle weer onder de 100 watt zouden weten te brengen het load verbruik maakt me eigenlijk niet zo bijzonder veel uit omdat dit vaak maar een uurtje of 2-3 per dag zou zijn. klinkt misschien iets wat radicaal maar het is haalbaar en zou een aanzienlijke verbetering zijn en natuurlijk een hoop uitmaken op de energie rekening.

[Reactie gewijzigd door Mietex op 26 maart 2009 14:44]

De 295GTX heeft meer behoefte aan meer geheugen. Met name in 2560x1600 resoluties, waar je zo'n zware kaart voor zou komen storten de prestaties bij games als Crysis in. Gewoon omdat er te weinig geheugen is om textures klaar te zetten. 2x2x896=3584mb geheugen zou meer helpen.
Maar sorry hoor, niemand speelt spellen op 2560x1600.

Ik heb heel wat vrienden die een High end Game pc hebben en zij hebben allemaal alleen LCD schermen die een resolutie van 1920x1200 Max aan kan.

En meer heb je ook niet nodig, spellen spelen op 1920x1080 (FullHD) is all supper mooi.

Dus wat jij zegt is toch all onzin.

[Reactie gewijzigd door AmigaWolf op 27 maart 2009 15:55]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True