Sapphire komt met dual-gpu X1950-videokaart

Sapphire heeft eerder deze maand een demonstratie gegeven van de nieuwste videokaart die het bedrijf ontwikkeld heeft: de ‘Godfather’. De videokaart is opmerkelijk omdat er twee Radeon X1950 Pro-gpu’s aanwezig zijn.

De kaart is uitgerust met een pci express x16-interface en twee pci express-stroom-aansluitingen om de kaart van voldoende energie te voorzien. De videokaart is verder in het bezit van twee dvi-aansluitingen die gelijktijdig gebruikt kunnen worden en ook aanwezig zijn de twee aansluitingen die nodig zijn voor een CrossFire-opstelling. Hiermee zou het mogelijk zijn om twee van dergelijke kaarten in CrossFire-modus met elkaar te laten samenwerken waardoor effectief een quad-CrossFire-opstelling ontstaat. Wanneer een enkele kaart gebruikt wordt is een CrossFire-moederbord niet noodzakelijk om gebruik te kunnen maken van de videokaart. Sapphire claimt dat de kaart begin 2007 op de markt gezet zal worden, ruim voor de introductie van de Radeon R600.

Sapphire dual-gpu Radeon X1950 Pro

Door Hielko van der Hoorn

21-12-2006 • 18:42

54

Bron: DailyTech

Reacties (54)

54
54
17
4
2
25
Wijzig sortering
Een Godfather voor de Quadfather van amd :Y)
Ik vraag mij wel af hoeveel dit speeltje zal verbruiken want dat zal wel niet mals zijn.
Ze zouden beter werken aan zuinige kaarten inplaats van deze monsters te creeren. Want persoonlijk vind ik het toch wel erg dat terwijl Intel en Amd er alles aan doen om zuinige processors te maken, dat zij videokaarten maken die altijd maar meer verbruiken.
Straks gaan ze hun kaarten nog standaard moeten leveren met waterkoeling.

@ damarcus, dat kiezen voor betere prestaties of oude technologie moet juist niet. Kijk naar Intel, die zijn toch ook afgestapt van de energievretende monsters terwijl de c2d wel 2 keer zo snel is als hun oude pentium. Zoiets zouden ze bij Nvidia of Ati ook moeten doen.
DaMarcus Admin Harde Waren / Consumentenelektronca @Verwijderd21 december 2006 18:52
Nee, maar we verwachten wel dat de graphics erop vooruitgaan in de games. Dan is het best aardig dat een GeForce 2 nabij lange niet zoveel stroom verbruikt zoals een 7950GX2 dat doet, maar het is wel kiezen of delen.
je hoeft in ieder geval niet bang meer te zijn voor de koude wintermaanden :D gewoon lekker met je voetjes bij de PC ipv de kachel :+
DaMarcus Admin Harde Waren / Consumentenelektronca @Verwijderd22 december 2006 19:29
@Hellsnake:

Daar zullen ze ook vast wel mee bezig zijn. Natuurlijk is het zinvol om een energiezuinige processor te ontwikkelen. Dit komt alleen maar ten voordeel van het broeikaseffect.

Tuurlijk, wij Tweakers klagen over een hoog energieverbruik van deze videokaarten. Maar ik neem aan dat het zijn tijd nodig heeft voordat er zuinige GPU's bestaan die goede prestaties leveren. Tenslotte heeft het Intel ook 3 jaar gekost voordat de Core Duo / Core 2 Duo op de markt kwam. Hiermee wil ik niet zeggen dat ATi en nVidia dit ook binnen 3 jaar voor elkaar zal krijgen, maar het is een voorbeeld ;)
CrossFire=2 ati kaarten/gpu's
Quad CrossFire=4x2 atikaarten/gpu's?

Ik neem aan dat Dual CrossFire een betere benaming is ;)
Nvidea heeft toch ook quad SLI en dat zijn ook 4 gpu's, dus over die naam zou ik me niet zo druk maken
Ja maar met Nvidia heb je in Quad SLI 4 GPU's
met Quad CrossFire heb je er al 8, dit maakt wel een erg groot verschil lijkt me.....
Ben benieuwd wat voor een bakbeest van een voeding je nodig hebt om die van energie te voorzien :+

[edit] Typo
ehm nee, SLI == 2 GPU's dus Quad SLI == ook 8GPU's net als Quad CrossFire terwijl beide maar 4 GPU's is
Quad crossfire kan wel. Crossfire kan meer dan 2 gfx-en aan en er zijn moederborden met 4x pci-e dus in theorie zou het moeten kunnen
Je haalt de woorden uit mijn mond
In de buurt van de 8800??
Neen want geen ondersteuning voor DX10
Wat is dat nu toch voor onzin? DX10 is niet heilig. Als je zo'n kaart koopt, gaat het er toch om wat de kaart nu presteert in games? Games zullen voorlopig nog wel een tijdje DX9 blijven, dus is voorlopig niets aan de hand.

Op het moment dat DX10 games een beetje mainstream zijn, is de kaart toch al te "traag" voor woorden net als de 8800.

@Arqion:
Vista ondersteunt wel DX10 maar kan optimaal gebruikt worden met DX9c kaarten met PS 2.0. Wat dat betreft hoef je het ook zeker niet te laten. Ze gaan deze kaart ook echt niet duurder maken dan de 8800GTX. Daarnaast komt de R600 idd, maar ze hebben de keuze om nu met een tussenoplossing te komen niet zomaar gemaakt natuurlijk.
Wat is dat nu toch voor onzin? DX10 is niet heilig. Als je zo'n kaart koopt, gaat het er toch om wat de kaart nu presteert in games? Games zullen voorlopig nog wel een tijdje DX9 blijven, dus is voorlopig niets aan de hand.
Je moet ook een beetje toekomst gericht kijken hoor. Vista is niet meer ver af he. Maantje... En er zijn toch al een aantal nice games aangekondigd die speciaal voor DX10 werken, en een hoop patchen voor games om deze DX10 support te geven met een beetje extra eye candy.

Het spijt me, maar deze kaart lijkt me nutteloos. Je koopt waarschijnlijk zelf een 8800GTX voor minder dan wat deze kaart zal kosten. En dan heb je nog de R600 die in Q1 2007 uitkomt normaal.

Het feit is, de normale x1950 is niet zoveel goedkoper dan de 8800GTX, en dan verwacht men een dual gpu versie ervan te kunnen verkopen... Iedereen met een beetje kennis weet dat deze kaart nooit populair zal worden. Misschien voor de freaks die denken dat 2 GPU altijd beter is dan één...
Zoek jij eens eventjes de prijs van een X1950pro, die is dus echt een heel stuk goedkoper dan een 8800GTX...
Klets geen onzin man!
Als je er niets van weet hou je dan stil.. dit staat echt ongelovelijk dom.

Je beweert dat deze kaart ongeveer even duur wordt als een 8800GTX..
Daar is nog niets over bekend en als je moet gaan gokken dan kun je wel nagaan dat een 8800GTX duurder blijft omdat die veel beter presteert Crossfire schaalt geen 100% extra, en een 8800GTX is twee keer zo snel als een X1950pro.

Je beweert dat DX10 niet veel anders is dan DX9..
In dat opzicht is een Lada niet veel anders dan een Ferrari.

Je beweert dat meerdere cores niet beter zijn voor gebruikers anders dan freaks..
Dus thuisgebruikers draaien/openen niet vaak meerdere applicaties tegelijk?
En kom niet met die onzin dat er nog weinig applicaties zijn die multithreaded zijn geschreven, het OS verdeelt de taken zelf over de cores.
Een algemene misvatting onder computergebruikers, jij denkt dat als een programma niet multithreaded is geschreven de meerdere cores ook niet benut worden.
Dat is deels waar, maar als je meerdere programma's tegelijk draait verdeelt je OS de taken over meerdere cores.

Mocht je het er niet mee eens zijn dan graag je verhaal onderbouwen, er zijn mensen die dit lezen en daar hun meming op baseren.
Als je onzin praat maak je daar de mensen niet wijzer mee, snap je?

Mvg,

Bas
Ben ik de enigste die die kaart monsterlijk groot vind op de foto?

ok. het is een proof of concept versie, maar dan nog, damm.
Tja, hij moet wel zo hoog worden. Normaal zijn de kaarten qua lengte lang, nu moet die lengte worden omgezet in hoogte, gezien je maar een beperkte lengte kunt hebben
inderdaad wel monsterlijk hoog ja, daar blijft vast heel veel warmte onder hangen als je em niet goed ventileerd... maarja met 1 of 2x zoon monster in je pc en een leuke quadfather opstelling krijgt het toch meer weg van een straalkacheltje dan een computer, dan kunnen een paar extra fans vast geen kwaad :+
Nee je bent niet de enige! Ik zat ook al te bedenken dat je op deze manier dadelijk een Grafische kaart koopt waar je een Moederboord in plaatst ipv andersom. De graka's lijken steeds groter te worden en als je dan een mini ATX bordje hebt dan valt ie niet eens meer op onder je Graka!
Hoeveel stroom gaat dit dingetje verzuipen? En komt het in de buurt van de 8800GTX?
DaMarcus Admin Harde Waren / Consumentenelektronca 21 december 2006 18:44
Een quad-CrossFire-opstelling? Dat hebben we anno 2007 nog niet eens nodig denk ik ;)
Nou ze vinden de laatste tijd het wel leuk om de twee op een kaarten te maken. Vraag me af hoe hij het doet in vergelijking met zijn (om het zo maar te zeggen) nVidia counterpart de 7950 X2. Geloof alleen dat de x1950 al aardig in de buurt hiervan kwamen of gelijk lagen. Is toch een mooie oplossing als tegengewicht tegen de 8800 totdat de r600 uitkomt.
Het wachten is op de eerste kaart die zomaar poef van z'n PCI-e connector breekt. Onlangs een 7950GX2 in m'n handen gehad en dat was ook al zo'n monster. Maar presteren zal het wel zeker?
Wel een grote 'bak' zo te zien. Maar wel beter dat het geen dual/cross moederbord perse nodig heeft.

Maar heeft de normale gebruiker dit nodig ? (Zal ik het antwoord geven: NEE).

De normale gebruiker zit met een 17" hoog uit 19" en dual DVI = ok maar een SLI of CrossFire zullen de meeste niet nodig hebben !
Typisch ati, too little, too late.
Wie is nu geinteresseerd in deze gpu als er een G80 bestaat die elke bestaande crossfire combinatie eruit fietst?
Typisch de nvidiot aval0ne die weer moet kankeren op ATI.

Alleen komt deze kaart helemaal niet van ATI, maar van Sapphire. Maar ja... als je alles door je Nvidia bril bekijkt, dan vallen zulke cruciale details waarschijnlijk niet op.
DaMarcus Admin Harde Waren / Consumentenelektronca @aval0ne22 december 2006 19:45
@aval0ne:

Zolang we niet weten voor hoeveel geld deze videokaart over de toonbank gaat, kunnen we onszelf niet wijsmaken of deze videokaart waar voor zijn geld gaat leveren.

Als de kaart voor 230,- / 250,- over de toonbank gaat, vind ik dat een hele schappelijke prijs. Er zijn genoeg mensen op deze wereld die FPS (framerates per seconde i.p.v. first person shooters) willen voor hun geld, maar niet de volle duit willen betalen. Voor DX10 betaal je de hoofdprijs en DX9 betaal je wat minder voor.

nVidia levert op het moment de snelste GPU's, maar deze GPU is van een nieuwe generatie. Of vindt jij het ook vreemd waarom een Audi A6 nieuwe model wint van een Mercedes E-klasse vorige model?

Op dit item kan niet meer gereageerd worden.