Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 54 reacties
Bron: DailyTech

Sapphire heeft eerder deze maand een demonstratie gegeven van de nieuwste videokaart die het bedrijf ontwikkeld heeft: de ‘Godfather’. De videokaart is opmerkelijk omdat er twee Radeon X1950 Pro-gpu’s aanwezig zijn.

De kaart is uitgerust met een pci express x16-interface en twee pci express-stroom-aansluitingen om de kaart van voldoende energie te voorzien. De videokaart is verder in het bezit van twee dvi-aansluitingen die gelijktijdig gebruikt kunnen worden en ook aanwezig zijn de twee aansluitingen die nodig zijn voor een CrossFire-opstelling. Hiermee zou het mogelijk zijn om twee van dergelijke kaarten in CrossFire-modus met elkaar te laten samenwerken waardoor effectief een quad-CrossFire-opstelling ontstaat. Wanneer een enkele kaart gebruikt wordt is een CrossFire-moederbord niet noodzakelijk om gebruik te kunnen maken van de videokaart. Sapphire claimt dat de kaart begin 2007 op de markt gezet zal worden, ruim voor de introductie van de Radeon R600.

Sapphire dual-gpu Radeon X1950 Pro
Moderatie-faq Wijzig weergave

Reacties (54)

Een Godfather voor de Quadfather van amd :Y)
Ik vraag mij wel af hoeveel dit speeltje zal verbruiken want dat zal wel niet mals zijn.
Ze zouden beter werken aan zuinige kaarten inplaats van deze monsters te creeren. Want persoonlijk vind ik het toch wel erg dat terwijl Intel en Amd er alles aan doen om zuinige processors te maken, dat zij videokaarten maken die altijd maar meer verbruiken.
Straks gaan ze hun kaarten nog standaard moeten leveren met waterkoeling.

@ damarcus, dat kiezen voor betere prestaties of oude technologie moet juist niet. Kijk naar Intel, die zijn toch ook afgestapt van de energievretende monsters terwijl de c2d wel 2 keer zo snel is als hun oude pentium. Zoiets zouden ze bij Nvidia of Ati ook moeten doen.
Nee, maar we verwachten wel dat de graphics erop vooruitgaan in de games. Dan is het best aardig dat een GeForce 2 nabij lange niet zoveel stroom verbruikt zoals een 7950GX2 dat doet, maar het is wel kiezen of delen.
je hoeft in ieder geval niet bang meer te zijn voor de koude wintermaanden :D gewoon lekker met je voetjes bij de PC ipv de kachel :+
@Hellsnake:

Daar zullen ze ook vast wel mee bezig zijn. Natuurlijk is het zinvol om een energiezuinige processor te ontwikkelen. Dit komt alleen maar ten voordeel van het broeikaseffect.

Tuurlijk, wij Tweakers klagen over een hoog energieverbruik van deze videokaarten. Maar ik neem aan dat het zijn tijd nodig heeft voordat er zuinige GPU's bestaan die goede prestaties leveren. Tenslotte heeft het Intel ook 3 jaar gekost voordat de Core Duo / Core 2 Duo op de markt kwam. Hiermee wil ik niet zeggen dat ATi en nVidia dit ook binnen 3 jaar voor elkaar zal krijgen, maar het is een voorbeeld ;)
CrossFire=2 ati kaarten/gpu's
Quad CrossFire=4x2 atikaarten/gpu's?

Ik neem aan dat Dual CrossFire een betere benaming is ;)
Nvidea heeft toch ook quad SLI en dat zijn ook 4 gpu's, dus over die naam zou ik me niet zo druk maken
Ja maar met Nvidia heb je in Quad SLI 4 GPU's
met Quad CrossFire heb je er al 8, dit maakt wel een erg groot verschil lijkt me.....
Ben benieuwd wat voor een bakbeest van een voeding je nodig hebt om die van energie te voorzien :+

[edit] Typo
ehm nee, SLI == 2 GPU's dus Quad SLI == ook 8GPU's net als Quad CrossFire terwijl beide maar 4 GPU's is
Quad crossfire kan wel. Crossfire kan meer dan 2 gfx-en aan en er zijn moederborden met 4x pci-e dus in theorie zou het moeten kunnen
Je haalt de woorden uit mijn mond
In de buurt van de 8800??
Neen want geen ondersteuning voor DX10
Wat is dat nu toch voor onzin? DX10 is niet heilig. Als je zo'n kaart koopt, gaat het er toch om wat de kaart nu presteert in games? Games zullen voorlopig nog wel een tijdje DX9 blijven, dus is voorlopig niets aan de hand.

Op het moment dat DX10 games een beetje mainstream zijn, is de kaart toch al te "traag" voor woorden net als de 8800.

@Arqion:
Vista ondersteunt wel DX10 maar kan optimaal gebruikt worden met DX9c kaarten met PS 2.0. Wat dat betreft hoef je het ook zeker niet te laten. Ze gaan deze kaart ook echt niet duurder maken dan de 8800GTX. Daarnaast komt de R600 idd, maar ze hebben de keuze om nu met een tussenoplossing te komen niet zomaar gemaakt natuurlijk.
Wat is dat nu toch voor onzin? DX10 is niet heilig. Als je zo'n kaart koopt, gaat het er toch om wat de kaart nu presteert in games? Games zullen voorlopig nog wel een tijdje DX9 blijven, dus is voorlopig niets aan de hand.
Je moet ook een beetje toekomst gericht kijken hoor. Vista is niet meer ver af he. Maantje... En er zijn toch al een aantal nice games aangekondigd die speciaal voor DX10 werken, en een hoop patchen voor games om deze DX10 support te geven met een beetje extra eye candy.

Het spijt me, maar deze kaart lijkt me nutteloos. Je koopt waarschijnlijk zelf een 8800GTX voor minder dan wat deze kaart zal kosten. En dan heb je nog de R600 die in Q1 2007 uitkomt normaal.

Het feit is, de normale x1950 is niet zoveel goedkoper dan de 8800GTX, en dan verwacht men een dual gpu versie ervan te kunnen verkopen... Iedereen met een beetje kennis weet dat deze kaart nooit populair zal worden. Misschien voor de freaks die denken dat 2 GPU altijd beter is dan één...
Zoek jij eens eventjes de prijs van een X1950pro, die is dus echt een heel stuk goedkoper dan een 8800GTX...
Klets geen onzin man!
Als je er niets van weet hou je dan stil.. dit staat echt ongelovelijk dom.

Je beweert dat deze kaart ongeveer even duur wordt als een 8800GTX..
Daar is nog niets over bekend en als je moet gaan gokken dan kun je wel nagaan dat een 8800GTX duurder blijft omdat die veel beter presteert Crossfire schaalt geen 100% extra, en een 8800GTX is twee keer zo snel als een X1950pro.

Je beweert dat DX10 niet veel anders is dan DX9..
In dat opzicht is een Lada niet veel anders dan een Ferrari.

Je beweert dat meerdere cores niet beter zijn voor gebruikers anders dan freaks..
Dus thuisgebruikers draaien/openen niet vaak meerdere applicaties tegelijk?
En kom niet met die onzin dat er nog weinig applicaties zijn die multithreaded zijn geschreven, het OS verdeelt de taken zelf over de cores.
Een algemene misvatting onder computergebruikers, jij denkt dat als een programma niet multithreaded is geschreven de meerdere cores ook niet benut worden.
Dat is deels waar, maar als je meerdere programma's tegelijk draait verdeelt je OS de taken over meerdere cores.

Mocht je het er niet mee eens zijn dan graag je verhaal onderbouwen, er zijn mensen die dit lezen en daar hun meming op baseren.
Als je onzin praat maak je daar de mensen niet wijzer mee, snap je?

Mvg,

Bas
Ben ik de enigste die die kaart monsterlijk groot vind op de foto?

ok. het is een proof of concept versie, maar dan nog, damm.
Tja, hij moet wel zo hoog worden. Normaal zijn de kaarten qua lengte lang, nu moet die lengte worden omgezet in hoogte, gezien je maar een beperkte lengte kunt hebben
inderdaad wel monsterlijk hoog ja, daar blijft vast heel veel warmte onder hangen als je em niet goed ventileerd... maarja met 1 of 2x zoon monster in je pc en een leuke quadfather opstelling krijgt het toch meer weg van een straalkacheltje dan een computer, dan kunnen een paar extra fans vast geen kwaad :+
Nee je bent niet de enige! Ik zat ook al te bedenken dat je op deze manier dadelijk een Grafische kaart koopt waar je een Moederboord in plaatst ipv andersom. De graka's lijken steeds groter te worden en als je dan een mini ATX bordje hebt dan valt ie niet eens meer op onder je Graka!
Kan het niet zo zijn dat deze kaart later een firmware/bios update krijgt, waardoor hij alsnog DirectX 10 compatible wordt?
Nee dat kan niet, dat is niet firmware bepaald, dit zit in de gpu.
alle gpu's zullen wel dx10 compatibel zijn, het gaat erom om of ze dx10 compliant zijn.
Wie nu nog zo slim is om zo een ding te kopen , dan weet ik het ook niet meer hoor. Dit ding kan niet toppen aan een 7950GX2 met een groot overclock potentiaal. (Zie X1950Pro crossfire) En nog een groot nadeel is Dual-GPU. Ik heb da 1x gedaan met een 7950GX2 en echt , ik doe het nooit meer.
In 60% van de spellen wordt crossfire en sli niet ondersteund. En dan ben je dus niks met je kaart. Soms heb ik daardoor echt agressieaanvalen gekregen :D

En inderdaad , de 8800GTS lijkt me veel betere keuze, en toekomst gerichter. En is single gpu. Vergeet ook de prijs niet , dit ding zal echt nog veel onder de 400 euro zitten.
een radeon 1900 nog wat of 1950 nog wat is ongeveer even snel als een 7950GX2, dus een dual gpu 1900 of 1950 zou volgens mij sneller moeten zijn
Er is geen enkele single ati gpu die ook maar in de buurt van de GX2 komt. Een X1950 pro al helemaal niet.
Laten we eerst maar is afwachten wat hij echt gaat kosten.
Straks haal je hem voor 230¤ en dan kan het best een leuke kaart zijn.
¤230,- is wel erg goedkoop denken... Geloof niet dat hij zo goedkoop wordt :)
Het is maar afwachten hoe goed de Geforce 8 serie van nvidia presteert wanneer DX10 spellen mainstream worden. Destijds was de 9700(pro) van ATI ook de eerste kaart die DX9 aankon. Tegen de tijd dat de DX9 spellen mainstream waren was de 9700 alweer te traag om alle spellen vloeiend te kunnen draaien. Ik denk dat het met DX10 niet anders zal zijn.

Dus dit kaartje van Sapphire heeft op dit moment wel nut zeker zo'n grote partner als Sapphire die met overstock zit > wat doe je dan? Zo'n kaartje als deze uitbrengen bijv.

@ibex:
nu ATI overgenomen is door AMD zou het me niets verbazen als zij wel die koers zullen varen. Als ATI zich wilt onderscheiden van Nvidia dan zou dat een goede zet zijn.
In OpenGL is het nu huilen met de pet op in Vista met de huidige Nvidia drivers , zeker 40 % minder snel met dezelfde hardware , hoe het met D3D zit weet ik niet , ik heb enkel Quake getest onder Vista...
Op die foto lijkt het dat die kaart bijna het formaat heeft van het moederbord. Vroeger zag je de CPU groter en groter worden, met steeds grotere koelprofielen.
Nu zie je hetzelfde gebeuren met GPU's, al hoop ik dat er binnenkort - net zoals anderen ook vinden hierboven - dezelfde weg op gegaan wordt als bijvoorbeeld de Core 2 Duo. Veel sneller, maar koeler en zuiniger :).
Kentsfield gaat nochtans de verkeerde kant op. Het verbruik verdubbelt.
Conroe 2 cores -> Kentsfield 4 cores: verdubbeling TDP
Nvidia GX2 2 gpu's -> Nvidia G80 1 GPU -> verbruik daalt!

Dus wat gaat dan de goede kant op? CPU's of GPU's?
Nee dx10 is hardwarematig.
Ah... dan zal het wel aardig wat kunnen schelen ja :)

Maar aan de andere kant; de hoeveelheid spellen die nu volledig/beter draaien via d10 valt nog mee. Je kan nog makkelijk een jaar (ofzo) genieten van een d9 kaart denk ik.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True