Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Submitter: Psychatic

Diamond presenteert binnenkort het xDNA-platform, waarmee het mogelijk wordt om op elk moederbord, inclusief die met een nVidia-chipset, een Crossfire-opstelling te bouwen. Voorwaarde is wel dat er twee Diamond-videokaarten gebruikt worden.

Het Amerikaanse Diamond, dat in juni zijn comeback op de markt voor grafische kaarten maakte, zal xDNA vermoedelijk op 11 november presenteren. De technologie omvat diverse features die al van andere Radeon-kaarten bekend zijn, maar nieuw is de 'XFusion multi-gpu upgradeability'.

Dankzij XFusion kan praktisch elk moederbord met twee willekeurige Diamond Radeon-kaarten uitgerust worden om een Crossfire-opstelling te maken, schrijft Nordic Hardware. De site behandelt uitsluitend opstellingen met twee kaarten; onduidelijk is of de oplossing van Diamond ook triple- of quad-opstellingen mogelijk maakt.

Met xDNA wordt ook ondersteuning voor ATi's Avivo HD en Diamonds eigen TruHD geÔntroduceerd. Die laatste technologie moet voor heldere High Definition-beelden en voor een betere geluidsweergave vanaf bluray- en hd-dvd-schijfjes zorgen. Begin september maakte HP het al mogelijk om Crossfire op een nForce-systeem te draaien door middel van een techniek die het bedrijf, opvallend genoeg, Voodoo DNA had gedoopt.

Diamond xDNA
Moderatie-faq Wijzig weergave

Reacties (55)

Wel geweldig dat VooDoo terug is bij "het bedrijf" dat dit heeft uitgevonden.

Ik denk dat dit ook interessant is voor mensen met een kleinere portomonee

Je koopt een moederbordje goedkoper dan normaal, maar kunt er wel een crossfire opstelling op pluggen mocht je dat later willen doen.

Het oude Daimond is natuurlijk niet terug, maar alleen de naam.

Het bedrijf ontwierp vroeger zelf de chipsets, en nu zijn ze alleen een merknaam die eigen functionaliteit toevoegd...

Maar toch innovatief is het weer wel...net als het voodoo-kaartje meer dan 10 jaar geleden...

edit:
tjongejonge inderdaad. ik vergis me...
De chipset van daimond kwamen inderdaad van 3Dfx...

[Reactie gewijzigd door jqv op 30 oktober 2007 15:52]

Volgens mij heeft Diamond nooit echt zelf chipsets geproduceerd hoor. Ze hadden vroeger idd voodoo-kaartjes zoals de Monster 3D en de Monster 3D-2. Maar de chipsets van die kaarten waren van 3d-fx. Daarna met de Viper 550 en de Viper 770 gebruikten ze de Riva TNT chipsets en daarna in de Viper-2 de S3 Savage 2000 chipset. En sindsdien ging het niet meer zo goed met Diamond. Of bedoelde je iets anders?
Diamond heeft volgens mij nooit zelf chips gemaakt. Ik heb in ieder geval nog nooit een kaart met een Diamond chipset gezien. Ik denk dat je in de war bent met 3dfx.
Voodoo was een produkt van 3dfx, 3dfx mensen en technologie is al jaren terug opgekocht door nvidia. diamond is altijd alleen een kaartenfabrikant geweest die altijd net wat meer performance uit de kaarten trok dan de kaarten met reference design en net wat andere drivers maakten, dit doen ze nu ook weer, alleen zijn waarschijnlijk de mensen verandert. Dus voodoo is niet terug het bedrijf dat de merknaam voodoo gebruikte was 3dfx die maakte de grafische chips. Diamond heeft nooit grafische chips gemaakt. Vroeger niet en nu ook niet.
Mijn ervaring is dat Diamond ook vaak kaarten maakten met een te dunne pcb, waardoor de kaart niet strak in zijn slotje zat, waardoor pc's begonnen te piepen bij het opstarten. Heb dat meerdere malen mogen meemaken, met verschillende modellen; allemaal van Diamond. Had je die kaart eindelijk op de juiste graad zitten (100% haaks?) en vastgeschroeft; na een tikje of het verplaatsen van de kast begon het feest opnieuw.

(en nee, het waren gelukkig niet mijn pc's }> )

[Reactie gewijzigd door Madrox op 30 oktober 2007 20:59]

Diamond Stealth 3D 4Mb, Diamond Mondster 3D, 3D-2, en 2 verschillende Viper kaarten gehad, maar nooit problemen gehad.

Dit is de eerste keer dat ik hier over hoor......
Diamond heeft Voodoo1 en Voodoo2 kaartjes gemaakt, met de chipsets van 3dfx, die maakten toen nog geen eigen kaarten, denk dat Diamond de grootste leverancier was van 3fdx based kaartjes.. pas toen 3dfx zelf kaarten ging maken ging dat langzaam kapot tot nvidia het kocht. Diamond is overgenomen door S3, en die maakten daarna alleen nog kaarten gebasseerd op S3 chipsets... werd ook niks.. deden daarna alleen nog mp3 spelers (RIO?)... daarna nog als Sblue doorgegaan ofzo.. maar nooit meer wat van gehoord..
Wel geweldig dat VooDoo terug is bij "het bedrijf" dat dit heeft uitgevonden.
nVidia heeft anders niks aan SLI uitgevonden, dat is 3DFx geweest, wat later opgekocht is door nVidia...

De meeste technologieŽn die nVidia nu in zijn kaarten propt, zijn dan ook veelal ideeŽn van het toenmalige 3DFx... ;) Voor zover ik weet... :)
Het bedrijf ontwierp vroeger zelf de chipsets, en nu zijn ze alleen een merknaam die eigen functionaliteit toevoegd...
De Diamond Viper V770 (Ultra) was anders gebaseerd op een nVidia Riva TNT2 (Ultra) :)

[Reactie gewijzigd door CH40S op 30 oktober 2007 20:31]

Zou dit ook mogelijk zijn met 2 andere ati kaarten die met een Diamond BIOS zijn geflashed?
Als dat zo is, dan zal dit wel heel handig uitkomen voor een hoop mensen.
Denk het niet, aangezien de Diamond videokaarten, buiten de ATi features, ook eigen features hebben. Dit zal een standaard ATi kaart dus niet supporten. Ik denk dat je daarmee problemen krijgt.
Tenzij, zoals bijna altijd tegenwoordig, alle 'eigen' features pure software features zijn waarvan sommige tot op zekere hoogte aan/in de driver zijn gesleuteld. Dan maakt het niets uit.
Reken er maar niet op. Ik ken Diamond nog wel uit de Viper en Stealth tijden, die hadden ook altijd eigen BIOS versies en eigen drivers. Vaak werken diamond kaarten niet met reference BIOSsen en andersom.
Reken er maar niet op. Ik ken Diamond nog wel uit de Viper en Stealth tijden, die hadden ook altijd eigen BIOS versies en eigen drivers. Vaak werken diamond kaarten niet met reference BIOSsen en andersom.
Heb je toch wat verkeerd gedaan geloof ik... :)
Mijn broer had in het Viper tijdperk een Diamond Viper V770 Ultra, was toen je van het... En hadden we op een gegeven moment gewoon met drivers van nVidia zelf draaien, toen we er achter kwamen dat die drivers ook gewoon werkten... ;)

Dat BIOSsen niet altijd werken is logisch: iedereen is bijvoorbeeld vrij in de keuze van welk merk geheugenchips er gebruikt worden... ;) En zo heb je nog meer dingen, waardoor je af kan wijken van de reference kaarten en dus ook het BIOS... :)
Dit is natuurlijk een mooi verkoopargument voor Diamond, maar vraag me eerlijk gezegd af of Crossfire op iedere chipset echt meerwaarde gaat bieden. Als Diamond slim is dan gaan ze met name de high-end kaarten leveren met deze chip, omdat die het interessants zijn voor de markt. Doen ze dat niet dan zie ik de mensen die het willen gaan gebruiken als nog een specifiek crossfire of SLI bordje pakken omdat SLI/Crossfire juist interessant is met de highest-end kaarten en niet met het mid-end spul.

Maar de ontwikkeling van deze chip is natuurlijk mooi, als de samenwerking van videokaarten niet langer afhangt van de gebruikte chipset dan zijn we vrijer in de keuze van mobo en vidkaarten (en kun je ook dingen pakken als een dual xeon bordje :P)
Interessante ontwikkeling. Ik vraag me echter af wie er nou twee dure videokaarten in een systeem wil hebben.

1) Het is duur, heel duur
2) Niet bepaald stoom bezuinigend
3) Het is niet echt nodig. Een enkele high-end kaart moet games makkelijk aan kunnen

Ik kan me goed voorstellen dat negen van de tien mensen een dergelijk systeem niet op kunnen brengen.
2) Speel je 24/7 games dan of zouden de kaarten in het algemeen vaker idle draaien?

3) Ik vermoed, maar misschien moet ik meer benchmarks lezen, dat het spelen van spellen als Crysis of Supreme Commander op resoluties van 1600 of hoger, wel iets meer GPU-power eisen dan een enkele 8800GTX.
Supreme Commander vind ik nog wel meevallen.
Die neemt voornamelijk veel RAM geheugen in beslag. :)

Kijk maar eens naar World in Conflict!!
Dat is pas erg.
Wil je dat op een hoge resolutie spelen met eye candy aan dan is dat niet echt vloeiend speelbaar, zelfs niet met een 8800GTX.
Kijk maar eens naar World in Conflict!!
Dat is pas erg.
Wil je dat op een hoge resolutie spelen met eye candy aan dan is dat niet echt vloeiend speelbaar, zelfs niet met een 8800GTX.
Toch raar, want dat is toch echt het enige waar die game het van moet hebben...
Crysis draait bij mij anders vlekkenloos op een enkele GTX GPU. Zie geen vertragingen. Dit op high system settings. Very high kan ik helaas niet, omdat ik geen Vista geÔnstalleerd heb en dus geen DX10 tot m'n beschikking heb.
Crysis op very high op een hoge resolutie is niet speelbaar, lees maar eens het crysis topic op got: zelfs een ultra bijt er zijn tanden op kapot :/
Komt dit omdat ATi zijn crossfire technologie open heeft gemaakt dat dit mogelijk is? Zal waarschijnlijk idd wel een aardig prijsje zijn.
Dus dat betekent dat ze ook op mijn 650i SLi chipset kunnen? Hoe worden ze dan verbonden? Gewoon met de CF brug?

Voorwaarde is wel dat er twee Diamond-videokaarten gebruikt worden.
Zal dat software matig gedaan worden of zitten er in de grafische kaarten ook wat aanpassingen? Hoe dan ook is dit een zeer goede 'uitvinding' hoef je niet meerdere keren van een moederbord te verwisselen als je met een ATi of Nvidia kaart wilt gaan gamen.
Misschien heeft het niet zo veel nut behalve voor de mensen die geld over hebben en per sť een NVIDIA mobo willen met ATi kaarten in crossfire.

Wat ik wel leuk vindt is het feit dat kaartbouwers ook zelf weer wat gaan doen ipv alleen het referentiemateriaal te gebruiken! Bij mijn oude Diamond Viper V550 zat een eigen driver met Diamond menu. Mooie ontwikkeling, hierdoor zijn kaarten weer op meer punten te onderscheiden dan alleen de koeler die er op zit en soms de standaard OC versies.
Om Vista certified logo te hebben moeten de fabrikanten drivers hebben voor zowel x86- als x64-versies dacht ik.
Om Vista certified logo te hebben moeten de fabrikanten drivers hebben voor zowel x86- als x64-versies dacht ik.
En? Dat zullen ze toch wel hebben lijkt me? AMD/ATi schrijft gewoon x86 en x64 drivers voor de kaarten... Of lees ik ergens overheen?
Zou wel leuk zijn als de merknaam Voodoo wer terug zou komen :)

maargoed, ik blijf erbij dat meerdere videokaarten onzin is, en in vrijwel alle gevallen overkill. (oh, en ik ga Ťcht geen 6 of 7 honder euro neerleggen voor een mobo en 2 gfx kaarten, kom nou zeg..)
Wat natuurlijk wel weer interessant is: zou het dan ook mogelijk (en rendabel) zijn om 2 low-end kaartjes te kopen, ze te koppelen en voor weinig geld toch behoorlijk wat rekenkracht te hebben? kan me wel voorstellen dat je dan nog niet of nauwelijks goedkoper uit bent en features mist..

[Reactie gewijzigd door Xyzar_ op 30 oktober 2007 14:12]

Wellicht is het interessant als je nu een high end kaart koopt en over een jaar wilt upgraden. Je koopt dan dezelfde kaart erbij, die dan inmiddels low end is.
Misschien dat nVidia na de 9000-serie, niet over gaat op een 1, 2, 3-serie... of de X gaat gebruiken, zoals ATi deed.

Misschien gaan ze, in plaats van de GeForce, wel verder met de VooDoo 10-serie. Of een 20-serie. (Of bedenk wat...)
\[/Speculeer-modus] :z
Nvidia VooDoo 10GT

Nah tegenwoordig moet elke videokaart op zijn minst 5 cijfers hebben om uberhaupt aan te kunnen geven wat voor videokaart het is.

Waarschijnlijker is Nvidia 198550 GTLZX Performance Edition 2GB
:P
Volgens mij is de VooDoo naam op gegaan in GeForce... :)
De GeForce 1 is voor zover ik weet niets anders als een T&L unit, wat (voor zover ik weet) de VooDoo 2 ook heeft, maar dan als AddOn kaart en de GeForce 1 dit geÔntergreerd heeft in 1 kaart? :)

Of had nVidia toen 3DFx nog niet ingelijfd?
Die laatste technologie moet voor heldere High Definition-beelden zorgen
Wat is er dan mis met de huidige weergave? Via DVI of HDMI stuur je elke pixel gewoon naar je scherm zoals deze bedoeld is. Waarom dan in de hardware een filter bouwen dat de brightness op eigen initiatief gaat opkrikken?

Ik zie niet hoe zoiets de weergave natuurgetrouwer kan maken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True